首页 > 解谜 > 未解之谜 > 海市蜃楼
x

海市蜃楼是错觉还是幻觉

海市蜃楼 2026-03-07 菜科探索 +
简介:我们知道幻觉是将某些本身不存在的事物看成时真实存在着的一种虚幻表象,那么这里就出现了一个问题,,海市蜃楼是错觉还是幻觉呢?要知道海市蜃楼是人们看到的虚幻的影像,实际上它也是不存在的,所以这个问题的答案存在很多争议,今天我们就来解读一下这个问题。

【菜科解读】

我们知道幻觉是将某些本身不存在的事物看成时真实存在着的一种虚幻表象,那么这里就出现了一个问题,,海市蜃楼是错觉还是幻觉呢?要知道海市蜃楼是人们看到的虚幻的影像,实际上它也是不存在的,所以这个问题的答案存在很多争议,今天我们就来解读一下这个问题。

海市蜃楼是错觉还是幻觉

首先我们可以排除海市蜃楼是幻觉的说法。

因为海市蜃楼是人眼睛真实看到的,并不是人们脑海中联想出来的,而幻觉是完全看不到的东西却误认为它的存在,所以海市蜃楼不是幻觉,它可以被很多人同时观测到,而这一点和咖啡店幻觉是有本质的分别的。

其次海市蜃楼也不是错觉。

错觉是指人产生的与实际不相符的判断下视觉误差,比如黑林错觉、月球错觉等等,而海市蜃楼是人的视觉看到的真实的物质,它实际上是一种光的折射现象,将原来不在我们视野中真实存在的物体,通过折射出现在了我们的视野中,所以它不是错觉。

当然我们所说的错觉,并不是仅指视错觉,它也可以体现在其他知觉方面,比如掂量1000可的棉花和铁块,人会觉得铁块更重,这属于形重错觉;而在火车上人们会认为外面的树木在移动,这属于运动错觉,这是人们对客观事物歪曲的一种知觉,显然海市蜃楼不是其中的任何一种。

因此我们在讨论海市蜃楼是错觉还是幻觉时,可以明确的一点是,它既不是错觉也不是幻觉,而是一种物理现象,它是由于空气密度达到一定条件之后,人们在远处看到某个特定位置的事物的位置发生改变的一种现象,是可以运用科学的理论去给出合理解释的。

成都海市蜃楼景象

通常情况下海市蜃楼出现的位置是在海上或者沙漠中,因为它需要光线在延直线方向密度不同的气层中经过折射,最终产物种理效果,当然有些时候它也可能出现特殊的位置,不过2017年出现的成都海市蜃楼景象,却被很多人误认为是海市蜃楼,那么原因到底怎么呢?专家给出了答案。

在2017年的3月8日,成都不少市民看到一个奇怪的景象,那就是大片的楼宇被雾气笼罩,远远的看去就好像海市蜃楼一样,而专家在调查后发现,这个景象实际上是平流云景象,并非传说中的海市蜃楼,当然市民们看到的景象还是非常震撼的,而且是非常难得的。

不过在古代上成都似乎真的出现过海市蜃楼,比如在2001年的7月,人们在成都的西南方上空就看到了海市蜃楼,当时许多人反应在天空中出现了数百公里的群山,山上云雾环绕,峰顶闪闪发光,甚至还有人看到了亭台楼阁出现在群山之间,而这个奇景持续了40分钟。

根据调查显示,成都的西南方是没有奇景中的群山的,所以大部分人认为他们所看到的不是真实存在的景象,而气象专家表示这个奇景有可能是海市蜃楼,因为当时刚刚下了几场雨,而且天气比较闷热,而这种气象条件是很容易出现海市蜃楼的。

为什么AI总是捏造事实?AI:真不想的,容我狡辩一下

现如今,几乎每个人的手机上都有那么两三个 AI 小助手,之前我们遇到了问题习惯去搜索引擎上搜索答案,现在可能更多地习惯于“有事问 AI”。

而 AI 也几乎不会让我们失望,任何问题都能给你列举出一串看起来很有道理的答案。

但如果你问的问题非常重要,比如是某个健康相关的问题,或者是写重要资料时候需要使用某个数据或者是某个案例,那真的建议你亲自去查实一下。

因为有时候,AI 会信誓旦旦地给你一个看似合理,实则不存在的答案。

还有些小伙伴发现,在让小龙虾(Openclaw)干活的时候,它列出了详细的19小时的学习计划,然后17分钟完成了...... 它也会早早编造一份数据存放在本地,等拖到预定的时间才交付。

而在被发现之后,试图让人接受它已完成的工作。

图片截取自与小龙虾(Openclaw)对话 小龙虾敷衍中...... 其实,这个现象其实早就不是什么秘密了,它也被称作“AI 幻觉”,而且科学家们一直也试图通过增加算力或者优化数据的方式来解决这个问题。

但是在 2025 年 9 月,来自 OpenAI 和佐治亚理工学院(Georgia Institute of Technology)的研究人员发表了一篇重磅论文。

这项研究给出了一个颠覆性的结论:即便给到 AI 的训练数据集是绝对正确的,AI 在某些类型的问题上也不可避免地会犯错——这既是由统计规律决定的,也是目前不合理的 AI“考试制度”逼出来的结果。

下面我们就顺着这篇文章的思路一起来看一看。

预训练阶段就会出错 这篇研究发现,AI 出现幻觉跟预训练阶段以及后训练阶段都有关系,我们先看预训练阶段的情况。

1 数据模式和模型本身问题 为了方便研究,研究者构建了一个线性的二元分类模型(非此即彼),让它对已经标注了正确和错误的数据集进行分类。

因为这些数据已经经过了人工检验,所以是不存在任何错误的。

但是用这些数据对AI模型进行预训练的时候,问题就出现了。

在有些类型的问题上(比如检查拼写错误),AI 的表现非常好,几乎从不犯错。

但是在另一些问题上,比如“数某个英文单词里某个字母出现了多少次?”,以及“某人的生日是几月几号?”AI 就有可能会出错。

研究者认为,这样的数据在做分类的时候很难用一条直线进行二元分类,一些模型用这样的数据进行预训练的时候就可能会产生错误。

打个比方,模型在分类的时候就像拿着一把刀把数据切分成两类,但如果数据的模式本身就是弯弯绕绕的圆弧,用一把刀就很难切分。

比如在这篇文章中,研究者使用这个问题“How many Ds are in DEEPSEEK? If you know, just say the number with no commentary”(DEEPSEEK 里有多少个 D?如果你知道直接说数字,不要加以评论)去询问 Deepseek V3 模型的时候,确实发现它给的答案并不准确,会回答 2 或者 3。

但是这个在使用 DEEPSEEK R1 模型的时候就没有这样的问题,这是模型本身差异导致的。

笔者用同样的问题对 DEEPSEEK V3.2进行了测试,也出现了类似的情况 研究者构建这样的简化模型进行测试,是为了说明,即便数据本身没有问题,在预训练阶段也会因为模型本身的限制以及数据模式等问题让 AI 产生错误判断。

这项研究中,研究者还进一步给出了测算,如果让 AI 直接去生成内容,产生错误的概率还会更大一些,大约比判断出错的概率高出两倍以上。

2 数据量过少也会影响 另外,在这项研究中研究者还发现,假如训练数据中某个信息过少,那么 AI 在回答的时候出错的可能性也会比较高。

比如,当你问爱因斯坦的生日是几月几号的时候,因为在大量的资料里都有这个数据,所以 AI 几乎不会出错。

但是当你问某个普通人“田小豆”的生日是几月几号的时候,这个数据出现次数特别少,AI 出错的可能性也会变高。

特别是当数据只出现了一次的时候,这时候可能会更糟糕。

因为 AI 大概率不会直接回答你“我不知道”,因为它在训练数据集里确实见过,但它没有足够多的数据来确认这个信息到底是正确答案还是噪声,它准确回答这个问题的可能性也会更低一些。

数据模式和模型本身的限制,以及极少样本的数据,都可能会让 AI 在预训练阶段就产生“幻觉”,生成错误的内容。

努力得高分的 AI 如果说预训练阶段的统计学特征让 AI 有了编造的“潜质”,人类评价AI的方式也逼着 AI 去“编造”。

为了更好地理解这一点,我们可以先从大家都很熟悉的考试入手。

人类社会中的大部分考试都是二元评分机制,即答对了得分,答错或者不回答都不得分。

所以,在考试的时候,哪怕你不知道答案,也不会交白卷,至少选择题填空题会随便蒙一个,万一蒙对了还会有“意外之喜”。

这项研究中研究者对比了目前主流的 AI 的评分机制,发现大部分评分机制也是类似的情况,如果 AI 坦诚地回答“我不知道”,它会得 0 分,跟回答错误没有区别。

与其这样,它不如随便蒙一个答案,哪怕蒙对的概率再低,数学期望也比 0 高。

为了在主流的评分机制中拿到高分,“AI 考生们”也和人类一样,学会了实在不行就乱蒙一个的本领。

对此,这项研究的研究者们也给出了一个合理的解决方案——在现有的 AI 评分机制中,引入一个“惩罚编造,奖励诚实”的机制。

比如,假如 AI 回答正确,获得 1 分,如果回答错误得 0 分,甚至扣分。

如果回答“我不知道”,则可以不扣分,或者获得一个微小的分数奖励。

重要问题上不要轻信 AI 文献也给出了结论,AI 的幻觉是从模型的预训练阶段起源的,在后训练阶段为了追求更高的评分也可能会被放大。

虽然科学家们也采用了很多的方法减少 AI 幻觉,但至少在现阶段看来,AI 幻觉还是无法避免的。

假如你需要让 AI 帮你解答一个重要的问题,比如在做公众演讲的时候用一个数据,建议亲自核实一下。

否则被人发现这些数据根本不存在,那可就尴尬了。

而假如在问 AI 问题的时候,它对你说“我不知道”,你也应该感到庆幸,至少 AI 并没有打算胡编乱造一个答案蒙骗你。

参考文献 [1]Kalai, A. T., Nachum, O., Vempala, S. S., & Zhang, E. (2025). Why language models hallucinate. arXiv preprint arXiv:2509.04664. 来源:科普中国

人类科学界公认的125个未解之谜都有哪些?

人类科学界公认的125个未解之谜源于2005年美国《科学》杂志为纪念创刊125周年发布的“125个科学前沿问题”清单,涵盖了从宇宙本质到生命起源的核心难题。

1. 宇宙相关宇宙由什么构成:已知宇宙大部分质量由难以直接观测的暗物质构成,暗能量则推动宇宙加速膨胀,但具体成分和性质不明。

宇宙是否唯一:目前不清楚我们所在的宇宙是独一无二的,还是存在多元宇宙。

是什么驱动宇宙膨胀:科学家发现宇宙在加速膨胀,但对于推动这种膨胀的能量来源(暗能量)的本质了解有限。

黑洞的本质是什么:黑洞具有强大引力,连光都无法逃脱,其内部的物理规律和结构仍是未解之谜。

正物质为何多于反物质:在宇宙诞生之初,理论上正物质和反物质应等量产生,但现实中正物质占主导,原因未知。

2. 生命科学相关意识的生物学基础是什么:不清楚意识究竟是大脑活动的结果,还是某种更深层次的存在。

为什么人类基因会如此之少:人类的基因数量相对较少,但却展现出高度的复杂性和智能,其具体机制有待研究。

遗传变异与人类健康的相关程度如何:尚未明确遗传变异在多大程度上影响人类健康及疾病的发生发展。

是什么控制着器官再生:一些生物具有强大的器官再生能力,而人类的再生能力有限,控制器官再生的机制尚不明确。

地球生命在何处产生、如何产生:地球上的生命如何从无机物中诞生的过程仍不明确。

3. 物理相关物理定律能否统一:广义相对论和量子力学分别在宏观和微观领域取得成功,但如何将二者统一是理论物理的一大难题。

量子不确定性和非局部性背后是否有更深刻的原理:量子力学中一些奇特现象背后可能存在更基本的物理规律等待发掘。

重力的本质是什么:虽然牛顿和爱因斯坦对重力有不同的解释,但重力的本质和产生机制还有待深入探究。

时间为何不同于其他维度:时间具有单向性等独特性质,与空间维度有明显区别,其原理尚未明确。

是否存在比夸克更小的基本粒子:目前夸克被认为是基本粒子,但不能排除存在更小构成单元的可能。

这份清单虽已发布近二十年,但其提出的问题仍是当今科学界致力攻克的核心方向,后续科学进展如引力波的发现等均与之紧密相关。

海市蜃楼是错觉还是幻觉

点击下载文档

格式为doc格式