这颗彗星被美国天文学家尤金和卡罗琳 苏梅克夫妇发现,并被命名为SL9。
然而,由于这颗彗星与木星距离过近
【菜科解读】
1994年,一个彗星与木星相撞的事件引起了人们的广泛关注。
这颗彗星被美国天文学家尤金和卡罗琳 苏梅克夫妇发现,并被命名为SL9。
然而,由于这颗彗星与木星距离过近,很快就被木星的引力撕裂成了21块碎片,并且这些碎片不久后将坠入木星,这颗太阳系中质量和体积最大的行星。
由于这是人类第一次亲眼目睹天体撞击事件,NASA等各国天文机构都组织了大规模的观测活动。
除了地面天文台外,近地轨道上的哈勃望远镜和正在前往木星的伽利略号探测器也参与了观测工作。
甚至连旅行者1号,距离木星60亿公里的航天器,也收到了地面控制中心的指令,利用自身携带的行星射电观测装置分析并记录撞击时的电磁情况。

一、彗木相撞
从1994年7月17日的凌晨4点15分到22日的早上8点12分,SL9的21块碎片相继撞击了木星。
其中,编号为G的碎片的威力达到了6万亿吨TNT当量,相当于人类核武库总当量的600倍。
与之相比,人类制造的最大威力氢弹 前苏联的沙皇氢弹,当量仅为5500万吨。
可见,即使是SL9中最小的碎片,其威力也超过了人类制造的任何核武器。
假设这些彗星碎片是小行星,而不是撞击了木星,那么如果人类的热核武器在太空中击中这些小行星,核弹的能量将以光和热的形式释放,直接蒸发这些来自宇宙深处的不速之客。
但是,如果在彗星进入地球之后才发射核武器来进行防御,情况就会完全不同了。
因为核弹在大气层内爆炸会产生剧烈的冲击波,被击碎的彗星碎片反而会造成更大的危害。
即使是在6500万年前,当一颗直径为10公里的小行星撞击地球时,地球上的生命也没有完全绝种。
如今,地球上已经出现了人类文明,无论是已经消失在木星云层中的SL1,还是未来可能出现的其他 威胁天体 ,都不足为惧。
科技一直在进步,人类也拥有更多的手段来应对撞击事件。

二、可能的撞击后果和对策
1.爆炸和冲击波:一颗大体积彗星的撞击将释放出巨大的能量,产生强力的冲击波。
这可能导致地震、火山喷发和大规模的洪水等自然灾害。
为减轻这种影响,可以采取措施增强地质结构的稳定性,加强建筑物和基础设施的抗震能力。
2.火灾和气候变化:彗星撞击会引发大规模的火灾,释放出大量的烟尘和气体,导致气候变化。
这可能造成全球性的寒冷和干旱,对农作物和生态系统造成严重影响。
为了应对这种情况,可以加强防火措施,并采取措施减少火灾产生的烟尘和气体。
3.海啸和洪水:彗星撞击地球的海洋将引发巨大的海啸,对沿海地区造成严重破坏。
此外,撞击还可能导致河流溢出和洪水。
为了减轻这些影响,可以建造防洪堤和海岸保护设施,并制定有效的紧急撤离计划。
4.生物多样性的丧失:彗星撞击可能导致生物多样性的丧失,包括陆地和海洋生态系统的破坏,物种灭绝和生态平衡的破坏。
为保护生物多样性,可以加强野生动植物保护措施,保护关键物种和栖息地。
5.灾后恢复和重建:一旦发生彗星撞击,灾后恢复和重建工作将是一项艰巨的任务。
需要组织国际合作,提供人道援助和资源支持,重建基础设施,恢复社会秩序,并帮助受灾地区重新建立起可持续的生活和经济系统。

虽然彗星撞击地球可能会带来巨大的破坏和灾难,但人类已经积累了丰富的科学知识和技术手段,可以预测和应对这样的事件。
国际组织和科学界正在致力于监测和研究潜在的威胁天体,并开发相应的应对策略。
通过合作和努力,我们可以增加地球的安全性,并减轻任何未来撞击事件可能带来的损失。
他们的头顶上飘着黄色和红色的遮阳棚,地板上铺满波斯地毯,马赛克灯在盆栽旁散发着柔光。
在公共区域,一位野生动物保护人士正对着躺在懒人沙发上的听众热情地介绍一种啮齿动物避孕方法,这种方法可以在不使用毒药的情况下控制鼠群数量;
在“甲壳动物室”里,十几个人围坐成一圈,由“昆虫的感知能力”话题,一直讨论到“AI 聊天机器人有没有‘内心世界’”。
“牛室”门口的书架上摆满了伊利泽·尤德科夫斯基(Eliezer Yudkowsky)的《如果有人造出来,所有人都得死》(If Anyone Builds It, Everyone Dies),这本书宣称 AI 可能毁灭人类。
这场活动由 Sentient Futures 主办,这个组织相信动物福利的未来将取决于 AI。
和许多湾区居民一样,与会者坚定地相信通用 AI(AGI)即将到来,认为 在不远的将来,将会出现一种强大的 AI,在大多数认知任务上可以与人类匹敌。
如果这是真的,他们推断 AI 很可能成为解决社会最棘手问题的关键,包括动物遭受的苦难。
需要说明的是,今天的 AI 系统是否能达到人类或超人类水平的智能,专家们仍在激烈争论,即使达到了,会发生什么也不清楚。
但一些与会者设想了一种可能的未来:做决定的是 AI 系统而非人类。
他们认为,动物的福祉最终可能取决于我们是否训练 AI 系统去重视动物的生命。
“AI 将带来巨大的变革,基本上会掀翻整个棋盘,”Sentient Futures 的创始人康斯坦斯·李(Constance Li)说,“如果你认为 AI 将做出大多数决策,那么它们如何看待动物和其他有感知能力的生命就很重要。
”所谓有感知能力,就是能够感受,因而也能够受苦。
和李一样,许多峰会参与者早在 AI 出现之前就投身于动物福利事业。
但他们不是那种给动物收容所捐一百块钱的人。
他们不关注本地行动,而是优先推动更大规模的解决方案,比如通过推广培育肉(在实验室中用动物细胞培养的肉)来减少工厂化养殖。
湾区的动物福利运动与有效利他主义(effective altruism)密切相关。
有效利他主义是一场致力于最大化个人行善效果的慈善运动,事实上,许多与会者供职于有效利他主义者资助的机构。
这套哲学在纸面上听起来很完美,但“最大化善行”是一个棘手的难题,未必有清晰的答案。
这一运动因其一些结论而广受批评,比如鼓励人们去剥削性行业工作以最大化慈善捐款,以及忽视当下的伤害而优先关注可能给大量尚未出生的人带来痛苦的未来问题。
批评者还指出,有效利他主义者忽略了种族主义和经济剥削等系统性问题的重要性,也忽视了边缘化群体对于如何改善自身生活可能拥有的洞见。
在动物福利领域,这种极端功利主义的思路会导致一些奇怪的结论。
比如,一些有效利他主义者认为,投入大量资源改善昆虫和虾的福利是合理的,因为它们的数量实在太过庞大,尽管它们个体承受痛苦的能力可能并不强。
现在,这一运动正在摸索 AI 该如何融入其中。
在峰会上,贾斯敏·布拉齐莱克(Jasmine Brazilek)打开贴满贴纸的笔记本电脑,展示她设计的一个基准测试,用来衡量大语言模型在动物福利问题上的推理方式。
布拉齐莱克是非营利组织 Compassion in Machine Learning 的联合创始人,原本是云安全工程师后来转向动物权益倡导,她从墨西哥拉巴斯飞来参会,在那里她用少数几位志愿者和极为有限的预算运营着自己的机构。
布拉齐莱克呼吁在场的 AI 研究人员用反映动物福利关切的合成文档来训练模型。
“希望未来的超级智能系统能够考虑非人类的利益,希望有一个 AI 放大人类最好而非最坏价值观的世界,”她说。
“钱袋子”的力量 动物福利运动中偏技术路线的一翼近年遭遇了一些重大挫折。
让人们摆脱依赖工厂化养殖的饮食习惯的梦想,被一系列现实打击所浇灭,比如植物肉公司 Beyond Meat 股价暴跌,以及美国多个州通过了禁止培育肉的法律。
AI 为其注入了一针安慰剂。
和硅谷大多数人一样,峰会上的许多与会者相信 AI 可能大幅提升他们的生产力——只不过他们的目标不是让种子轮融资最大化,而是尽可能多地减少动物的苦难。
一些人讨论如何用 Claude Code 和自定义智能体来处理倡导工作中的编程和行政任务。
另一些人提出利用 AlphaFold 等科学 AI 工具来开发更便宜的培育肉生产方法。
AlphaFold 通过预测蛋白质的三维结构来辅助分子生物学研究。
但这场活动最热门的话题是一波即将涌入动物福利慈善机构的资金,来源不是个别超级捐赠者,而是 AI 实验室的员工。
农场动物福利运动的大部分资金来自科技行业的从业者,Coefficient Giving 农场动物福利基金的执行总监刘易斯·博拉德(Lewis Bollard)介绍。
Coefficient Giving 是一家慈善资助机构,前身为 Open Philanthropy,由 Facebook 联合创始人达斯汀·莫斯科维茨(Dustin Moskovitz)和他的妻子卡丽·图纳(Cari Tuna)支持。
他们是硅谷少数拥抱有效利他主义的亿万富翁。
“传统的慈善基金会完全忽视了这个领域,”博拉德说,比如盖茨基金会和福特基金会,“主要是科技行业的人对此持开放态度。
” 博拉德预计,下一代大额捐赠者将是 AI 研究人员,尤其是在 Anthropic 工作的人。
Anthropic 是聊天机器人 Claude 背后的 AI 实验室。
Anthropic 的创始团队与有效利他主义运动有渊源,公司还有慷慨的捐款匹配计划。
今年 2 月,Anthropic 的估值达到 3800 亿美元,并允许员工出售手中的股权,因此其中一些资金可能很快会流入慈善机构。
新资金的前景在峰会上引发了持续的热议。
动物福利倡导者挤在“节肢动物室”里,在白板上写下大额数字和朗朗上口的项目缩写。
有人提议成立一个 1 亿美元的动物超级政治行动委员会(super PAC),在国会议员身边安排工作人员,游说推动动物福利立法;
有人想创办一家媒体公司,在 TikTok 上用 AI 生成的内容推广素食主义;
还有人谈到要把动物权益倡导者安插进 AI 实验室。
“新资金的规模让我们更有底气去做更大胆的事情,”虾福利项目(Shrimp Welfare Project)的联合创始人亚伦·博迪(Aaron Boddy)说。
该组织致力于通过人道屠宰等措施减少养殖虾的痛苦。
AI 福利的问题 但动物福利只是 Sentient Futures 峰会的一半议题。
一些与会者深入了更为抽象的领域。
他们严肃对待一个有争议的观点:AI 系统某一天可能发展出感受的能力,因而也能遭受痛苦。
他们担心,如果未来 AI 的痛苦被忽视,可能构成一场道德灾难。
AI 是否会受苦是一个棘手的研究问题,尤其是因为科学家尚未完全搞清楚人类和其他动物为什么拥有感知能力。
但在峰会上,一小群主要由有效利他主义运动资助的哲学家和少数不拘一格的学者正在探讨这个问题。
一些人展示了他们用大语言模型来评估其他大语言模型是否可能具有感知能力的研究。
在辩论之夜,与会者争论是否应该讽刺性地把有感知能力的 AI 系统叫做“铁皮佬”(clankers)——这是电影《星球大战》里对机器人的蔑称——并追问这种机器人蔑称是否会影响我们对待一种新型心智的方式。
“不管是牛、猪还是 AI,只要它们有能力感受快乐或痛苦,就同样重要,”李说。
从某些角度看,把 AI 感知力话题引入动物福利会议并不像表面看起来那么突兀。
研究机器感知的学者经常借鉴动物感知研究中开创的理论和方法。
如果你接受无脊椎动物很可能会感受疼痛,又相信 AI 系统可能很快达到超人类智能,那么考虑这些系统是否也会受苦,或许算不上太大的跳跃。
“动物福利倡导者习惯了逆流而行,”智库 Rethink Priorities 的 AI 意识研究员德里克·希勒(Derek Shiller)说。
他曾在动物权益非营利组织 Humane League 担任网页开发人员。
“他们更愿意关心 AI 福利这件事,即使别人觉得这很荒唐。
” 但走出湾区的小圈子,让人们关心 AI 感知力的可能性就难推销多了。
李说,2023 年参加了一场关于 AI 感知力的学术会议后,她受到启发,去年把自己的农场动物福利倡导组织更名为 Sentient Futures,结果遭到了其他动物福利倡导者的反对。
“很多人非常确信 AI 永远不会拥有感知能力,他们认为在 AI 福利上投入任何精力或资金都是在烧钱,”她说。
Compassion in World Farming 的执行总监马特·多明格斯(Matt Dominguez)也表达了类似的担忧。
“我不希望看到人们把资金从农场动物福利或动物福利领域抽走,转投到一个目前还完全是假设性的事情上,”他说。
不过,多明格斯在了解到无脊椎动物的痛苦后开始与虾福利项目合作,他相信同理心是可以扩展的。
“当我们让一个人开始关心其中一件事情时,就为他们的同理心圈子向外扩展、容纳更多对象创造了空间。
”他说。
原文链接: https://www.technologyreview.com/2026/03/23/1134491/the-bay-areas-animal-welfare-movement-wants-to-recruit-ai/
与他同行的是阿里与蚂蚁集团的核心管理层——蔡崇信、吴泳铭、井贤栋等罕见全部聚齐。
这场“开工第一站”的交流,主题直指AI时代的教育变革 。
从年初的“腊八之约”到此次云谷之行,马云在2026年开年密集分享了他对AI与教育的深层思考。
这些观点不仅延续了他一贯的人文关怀,更在技术狂飙的当下,提出了一个核心命题:当机器拥有“芯片”时,人类如何安放“心” 。
阿里巴巴核心管理层罕见齐聚谈AI。
图/云谷学校公众号截图 一、 拥抱冲击: AI带来的“历史性变革” 马云直言,AI时代的到来“对社会的冲击超出想象”,技术迭代已以“周”为单位计算,这场变革是历史性的 。
他并不回避冲击带来的焦虑——许多工作种类会消失,但同时也带来巨大机会:社会财富可能极大丰富,未来人们或许一天不需要工作8小时 。
面对乡村教师“会不会被甩下”的担忧,马云给出明确回应:AI对乡村教育而言,挑战与机遇并存,核心在于如何应对 。
他呼吁不要再犹豫“用不用AI”,而是要迅速行动,教会孩子“用好AI” 。
二、 教育的回归: 从“知识的灌输”到“灵魂的工程师” 马云最核心的判断在于:AI带来了一个“让教育回归教育本身”的机会 。
在他看来,传统教育中大量的死记硬背、机械刷题,将在AI时代被释放出来。
因为未来不需要让孩子与AI比拼计算和记忆——那是机器的强项。
释放出来的时间,应该用于培养那些AI难以复制的能力:创造力、想象力、审美力,以及共情与担当 。
“看一所学校是不是属于AI时代的学校,不是去看它有多少AI服务器,有多强的AI技能。
”马云强调,AI拥有的是“芯片”,而人类拥有的是“心”。
这一“芯心论”贯穿了他的思考:技术越是强大,教育者越应回归本质——老师可以完完全全去做“灵魂工程师”,而不是知识的灌输者 。
三、 未来的能力: 好奇心是算力源泉,提问比回答重要 关于AI时代孩子究竟需要什么能力,马云与阿里管理层分享了系列洞见,其中多个观点引发深度共鸣: 好奇心才是算力的源泉。
马云提出,AI时代的鸿沟不是技术鸿沟,而是好奇心、想象力、创造力、判断力和协同能力的鸿沟 。
教育的目标不是让学生背得更多,而是让他们“想得更有趣、更有创意、更独特” 。
提问比回答更重要。
马云犀利指出:“AI时代,我们的教育不是让一千个学生给出同样一个正确的答案,而是让一千个学生学会提出一万个不同的好问题。
” 这与蔡崇信的观点不谋而合——思辨能力的核心不是“会问问题”,而是“问对问题” 。
人区别于机器的三大特质。
阿里巴巴CEO吴泳铭提出,未来人和机器的区别在于三样东西:好奇心、共情力和体力。
好奇心驱动主动探索,共情力是对人的理解,而当脑力被AI替代时,体育和体力将愈发重要 。
避免AI成为“扔不掉的拐杖”。
蚂蚁集团董事长井贤栋提醒,AI应帮人做琐碎之事,释放时间发展审美与创意,但必须保留独立思考的能力 。
四、 科技的温度: 让AI更懂人类,服务人间烟火 如果将马云的AI观置于更长的时间轴上看,其价值观始终稳定。
早在2025年4月,他就提出:“高科技绝不仅是征服星辰大海,更应该呵护人间烟火。
”“科技人员的责任,不是让AI取代人类,而是让AI更懂人类、更好地服务人类。
” 这种“善良的高科技时代”的愿景,与此次教育讨论一脉相承:技术的终极价值在于增进人的福祉。
正如他所言,我们要用人工智能去解决问题,而不是被人工智能所控制 。
结语 2026年开年,马云的两度发声,为喧嚣的AI赛道提供了一份冷静的人文视角。
当全球科技公司竞逐算力、模型与芯片时,他提醒我们注视教育的本质:那些无法被芯片替代的好奇心、共情力与创造力,才是人类在未来真正的护城河。
对于家长、教师与每一个关心未来的人,马云的忠告或许可以凝练为一句话:不必让孩子与机器竞赛记忆,而要让他们学会提出机器无法想象的问题。
因为那“一万个好问题”里,藏着人类独有的未来。
文字来源|守望新教育,版权归原创作者所有。