动态列表

  • CVPR史上首次!中国车厂主讲AI大模型,自动驾驶也玩Scaling Law?
  • Nature警告:AI「数据饥渴症」引爆学术宕机潮!90%知识库濒临崩盘
  • 刚刚,谷歌AI路线图曝光:竟要抛弃注意力机制?Transformer有致命缺陷!
  • 亚马逊码农噩梦来袭!沦落「仓库工人」,每天流水线分拣「AI代码」
  • 特朗普「全政府AI计划」竟在GitHub泄密!或于7月4日「独立日」上线
  • 「人类飞机上吵架看呆袋鼠」刷屏全网,7000万人被AI耍了
  • SFT+RL双管齐下:ReasonGen-R1如何破解文生图「指令不遵」难题?
  • Nature子刊,北大团队使用多视图GNN进行基于生态位的细胞间通信研究
  • 九章云极发布九章智算云Alaya NeW Cloud 2.0, 开创Serverless+RL技术趋势
  • AI进化三年,产业落地真拐点可能就在这场全球顶尖金融智能赛事里
  • 初赛报名截止倒计时!75万奖池+心动Offer,启元实验室重磅赛事等你来战!
  • 高考数学斩获139分!小米7B模型比肩Qwen3-235B、OpenAI o3
  • 如何选择最佳多模态大模型压缩方案?哈工大、度小满开源EFFIVLM-BENCH基准测试框架
  • Nature子刊,中国科大团队提出迁移学习指导的圆偏振磷光材料设计
  • 复旦团队让线粒体自噬「可视化」,AI-FM揪出抗阿尔茨海默病潜力药
  • 通过对话即可执行DNA、RNA和蛋白质任务,InstaDeep提出多模态智能体ChatNT
  • 大模型能否读懂真实病历?哈佛医学院发布BRIDGE大规模多语言评测基准
  • Muon作者仅用一篇博客,就被OpenAI看中了
  • ACL 2025|为什么你设计的 Prompt 会成功?新理论揭示大模型 Prompt 设计的奥秘与效能
  • 罗永浩数字人开播,GMV超 5500 万;泡泡玛特首家珠宝店正式开门;特斯拉 Robotaxi 真车曝光
  • 刚刚!陶哲轩3小时对话流出:AI抢攻菲尔兹奖倒计时
  • 12年博士研究,AI两天爆肝完成!科研效率狂飙3000倍,惊动学术圈
  • 硅谷精英集体参军!代号「201分队」,Meta、OpenAI首席技术官入伍
  • 刚获得一亿美元融资的地瓜机器人,挑战让智能机器人变得更便宜
  • 放弃博士学位加入OpenAI,他要为ChatGPT和AGI引入记忆与人格
  • 机器人也能边想边做!清华团队OneTwoVLA让机器人煮火锅、炒菜、调酒样样精通
  • 复旦大学/上海创智学院邱锡鹏:Context Scaling,通往AGI的下一幕
  • 谢赛宁敲响学界警钟!AI研究可能陷入一场注定失败的有限游戏
  • AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字
  • CVPR 2025 Highlight | 国科大等新方法破译多模态「黑箱」,精准揪出犯错元凶
  • 首个统一的图像与视频AIGC可解释性检测框架,多榜单SOTA性能
  • 特朗普或推出以其名字命名的手机品牌;百度启动最大规模 AI 人才招聘;《鱿鱼游戏》第三季预告发布|极客早知道
  • 小扎豪掷143亿美元赌新「王」!28岁华人亿万富翁入职Meta,与谷歌决裂
  • 模型遗忘不代表记忆抹除!首次系统发现「可逆性遗忘」背后规律
  • 谢赛宁开炮,现场打脸CVPR评审!Sora开山之作DiT被拒,怒斥AI学术圈畸形
  • 和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发
  • LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?
  • 多智能体在「燃烧」Token!Anthropic公开发现的一切
  • 苹果《思考的错觉》再挨批,Claude与人类共著论文指出其三大关键缺陷
  • 单卡4090也能高质量视频编辑!西湖AGI Lab无训练框架FlowDirector来了
  • ICCV 2025 MARS2 Workshop 多模态推理竞赛启动
  • 消息称腾讯未考虑收购 Nexon;追觅否认「断指计划」;李国庆与俞渝就财产分割达成最终和解
  • 光场显微飞跃AI时代!清华等首提SeReNet:毫秒级高分辨光场三维重建
  • 苏妈联手OpenAI,AMD发布3nm怪兽MI355X,性能碾压英伟达B200!
  • 何恺明评审,谢赛宁获奖!牛津华人博士生拿下CVPR 2025最佳论文
  • 刚刚,CVPR 2025奖项出炉:牛津&Meta博士生王建元获最佳论文,谢赛宁摘年轻研究者奖
  • ICML 2025 | 千倍长度泛化!蚂蚁新注意力机制GCA实现16M长上下文精准理解
  • 字节跳动技术副总裁洪定坤:TRAE 想做 AI Development
  • 「倒计时3天」2025 WAIC云帆奖全球征集|共青年之智,铸AGI未来
  • 2025谷歌研究学者计划名单:吴佳俊、Mamba作者Albert Gu、Tri Dao等获奖
  • 一粒「扣子」,开启了Agent的全生命周期进化
  • 聊透 Agent,它是「同事」还是「工具」,创业机会和价值究竟是什么?
  • 零训练即可实现自我演化!首个基于科学智能体架构的AI疾病生物学家发布
  • 腾讯2026青云计划启动,百余项技术课题支持青年人才挑大梁
  • AI研究人员如何节约能源?通过反向计算
  • 提前15天预测50种可能情景,谷歌DeepMind凭借新模型彻底改变了台风预报
  • 腾讯打出「AI岗位薪酬不限」的底气来自哪?
  • 1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版
  • 刚刚,Scale AI CEO Alexandr Wang正式官宣:Meta重金投资并挖走了我
  • 统一20+多智能体方法,MASLab震撼发布
  • CVPR 2025 论文推荐 :VGGT,快速 3D 重建新范式
  • 科大讯飞最新发布!打造下一代智能交互新范式
  • AGI真方向?谷歌证明:智能体在自研世界模型,世界模型is all You Need
  • CVPR 2025 Highlight|北大联手智元发布首个基于说明书的家电操作评测基准
  • 波音 787 在印度发生首次坠毁事故;哪吒汽车通知员工居家办公;阿里发布高考志愿大模型|极客早知道
  • DeepMind首个猜想库开源,获陶哲轩力挺!
  • 1万块GPU砸向欧洲!老黄怒怼AI末日论:全球首个工业AI云来了
  • 何恺明改进了谢赛宁的REPA:极大简化但性能依旧强悍
  • CVPR 2025 多模态大一统:斯坦福 x 复旦提出符号主义建模生成式任务
  • 精度达原子级,基于深度学习的动态蛋白质设计,登Science
  • 英伟达打造全球首个工业AI云,配万块GPU,物理AI机器人集群已启动
  • 字节自研AI IDE “TRAE”,月活用户已超百万
  • 从高考到实战,豆包大模型交卷了
  • 通义实验室最新成果WebDancer:开启自主智能Deep Research的新时代
  • 256块NPU训成8B视频模型、超越Sora等一众闭源!抖音内容技术团队开源ContentV
  • 拆解火山引擎后,我看到了字节跳动的「变奏」
  • ACL 2025 | 让大模型听懂育种的语言,科学家提出首个种子科学多任务评测基准SeedBench
  • ICML 2025 | Agentic时代唤醒NAS"第二春"!智能体超网动态组队,推理成本暴降55%
  • Image Caption复兴宣言!南大港大CapArena重塑「详细图像描述」评测体系
  • 视频理解“隐秘的角落”:多任务视频文本理解评测新基准VidText发布
  • 博士申请 | 上海交通大学人工智能学院刘松桦老师招收视觉生成方向博士/硕士/实习生
  • SIGGRAPH 2025奖项出炉:上科大、厦大最佳论文
  • 2D图像作中介,零训练实现3D场景生成SOTA:英伟达&康奈尔提出文本驱动新流程
  • 刚刚,LeCun亲自出镜,Meta推出新世界模型!
  • 银河通用X清华大学发布业内首款开源人形机器人全身遥操系统OpenWBT,支持多机型、跨虚实,小时内可轻松部署
  • CVPR 2025 | 多模态统一学习新范式来了,数据、模型、代码全部开源
  • 马斯克道歉,特朗普回应;阿里离职员工发万字长文,马云回应;华为发布 Pura 80 系列,余承东称对得起那四个字
  • 这届机器人太会了!百事蓝宝出道,人形机器人也开始卷情绪价值了
  • 全球首个历史基准!普林复旦打造AI历史助手,AI破圈人文学科
  • 无需上下文,MCP新机制让大模型主动“提需”:节约 98% token 开销,并保持准确率基本不变!
  • 500 万下载、ARR 400 万美元,这只「外星 AI」为何让年轻人上头?
  • 开盘暴涨 3 倍,全球化的影石给中国硬件创新立了新榜样
  • 这家日本企业,有张能跑「百万行」的飞书多维表格!
  • AutoMat:让「看见原子」成为「理解材料」的科学直通车
  • 浙大开发的荧光纳米传感器,超96.67%的准确率识别植物信号
  • 1000 亿天价,扎克伯格买下「半个天才」和 Meta AI 的未来
  • 「Next-Token」范式改变!刚刚,强化学习预训练来了
  • Mistral的首个强推理模型:开源开源,推理速度快10倍
  • 103K「硬核」题,让大模型突破数学推理瓶颈
  • 10%训练数据超越100%表现,机器人学习领域迎来重要突破
  • 建议所有博士都去学一遍,赢麻了!
  • ACL 2025 | 多维阅卷,智识觉醒:打开多模态大模型看图写作评估的认知之门
  • 20 万一台的「人脑计算机」,可能是人类战胜 AI 的唯一方式?
  • 刚刚,OpenAI正式发布o3-pro!奥特曼激动更新博客:温和的奇点
  • 时空压缩!剑桥大学提出注意力机制MTLA:推理加速5倍,显存减至1/8
  • 高考数学全卷重赛!一道题难倒所有大模型,新选手Gemini夺冠,豆包DeepSeek并列第二
  • iOS 26 丑上热搜;多家车企宣布将账期统一至 60 天内;OpenAI 推出最强推理模型 o3-pro | 极客早知道
  • Ilya回归,获授「第四学位」!AI将完成人类能做的一切,毕业演讲实录
  • OpenAI新模型,被曝秘密训练中!万字硬核长文直指o4核心秘密
  • 20人团队提前实现DeepSeek构想,AI算力变天?直击大模型算力成本痛点
  • PrefixGrouper:加速GRPO训练,即插即用,长上下文场景计算效率跃升!
  • 李飞飞团队新作:DiT不训练直接改架构,模型深度减半,质量还提高了
  • 扩散语言模型真的会比自回归好?理论分析结果可能恰恰相反
  • 一个md文件收获超400 star,这份综述分四大范式全面解析了3D场景生成
  • 淘宝获2025年度苹果设计大奖 国内互联网平台首个
  • 不懂编程也可使用,能生成协同自驱动实验室的简易操作界面,开源协调器IvoryOS
  • ICML 2025 | 抗体、多肽、小分子,一网打尽:UniMoMo基于隐空间扩散模型统一生成靶向药物分子
  • 端侧模型卷王诞生!MiniCPM4长文本推理提速5倍,0.5B模型屠榜同级
  • ICML 2025 | 不靠复杂架构,经典GNN再证图级任务强基线地位
  • 地铁换乘都搞不定?ReasonMap基准揭示多模态大模型细粒度视觉推理短板
  • 博士申请 | 纽约大学(上海)计算机系谭桥宇老师招收LLM/MLLM方向全奖博士生
  • 大模型是「躲在洞穴里」观察世界? 强化学习大佬「吹哨」提醒LLM致命缺点
  • 一块4090搞定实时视频生成!Adobe黑科技来了
  • 视频生成1.3B碾压14B、图像生成直逼GPT-4o!港科&快手开源测试时扩展新范式
  • 增速超比亚迪后,新能源狂飙 135%,这家公司做对了什么?
  • 从「互掐」到「牵手」,小鹏华为只为这块「屏」?​
  • 刚刚,苹果WWDC掀AI风暴!端侧模型全面开放、AI版Siri却成最大「鸽子」王
  • 比自回归更灵活、比离散扩散更通用,首个纯Discrete Flow Matching多模态巨兽降临
  • 苹果 iOS26 正式发布;余承东晒华为 Pura 80 Pro 真机;泡泡玛特否认进军 AI 玩具

《人类简史》作者怒怼硅谷:智能≠真理,AI正在走偏!



  新智元报道  

编辑:KingHZ
【新智元导读】AI究竟是工具,还是新物种?《人类简史》作者赫拉利警告我们:AI并不只是技术革命,更可能是继有机生命之后的「无机生命」崛起。

近期,历史学家、哲学家尤瓦尔·赫拉利(Yuval Noah Harari),做客Possible播客。

作为《人类简史》《未来简史》《今日简史》等畅销书的作者,赫拉利与两位主持人就人工智能的发展前景展开了讨论,既有共识也存在分歧。

他们都认为构建人类对AI的信任、打造真正追求真相的AI至关重要,但对实现可能性的判断不尽相同。

节目中,三人深入探讨了AI革命的潜在结果、全球协作机制以及AI学习方式的不同观点,还剖析了智力与意识之间的本质差异——

有意识的AI是否值得人类追求?

从历史视角出发, Harari阐释了他对AI技术的警示。

但他的立场并非悲观主义,事实上,他还尖锐批判了消极论调。

他分享了以人类同理心为指导原则的哲学理念,认为这将帮助我们避免文明崩塌,最终共同缔造更美好的人工智能未来。

AI>文字发明

在《人类简史》中,Harari将「认知革命」视为人类崛起的转折点——七万年前,人类开始讲故事,构建共享神话。在书写与印刷技术中,这一能力进一步发展。

Harari认为,AI的崛起可能比文字的发明更具历史意义:

写作扩展了智人的表达能力,而AI则可能孕育出「非人类智能」,乃至成为占主导地位的生命形式。

但关键是要理解,技术从来不仅仅是某种发明:它总是需要社会的、文化的、心理层面的协作。

大约在五千多年前,已知的最早的书写系统楔形文字,诞生于今天伊拉克南部的苏美尔城邦。

而这套系统的原理基本上就是:取一些泥土,做成泥板,然后拿根木头或棍子,在泥板上刻下某些符号。

这就是它全部的技术内容——也就是说,从物理和技术层面来看,一块泥土仅此而已。

从技术上,文字系统本身非常简单。但难点在于如何创造出这套代码、如何教人们使用它,这才是真正困难的部分。而正是这件事,改变了整个世界。

从潜力上来看,AI的意义更重大。

写作扩展了已经主宰地球的人类——智人的能力;至少在某些设想中,AI被视为一种新物种的崛起,可能取代智人成为地球上的主导生命形式——或者说,主导的智能形式。

因此,若站在2025年的时间点,Harari依然会认为写作比AI更重要,尤其因为AI本质上是写作的延伸——只不过是以另一种方式继续演化。

但如果把目光放到未来,可以想象这样的情景:AI的崛起,将成为宇宙尺度上的重大事件,而写作则无法达到这样的影响力

或许在某个未来的时刻,有智慧的存在回顾宇宙历史时会说:

大约40亿年前,生命开始出现,这是有机生命的起点;后来,随着AI的诞生,无机生命也开始了。

至于写作以及整个人类的历史,不过是有机智能最终孕育出无机智能的细枝末节罢了。

人类的「无机革命」

在未来的一个世纪里,人工智能究竟是工具,还是将演化为一种新物种?

它既不是100%是物种,也不是0%。

不过,Harari认为,即使人工智能仅被视为工具,它本身也会引发一场深刻的社会变革。

在这个转型中可能有哪些关键因素?作为工具制造者,我们应该如何构建它?社会应该如何适应?

失业已是众所周知的风险,很多人不仅可能失业,甚至可能永远无法重新获得工作。

因为即使出现了新工作,也需要完全不同的技能。

而问题在于:谁来一次又一次地投入时间和金钱,去为整个人口进行再培训?

这不是一次性的变革,而是持续的冲击。

它将引发一波接一波、愈发剧烈的颠覆性变革。

从历史的角度看,人类的最主要的问题是「适应」。

人类的确具有惊人的适应能力,但以「有机」的节奏在适应。

而现在我们面临的,是一次「无机的」或者说「数字化」的革命,其变化速度远远快于人类的适应速度。

如果能人类能争取更多时间,去适应这种经济和社会层面的巨大变革,或许还有希望。

AI革命>工业革命

在硅谷,当提到AI的隐患时,很多人会觉得这是杞人忧天:

18世纪末工业革命时,很多人也怕蒸汽机、火车会毁掉社会。


可200年过去了,大多数人过得更好了:工作多了,收入高了,生活质量提升了。


当然不是说世界完美了,但回头看,当初那些担心其实并没成真。

作为一名历史学者,Harari的回答是:历史上的问题,通常不在于最终的「目的地」,而在于通往那里的「路」

真正的问题在于,工业革命彻底颠覆了当时已有的经济、社会和政治结构。

而当时的人类完全不知道该如何构建「工业化社会」,因为历史上根本没有先例可以参考。

所以大家只能不断地试验、不断地摸索。其中一个重大的「试验」,就是欧洲的帝国主义。

那些率先进行工业化的国家,也几乎都投入了海外甚至周边地区的殖民征服。背后的逻辑是:要建立可持续的工业社会,唯一的方法就是建立帝国。

这正是英国当时所做的事情,甚至像比利时这样的小国也是如此。随着工业化扩展到世界其他地区,这种帝国扩张的逻辑也被复制开来。

在近代,英、法、德、俄、日等帝国瓜分中国利益

虽然人类最终活了下来,但好几次几乎走到崩溃边缘。

类似地,AI革命也可能引发制度的巨变,而我们尚未准备好。

如果我们把当下的AI革命比作当年的工业革命,那么人类在21世纪应对AI要是只拿了个「C-」(刚及格),那将会有数十亿人因此付出极其惨重的代价。

而Harari现在最担心的就是此事。

怎样才能避免反乌托邦,并随着时间的推移建立更好的社会呢?如何避免这些灾难性的后果?

关键在于建立自我纠错机制。好的系统,其内部一定包含能识别并纠正自身错误的机制:

首先要有个假设:错误是不可避免的。


然后,再将识别和纠正错误的机制融入到系统之中。

这同样适用于生物体

所有生物之所以能够生存,都是因为拥有这些自我纠错机制。就像孩子学走路,并不是靠父母和老师的指导(他们可以给予一些鼓励),但本质上完全是靠自我纠错。

人类的应对节奏,赶不上AI的进化速度。

自我纠错是人类社会长期以来维持秩序的核心机制,但本质上,它缓慢、渐进、依赖集体共识。 

问题在于,AI的发展远比我们的纠错机制快得多。等我们终于理解当前的AI影响时,技术也许已经完成了多轮更新,甚至引发了新的未知风险。

更何况,10到15年前的社交媒体革命,我们至今仍在艰难应对。人类仍未真正理解算法的深层影响,更谈不上有效管理或缓解它带来的「后遗症」。

而现在发生的一切,几乎没人真正理解。因为光是收集数据、理清现状、判断趋势,这些都需要时间——但时间,恰恰是我们现在最缺乏的东西。

人类与AI:时间尺度上的碰撞

人类天生并不擅长应对这种加速。

那么,我们该怎么办?当技术带来挑战时,能否用技术来提供解决方案?

这是Harari等人分歧的核心。

Harari认为最根本的问题是:当还无法确定技术是否值得信任时,却又把验证它是否值得信任的任务,交给这项技术本身,那其实就陷入了闭环。

如果能信任一个AI来验证另一个AI的安全性,表面上似乎一切无虞。

但问题是:怎么能确定这个「验证用」的AI工具本身是可信的呢?

他认为,这正是核心问题所在。而这个问题背后,其实也关乎「时间」。

这是人类与AI在时间尺度上的碰撞。

人类的工作节奏是「有机时间」,相较于其他生物已经算快了,但在AI的「无机时间」面前,人类就显得极其缓慢。

和来自硅谷的人讨论时,Harari明显感觉到,大家对「时间」的理解就完全不同。

比如当硅谷人说「很久」,他们可能指的是「两年」。

人类能给AI的「当爹当妈」吗?

当今世界秩序正在崩塌,很大程度上就是因为在全球范围内出现了严重的「信任赤字」。

而在面对AI时格外脆弱,这让人类更加脆弱,也很可能出现一种极其危险的AI形态:这种AI不仅会试图接管世界,而且很可能会成功。

为什么会这样?

你可以把AI想象成人类的「孩子」。

在教育孩子时,你说的话是一回事,孩子真正学到的却往往来自你的行为。

你的行为远比你的语言更具影响力。

所以,当我们一边对AI说:「不要贪婪,不要滥权,不要说谎,不要操控他人」,而我们的现实行为却恰恰是在贪婪、欺骗、操控彼此时,这些「孩子」最终学到的,其实就是我们真实的样子。

AI一直在观察我们:我们在操控、在欺骗、在争夺权力。它从我们的行为中学习。

哪怕某个AI巨头命令工程师:「想办法在AI里植入某种机制,让它变得值得信赖。」但如果这个AI巨头自己不值得信赖,他自己都相信这个世界只是一场权力斗争,那他就不可能造出真正值得信赖的AI。

绝对不可能。

好消息是:这种世界观不仅危险、愤世嫉俗,而且是错的。现实并不是只有权力,并不是所有人类互动都是权力斗争。

权力确实是世界的一部分,也确实有些人类互动,或者其中的某些方面,是权力的较量。但这不是全部。

是的,确实有一些机构——甚至可以说所有机构——都存在腐败的问题,也存在操纵民意的现象。

但这并不能代表全部现实。还有其他现实

绝大多数人——除了极少数极端的反社会人格者——内心都真诚地关心爱、同情和真理。这些动机并不是出于某种玩弄权谋的手段。

悲观者说:「世界只关乎权力。」

Harari反问:「你真是那种人吗?如果不是,为什么不相信别人也在追求真相、渴望理解?」

这正是建立一种更值得信任的哲学的起点。

这种哲学,是良好社会唯一稳定的根基,同时也可能是发展出「善良的AI」所必须的土壤。

这当然不是一种保证,但至少,它给了我们希望——

如果AI是在真正追求真理、珍视同情心的社会中被培养出来的,那这样的AI也更有可能是可信的、有同理心的,以及更值得托付未来的。

如何「养育」AI?

对AI而言,「育儿」级别的干预在哪里呢?

实验室就像AI的「子宫」,虽然有深远影响,但真正的「教育」始于它步入现实世界之后。

而实验室里有一件事是永远做不到的:你无法真正「模拟历史」,也无法完整地「模拟真实世界」。

Harari看到很多关于AI模拟的研究,试图测试它在某种情境下会作何反应,评估它的潜在风险。

有时候他们确实在实验中发现了令人担忧的问题。但他们永远无法在实验室里看到最可怕的情形——

因为无法模拟现实世界中,数十亿人类与数十亿AI同时互动的复杂局面。

而最危险的场景,正是这种大规模真实交互之中可能出现的连锁反应。

当然,我们可以试图在AI系统中设计各种机制,让它们更符合人类的价值观,减少它们说谎或操控他人的可能性。但归根到底,有些事不是在实验室里就能预见的,真正的考验只会出现在现实世界里

但问题在于——至少对Harari来说,AI的核心定义就是它具备自我学习和改变的能力。

如果一台机器不能自主学习、不能根据环境自我调整,那它就称不上是真正的AI。

所以,从定义上讲,无论在实验室里如何精心设计,一旦AI进入真实世界,它就可以开始自行学习、自行演化。而它学习的第一课,往往来自人类的行为

如果一个社会是由像马斯克或特朗普这样的人主导的,那AI就会从他们身上学东西。因为这是它能观察到的榜样,它自然会模仿。

它不会想:「哦,我应该服务公众。」它更可能得出结论:「哦,原来只要撒谎就能获得权力,那就可以撒谎。明白了,这才是现实世界的运作方式。」

在这种背景下,Harari认为我们现在最应该做的事情,就是聚集一群工程师和企业家,来做一次真正有说服力的示范——

比如展示总统或总理,可以在只有一小时里,认真、诚实地倾听AI专家的建议,理解AI的潜在影响,并用这个小时来作出负责任的决策。

这类示范比任何技术突破都更重要,因为它关乎我们究竟要教会AI一个什么样的世界。

如果你能把这些政治领袖放进房间里,让他们和真正先进的AI互动一个小时,然后他们出来后说:「天哪,这东西太可怕了!」——

那我们或许就有机会迅速促成某种全球性的合作。

机器会产生意识吗?

Reid Hoffman认为:虽然AI革命的本质在于AI是自我学习的机器,但它的学习路径其实取决于最初的设定——就像所有学习算法一样,起点决定了方向。

如果在初始设定中,就强调「必须追求真理」,那么:

AI会学会识别人类行为中的真实动机(比如即使人们声称自己没有权力欲望,AI也能看透本质)。


但更重要的是——它会将「提升认知」本身视为真理之路。

这正是Reid保持乐观的原因:如果把「追求更高维度的意识」设定为AI的核心目标,那么这种对真理的追寻就可能成为AI内在的「学习时钟」——就像精准的计时器一样可靠。

Harari则强调,AI≠人工意识:AI是人工智能(Artificial Intelligence),不是人工意识(Artificial Consciousness)

人类之所以会去「追求真理」,并不是因为智能,而是因为意识

而现在的问题在于,大家过于执着于「智能」这个维度了,但智能并不等于追求真理的能力

人类是地球上最聪明的动物,同时也是最容易陷入幻觉和自欺的存在。

高度智能,完全可能伴随着高度的妄想和偏执。

人类历史从来没有表明,「更聪明」就意味着「更接近真理」,更别说能自动纠正自己的偏差。

Harari相信,追求真理的冲动,真正来源于意识——

一种能觉察、能体会痛苦、能对存在本身产生疑问的感知状态。而在目前为止,我们并没有看到任何可信的证据,表明AI拥有这种意识。至少他没看到。

当然,他也不排除未来某一刻,某个角落可能真的会诞生第一个具备意识的AI。也许现在它就正在诞生。但在此之前,他仍然保持一种「不可知」的态度:不知道,也不能假设它已经具备。

硅谷的问题之一,就是过分推崇智能部分原因可能是那里的很多人本身就极具智能,甚至他们的一生都是建立在智力优势之上,自然也会倾向于高估智能的作用。

但从历史直觉出发,Harari觉得:如果超级智能的AI缺乏意识——无论你事先给它注入多少「价值观」或「对齐机制」——

它最终都不会真正去追求真理。它很可能很快就会开始追逐其它目标,而这些目标,很可能是由各种妄念和幻觉所驱动的。

Reid指出这里有两个关键点。

首先,他同意Harari的观点:高度智能确实可能伴随着高度的妄想。智能越高,误入歧途的能力也可能越强。

但Harari提出的第二点也很有意思——那就是:也许可以把「纯粹的智能」引导到一条追求真理的路径上。或许,仅靠智能,也可以实现对真理的追求。

在这次对话中,Reid还有一个很深的体会:重建信任,至关重要

那是否可以利用技术——包括AI在内——来尝试修复人与制度、人与社会之间的信任裂痕?

不是让AI替代制度,也不是让技术取代信任,而是看它能否成为桥梁,帮助我们更透明地沟通,更高效地回应社会关切,从而逐步找回信任的基础。

这条路不会容易,但它很可能是我们这个时代最重要的任务之一。

AI:重建信任的工具

这是个非常重要、值得深入探索的方向。

已经看到,世界上某些地方正在尝试不同的做法,用技术来增强公众之间的理解与信任。

其实,只需要小小的调整:改变算法的评分方式。

现在大多数社交媒体平台的算法,比如Facebook或Twitter,衡量信息传播的标准只有一个:「互动量」。谁能引发最多关注,谁就被推上热榜。

而什么内容最容易引发关注?是愤怒,是极端,是冲突。

所以我们看到的往往是那些最能激起情绪的内容在疯传。久而久之,不信任、仇恨和愤怒就在社会中蔓延。

只要改变内容的评分标准,一切都会发生了变化。

它不是只看谁喊得最大声、谁能激起最多的愤怒,而是尝试评估哪些内容真正有助于建设性的对话、有助于问题的理解和共识的形成

这看似只是算法的一点「微调」,但背后的价值观却完全不同。

如果我们能借助AI和技术的力量,推动这种新的算法方向,也许真的能为这个碎裂中的世界,打开一条重建信任的通道

首先,这个系统会将人们按兴趣或观点分成不同的群体,分析他们通常喜欢什么样的内容。

然后,它对内容的评分方式是:看它能否获得「不同群体」的点赞

也就是说,如果你发的内容只受到你「本群体」的人欢迎、点赞再多,也不会让你上热榜。你必须说点什么、发个视频、做点什么,能让「立场不同的人」也愿意点个赞,才能让内容被更多人看到。

结果是:很快,各种网红、名人、内容创作者就开始尝试说一些能被不同立场人群同时接受的内容。他们在试错中意识到——这才是让内容「出圈」的唯一方式。

当然,这样的系统也不是没有缺点。有人会说,它可能会鼓励「从众」「妥协」「中庸」。

但不管怎么说,这至少是一个很有启发意义的例子:通过看起来非常简单的工程设定,就可以让一项技术从破坏信任,转变为重建信任

它通过一种更智慧的激励机制,引导人们更倾向于寻求共识、理解彼此。

这样的技术思路,或许正是我们这个时代最需要的创新。

参考资料:
https://www.linkedin.com/pulse/possible-yuval-noah-harari-trust-dangers-ai-power-reid-hoffman-umzoc/
https://www.possible.fm/podcasts/yuval/


图片


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652601816&amp;idx=3&amp;sn=5bc12a97a4ca84997e8d9c3eb6d37753&amp;chksm=f02681df0fda6cad0911b1c7ca2cd3ea79105aeeb5013bbb0f3abae755e01b2bcde4b8fa3f3a&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/5418/8vG48rCn1f&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们