动态列表

  • AI辩论能力碾压人类,81.7%概率让你信服!研究登Nature子刊
  • OceanBase发布AI生态进展:首批接入60余家AI生态伙伴,支持MCP协议
  • 刚刚,智源全新「悟界」系列大模型炸场!AI第一次真正「看见」宏观-微观双宇宙
  • 类R1训练不再只看结果对错!港中文推出SophiaVL-R1模型
  • 不愁了!开源智能体Paper2Poster「一键生成」学术海报
  • 字节Seed新作:模型合并如何改变大模型预训练范式
  • 星尘智能与深圳市养老护理院达成深度战略合作 加速提升具身机器人在养老领域布局
  • MoE推理「王炸」组合:昇腾×盘古让推理性能狂飙6-8倍
  • 马斯克特朗普四天撕破脸,特斯拉血亏 1 万亿
  • 免费约饭!美国CVPR 2025,相聚机器之心人才晚宴
  • 深夜突袭!谷歌Gemini 2.5 Pro更新蝉联榜一:推理超越o3,编程超越opus4
  • 错误率下降44.66%,给AI神经元装上三个突触,灵活的生物启发模块来了
  • 「AI+生物学」如何保证安全?Evo2等DNA基础模型生成「致病生物」怎么办?
  • 统一架构新思考,北大团队UniWorld-V1统一大模型
  • 马斯克川普互喷,特斯拉暴跌!;小鹏 G7 马上预售,25 万「断代领先」;全球首个「满级 QQ」即将诞生|极客早知道
  • 让GPU不再摸鱼!清华蚂蚁联合开源首个全异步RL,一夜击穿14B SOTA
  • DeepMind揭惊人答案:智能体就是世界模型!跟Ilya 2年前预言竟不谋而合
  • AI摧毁就业?DeepMind CEO:这是一场比互联网更猛的职业洗牌
  • 北大、阿里等提出VLM-R³: 区域识别、推理与优化 — 增强多模态思维链的视觉交互新范式
  • 刚刚,新一届ACM博士论文奖正式公布
  • 10行代码,AIME24/25提高15%!揭秘大模型强化学习熵机制
  • Anthropic「切断」Windsurf,AI Coding 成 AI 巨头「代理人之战」
  • 真实联网搜索Agent,7B媲美满血R1,华为盘古DeepDiver给出开域信息获取新解法
  • 重磅!2025智源大会完整日程公布——全球AI先锋全阵容集结
  • ICML 2025|趣丸研发新型人脸动画技术,声音+指令精准控制表情
  • 强得离谱!CNN顶流回归,真·杀疯了
  • 让AI也会“权衡利弊”?DecisionFlow让大模型更懂高风险决策!
  • SIGIR 2025 | Debug你的AI搜索!NExT-Search双模式反馈让模型学会自我纠错
  • 北京内推 | 京东广告部招聘NLP/大模型算法实习生
  • SAVANA:使用长读长测序对细胞畸变进行精准测量分析
  • MOOSE-Chem3重塑科研范式:AI「动态引导」实验,实现科学发现的飞跃
  • 钉钉更新7.7.0版本,多维表全面免费!
  • OpenAI久违发了篇「正经」论文:线性布局实现高效张量计算
  • ACL 2025 | 基于Token预算感知的大模型高效推理技术
  • ChatGPT 推「AI 转录」整理功能;Manus 推出文生视频功能;小鹏、华为合作今日揭晓
  • 10步优化超越强化学习,仅需1条未标注数据!后训练强势破局
  • 陶哲轩再爆:一个月三破18年未解难题!AlphaEvolve彻底改写数学研究规则
  • 爆火AI编程Windsurf突遭Claude全面断供,开发者大量退订!直接打脸OpenAI
  • AI Pin 们折戟后,第二代 AI 硬件闷声发了大财
  • 开启 AI 自主进化时代,普林斯顿Alita颠覆传统通用智能体,GAIA榜单引来终章
  • 看似无害的提问,也能偷走RAG系统的记忆——IKEA:隐蔽高效的数据提取攻击新范式
  • 用 AI 读书、学习,大脑会萎缩吗?
  • 重磅开源!首个全异步强化学习训练系统来了,SOTA推理大模型RL训练提速2.77倍
  • 最新发现!每参数3.6比特,语言模型最多能记住这么多
  • 英伟达揭示RL Scaling魔力!训练步数翻倍=推理能力质变,小模型突破推理极限
  • 文本线索提升视频理解:哈工大、特伦托大学等联合发布多任务视频文本理解评测新基准VidText
  • ICCV 2025| BinEgo‑360:融合全景与双目第一视角的多模态场景理解workshop及挑战赛现已启动
  • ICML 2025 | 认知科学驱动跨域学习!SynEVO仿突触进化机制,泛化性能提升42%
  • 越用越聪明or越学越崩?首个终身学习Agent基准来了,全面评估智能体进化潜能
  • 全注意力一统多模态!快手&港中文提出FullDiT,重构可控视频生成范式
  • 博士申请 | 西湖大学人工智能研究与创新实验室招收2026级推免直博生/硕士生
  • 有效性达95.5%,Deep dreaming方法可逆向设计MOF,探索材料化学空间
  • 登Nature子刊,阿里云&海洋三所用蛋白质语言模型探索深海微生物磷循环
  • 冲击自回归,扩散模型正在改写下一代通用模型范式
  • ICML 立场|像测人类一样测AI:构建能力导向的自适应测评新范式
  • Meta新突破!跨模态生成告别噪声:流匹配实现任意模态无缝流转
  • 全球仅 6 家!GMI Cloud 跻身 Reference Platform NVIDIA Cloud Partner 行列!
  • OpenAI 曝 GPT-5 即将面试;雷军:YU7 售价肯定高于 23 万;离开格力,王自如变身 AI 博主
  • 真实评估!北理发布全球首个「全场景教育」基准,支持4000+情境
  • Fellou 2.0震撼发布:你的专属贾维斯,开启AI批量化生产新时代
  • GPT-5七月上线?内部爆料+奥特曼疯狂暗示,自曝前方时刻「令人恐惧」
  • 视觉感知驱动的多模态推理,阿里通义提出VRAG,定义下一代检索增强生成
  • 玩完 DeepSeek R1 新版,外国网友又「蚌埠住了」?
  • 经典ReLU回归!重大缺陷「死亡ReLU问题」已被解决
  • 思维链也会「跳帧」?浙大团队提出CoT-Bridge,显著提升数学推理性能
  • 揭秘FG-CLIP:细粒度+难负样本,高质量图文对齐数据集FineHARD开源发布
  • 【征稿&挑战赛】ACM MM 2025 第一届 “软体机器人视觉语言” 研讨会&挑战赛
  • 将量子化学信息注入分子图,卡内基梅隆大学团队提出ML分子表征新方法
  • 集成Evo2与Qwen3,多伦多大学、DeepMind等开发BioReason使AI像生物学家一样推理
  • 过程监督>结果监督!华为港城重构RAG推理训练,5k样本性能反超90k模型
  • ACL 2025 | MMUnlearner解耦视觉-文本知识,多模态大模型遗忘进入细粒度时代
  • 即插即用!SLOT推理时优化算法,几行代码让大模型性能爆表
  • 博后招募 | 北京大学信息技术高等研究院MAII Lab招收机器学习/具身智能博士后
  • 字节跳动 2025 奖学金计划启动!每人 10 万、名额再增加!
  • 万帧?单卡!智源研究院开源轻量级超长视频理解模型Video-XL-2
  • 李斌评蔚来车主高速睡着:辅助驾驶非自动驾驶;苹果WWDC海报曝光;人造肌肉问世,可自我修复|极客早知道
  • AI竟会「自己认错」?破解多智能体协作「罗生门」,斩获ICML 2025 Spotlight
  • AI已学会改自己代码,性能提升100%,还会「改绩效」!程序员,还不慌?
  • AI 逆向设计抗癌药,越想激活 STING,越要先「保护」cGAMP
  • LSTM之父22年前构想将成真?一周内AI「自我进化」论文集中发布,新趋势涌现?
  • 微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好
  • 姚顺雨提到的「AI下半场」,产品评估仍被误解
  • CVPR 2025 | 解决XR算力瓶颈,FovealSeg框架实现毫秒级IOI分割
  • ICCV 2025 DRL4Real 解耦表征学习与可控生成研讨会,竞赛与征稿已开启
  • 雷军疑似回应余承东:诋毁,也是仰望;京东外卖日单超 2500 万;端午档票房破 2 亿,《碟中谍 8》占一半
  • AI让文科彻底灭绝?算法猜不透人心,人类终将反杀!
  • 陶哲轩重写20年本科经典教材!Lean编程数学证明,GitHub已放出
  • 陶哲轩:感谢Lean,我又重写了20年前经典教材!
  • SFT在帮倒忙?新研究:直接进行强化学习,模型多模态推理上限更高
  • 极低成本,复现GPT-4o图像风格化一致性!NUS推出OmniConsistency
  • CVPR 2025 Highlight | 提升自回归模型样例学习能力,Few-shot图像编辑新范式开源
  • 第六届CSIG图像图形技术挑战赛—红外视频卫星空中动目标检测赛道启动报名
  • CVPR 2025 Highlight l 北大团队开源视觉搜索方法 DyFo,无需训练,提升多模态大模型细粒度理解能力
  • 「平价 Model Y」曝光;OpenAI 死敌年化收入超 30 亿美元;机器人足球联赛月底开战|极客早知道
  • UC伯克利新作颠覆认知:LLM靠「自信爆表」学会推理?无需外部奖励超进化
  • 一周两破18年数学纪录!陶哲轩惊叹:AlphaEvolve带来久违「加速度」
  • OpenAI未公开的o3「用图思考」技术,被小红书、西安交大尝试实现了
  • 大模型推理的“左右脑”革命!华为盘古Embedded凭昇腾之力,让快慢思考合二为一
  • 250美元起售,还开源,Hugging Face 发布史上最亲民人形机器人
  • SSM+扩散模型,竟造出一种全新的「视频世界模型」
  • 从打分器到思考者:RM-R1用推理重塑模型价值判断
  • 华为余承东:有些车卖爆了但产品不太好,尊界 S800 百万顶配超七成
  • ACL 2025 | AI虚拟科学家VirSci模拟科研协作,揭示协作创新机制
  • ICCV 2025 视觉质量评估挑战赛(VQualA)启动
  • ICLR2025 workshop | 浙大&阿里提出FILA:让多模态大模型看清高分辨率图像细节
  • 微信测试「朋友圈折叠」功能;华为推尊界 S800,70.8 万起;宇树预热「钢铁侠」新机器人

图灵巨擘RL教父齐聚,机器人秀拳脚嗨翻全场!「悟界」首发引爆物理AGI



  新智元报道  

编辑:编辑部 YZNH
【新智元导读】刚刚,AI顶流春晚智源大会来了!深度学习和强化学习两大巨头齐聚,图灵奖得主、顶尖专家出席,2025 AI未来的发展路径,在一场场精彩的思想碰撞中被清晰解码,硬核指数已经超标。

就在刚刚,一年一度「AI内行春晚」——智源大会正式开幕!

这场科技圈最不容错过的、硬核十足的AI顶级盛会,依旧星光熠熠、干货满满。

这届大会,迎来了四位图灵奖得主坐镇,汇聚了DeepMind、Linux、华为、阿里等全球科技巨头,还有MIT、斯坦福、清华、北大等20+海内外顶尖学府研究人员齐聚一堂。

他们一同分享了硬核技术突破,更深入探讨了AI前沿与未来走向,兼具深度与启发。

智源研究院再度发力,重磅推出了「悟界」系列大模型,开启了通向物理AGI的全新篇章。

从多模态基础模型到具身智能大脑,从宏观到微观,一共四大核心成果正式亮相。

现场演示中,机器人能从琳琅满目货架上,精准拿取酸奶、果冻,不会弄乱其他商品。

更有趣的是,宇树机器人闪亮登场,带来了一场令人热血沸腾的拳击表演。

而将大会推向高潮的,无疑就是图灵奖得主Yoshua Bengio、Richard Sutton等AI大佬的精彩演讲。

准备好,超硬核的思想盛宴来了!


Yoshua Bengio
5年后AI超越人类,科学家AI救场


最先作开场报告的,是图灵奖得主、深度学习领域的奠基人之一——Yoshua Bengio。

此次,Bengio教授的报告题目为《Avoiding Catastrophic Risks from Uncontrolled AI Agency》(避免未受监管的人工智能机构带来的灾难性风险)。

一上来,教授就一针见血地指出,AI的规划能力正在指数级递增。AI能完成的任务持续时间每七个月就会翻一番,这么算下来,五年后就可以达到人类水平。

然而,我们虽然会训练这些系统,但却不知道该如何控制它们。

那么当AI变得比人类更聪明时,如果它们更倾向于自己的存在而不是人类,我们如何面对这种风险?

研究表明,过去六个月里,已经有一些AI显示出具有自我保护行为,撒谎甚至是欺骗、勒索人类。

左右滑动查看

Bengio教授说,如果我们最终创造出与人类竞争的AGI,那将是非常糟糕的。

我们该怎么办?

虽然AI的性能可能很强,Bengio教授表示,但我们可以确保它们没有不良意图,保证它们是诚实的。

Bengio教授现在的研究项目就在尝试构建只有智能而没有自我和目标的AI。

目的是让AI有用但不会威胁到我们,确保AI会遵循我们的道德指令。

他将其称之为「科学家AI」(Scientist AI)。

Bengio教授现场讲解了这种新的AI推理方法:通过构建类似数学证明的结构化假设图来提高推理能力。

AI不再只是模仿人类文本,而是通过分析这些陈述的逻辑一致性和概率来寻找解释,生成更可靠的结论。

最后,Bengio教授呼吁国家、企业之间要携手合作,共同应对AI的安全风险。


Richard Sutton
AI「体验时代」来临


这次大会,还请来了2024 ACM图灵奖得主Richard Sutton,爆火博文「苦涩的教训」原作大佬。

演讲中,Richard教授分享了自己对AI未来深刻洞见,正如演讲题目所言——

 AI正从「人类数据时代」,迈入「体验时代」。


他指出,当前AI训练主要依赖于互联网上,人类生成的数据,如文本、图像,并通过人类微调来优化。

在「人类数据时代」,AI在模仿人类行为和预测人类意图方面,取得了巨大的成功,比如ChatGPT。

然而,这一策略正接近极限。高质量人类数据几乎被耗尽,而生成全新知识需要超越模仿,走向与世界的直接互动。

这时,「体验时代」成为AI发展的下一个阶段。

Richard Sutton强调,AI应像人类和动物一样,从第一人称的经验中学习。

无论是婴儿通过玩耍探索世界,还是足球运动员、动物在环境中学习决策, 这些经验数据全部来自与环境中的「实时互动」。


这种数据是动态的、不断增长的,能够随着AI能力提升不断改善,比如AlphaGo通过对弈下出了「第37步」、AlphaProof在数学奥赛中拿下大奖。

因此,Richard认为,未来的AI——智能体,需要通过与世界直接交互,去获取经验数据,从而实现真正的智能突破。

与悲观派Bengio不同的是,Richard大会直言,「我不担心安全,也不担心失业,超级智能体和超级智能能够增强人类的创造,这是世界转变和发展的一部分」。

而当下,人类已经进入使用强化学习的全新「体验时代」,要发挥AI超能力,还需要更好的深度学习算法。


π联创兼CEO
构建物理智能


接下来登场的,便是曾任谷歌大脑资深研究科学家兼机器人操控主管、现任Physical Intelligence联合创始人兼CEO的Karol Hausman。

他的演讲主题为「构建物理智能」。

要知道,早先的机器人一旦遇到环境上的变化,就会无法应对;但如今,机器人开始变得更加丝滑,能跳流畅的舞蹈,还能灵活应对非结构化的环境。

所以,究竟发生了什么?

答案显而易见:AI出现了。

而其中最重要的,就是视觉语言动作模型。

首先,我们可以采用预先在网络上训练好的视觉语言模型,它对世界如何运作已经有了高水平理解,并且能将其中一些含义转移到机器人的动作上。

比如,Robotics Transformer 2从没见过霉霉的照片,却能完成「给霉霉递可乐」的这个动作。

原因正是因为,它从互联网的预训练中获得了知识,然后将知识转化,连接到机器人,让其真正实现了理解。

其次,除了互联网之外,我们还可以把各种来源的数据都整合到一起。

为此,团队训练了一个模型,来控制任何机器人执行任何任务。

经过5个月的研发后,机器人就已经能从烘干机取出衣物、放进篮子里、叠起来。

可以看出来,下面这项叠衣服的任务非常艰巨,很棘手。需要做出很多种不同动作,才能正确抓住衬衫的角。

甚至,这个系统足够强大,我们可以随时可以中断它,而不影响任务。这并没有经过专门训练。

这个过程中真正发挥作用的,就是预训练和后训练的内部模型。

下面所展示的就是他们和星辰智能的合作,让机器人学会了煮咖啡。

在泛化上,他们成功实现了让机器人在从未见过的环境里工作。

在开始打扫之前,机器人从没见过这间房间,却能在全新环境中打扫、做家务。

Hausman相信,如果真的成功解决了物理智能的问题,我们绝不会止步于人形机器人。那时,我们将经历机器人的寒武纪大爆发。

当然,虽然π展现了一些物理智能的火花,但还不是物理智能,仍处于早期阶段。

不过,就如同我们刚开始使用电的时候,需要花费很多力气才能驯服它。如果我们能解决物理智能的问题,劳动力就将唾手可得。


「悟界」系列大模型,迈向物理AGI


大会重中之重,便是智源研究院一系列的重磅发布。

过去的一年,实践证明智源在2024年对大模型技术路线预判的正确性:

大模型正从大语言模型——原生多模态模型——世界模型逐渐演进。


过去四年,智源研究院继续围绕这一趋势展开布局,并在今天重磅推出全新「悟界」系列大模型。

2021年,「悟道」大模型诞生,正式开启了中国大模型时代。而今天「悟界」大模型的出世,标志着AI从数字世界迈向了物理世界。

具体来说,「悟界」系列大模型共包含四款模型:

· 原生多模态世界模型Emu3

· 全球首个脑科学多模态通用基础模型见微Brainμ

· 具身大脑RoboBrain 2.0

· 全原子微观生命模型OpenComplex2

从微观生命体到具身智能体,「悟界」系列大模型试图揭示生命机理本质规律,构建人工智能与物理世界的交互基座。

原生多模态世界模型Emu3


去年10月,智源首次发布了Emu3,完全统一了多模态学习,统一了图像、视频、文本,统一了生成和理解。

Emu3之所以如此强大,得益于其背后的框架。

它基于下一个token预测统一多模态学习,原生支持自回归训练和推理,无需扩散模型,也无需组合式架构复杂性。

通过整合多模态数据,Emu3构建出了对物理世界的感知理解能力,为具身智能和现实交互奠定基础。

它支持多模态输入、多模态输出的端到端映射,验证了自回归框架在多模态领域的普适性与先进性,为跨模态交互提供了强大的技术基座。

值得一提的是,Emu3已面向AI社区开源。

在这个统一框架下,过去半年多时间中,智源将其扩展到更多的模态领域。

最具典型代表的,便是扩展到「脑信号」模态。

由此,全球首个脑科学多模态通用基础模型「见微Brainμ」诞生了。

全球首个脑科学多模态通用基础模型见微Brainμ


Brainμ基于Emu3架构,引入脑信号这一新的模态数据,实现了单一模型完成多种神经科学任务的大一统。

具体来说,它将fMRI、EEG、双光子等信号统一token化,实现了多模态脑信号与文本、图像等模态的多项映射。

见微Brainμ以单一模型可以完成多种神经科学的下游任务。

通过整合多个大型公开数据集和多个合作实验室的高质量神经科学数据,Brainμ可以支持从基础研究到临床研究等不同的方向,有望成为脑科学的「AlphaFold」模型。

作为跨任务、跨模态、多物种、跨个体的基础通用模型,Brainμ可以同步处理多类编解码任务,兼容多种动物模型(包括小鼠、狨猴、猕猴)与人类数据,实现科学数据注释、交互式科学结论解读等。

在自动化睡眠分型、感官信号重建与多种脑疾病诊断等任务中,刷新SOTA表现。

Brainμ也可以支持拓展脑机接口应用,首次在便携式消费级脑电系统上重建感觉信号。

智源正在与国内前沿的基础神经科学实验室、脑疾病研究团队和脑机接口团队深入合作,包括北京生命科学研究所、清华大学、北京大学、复旦大学与强脑科技BrainCO,拓展Brainμ的科学与工业应用。

不论是Emu3,还是见微Brainμ,都代表着智源在多模态基础模型领域的探索。

而这些成果,皆是为了让AI能够真正看到、感知、理解这个世界,并与世界进行交互,从而推动具身智能的发展。

全球最强开源具身大脑


不过,具身智能也面临诸多挑战,甚至陷入了「循环悖论」。

而具身智能大模型不好用、不通用、不易用,成为了核心痛点。

为此,智源提前布局,在今年3月发布了首次发布跨本体具身大小脑协作框架RoboOS 1.0以及具身大脑RoboBrain 1.0。

时隔3个月,全新升级后的RoboOS 2.0和RoboBrain 2.0官宣上线。

现场演示中,全新具身大脑加持的机器人本体,为小姐姐制作了一款汉堡和饮料套餐。

即便是在制作过程中,遇到了刁难——「我不要西红柿\我要这个」,机器人也能立马理解,并做出下一步规划。

而且,它还贴心考虑到小姐姐减肥需求,主动推荐了无糖可乐。最后机器人还帮忙打扫餐桌,全程操作非常丝滑。

· RoboOS 2.0

相较于RoboOS 1.0,新版本在多方面得到了升级,提供全球首个具身智能SaaS平台,支持无服务器一站式轻量化机器人本体部署的开源框架。

而且,RoboOS 2.0还将支持MCP,打造全球首个具身智能的应用商店。

在这个框架下,全新小脑技能的注册代码量,仅需1.0版本的十分之一。

同时,RoboOS 2.0推理链路效率大幅提升30%,平均延迟响应时间将至3ms,端云通信效率提升27倍。

除此之外,RoboOS 2.0在功能上还新增了业内首创多本体时空记忆场景图(Scene Graph)共享机制,同时引入多粒度任务监控模块。

· RoboBrain 2.0


具身大脑RoboBrain 2.0,是目前全球最强开源具身大脑大模型。

在空间感知/推理与多任务规划上,RoboBrain 2.0超越主流大模型,刷新SOTA。

相较于1.0,全新具身大脑模型进一步扩展了多本体-环境动态建模的多机协同规划能力。

如今,RoboBrain 2.0可实时构建出包含本体定位的场景图(Scene Graph),任务规划准确率较上一代飙升至74%。

在空间智能方面,2.0版本在原有物体级可操作区域(Objective Affordance)感知与操作轨迹(Trajectory)生成能力的基础上,实现了17%的性能提升。

更令人振奋的是,RoboBrain 2.0将「可操作区域」从物体级扩展至空间级,从而在复杂环境中执行更灵活、高效的操作。

除了在感知能力上突破,它还新增了两大核心能力:闭环反馈和深度思考。

同初代框架模型一样,RoboOS 2.0和RoboBrain 2.0所有代码、权重、数据、评测集全部开源。

全原子微观生命模型OpenComplex2


大会现场还发布了OpenComplex2,实现了生物分子研究从静态结构预测到动态构象分布建模的重大突破。

OpenComplex2能够表征生物分子系统的连续演化能量景观,在原子层面捕捉分子相互作用及平衡构象分布,为探索微观构象波动与宏观生物功能的跨尺度关联提供了全新的研究视角。

它基于FloydNetwork图扩散框架以及多尺度原子精度表示两大关键技术创新,能够更加真实地还原生物分子的构象多样性与动态特性。

这使得在建模过程中可以兼顾关键的局部结构细节与全局构象变化,为揭示生物功能提供更加全面的基础结构。

OpenComplex2突破了静态结构预测的瓶颈。

2024年,在第16届蛋白质结构预测关键评估竞赛CASP16(Critical Assessment of protein Structure Prediction)中,成功预测了蛋白质T1200/T1300的空间构象分布(定性上与实验数据一致),成为23支参赛队伍中唯一取得该突破的团队

OpenComplex2将加速从基础分子机制研究到药物设计等下游应用的发展。

结合AI精准预测和高通量实验验证,有望大幅缩短生物医药研发时间,降低成本,提高成果转化率,助力产业高质量创新。

可以看出,从「悟道」到「悟界」,智源研究院始终走在技术路线探索的前沿,积极构建开源开放的技术生态。

而在未来,智源研究院还将持续解构物理世界与智能本质的深层关联,在AGI的征途中刻下新的坐标。

最后,智源大会开幕式今天圆满结束,留给与会者和网络上的观众们无尽的收获和思考。


图片


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652599499&amp;idx=1&amp;sn=f18d2263b140302bf32cd53e913b78f6&amp;chksm=f075a469301813789196d784886e3b856f6300043906d66fc60fc6c5a4f3243dea7e1b728f48&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/23Fvuk40FS&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们