人类智能不是普遍的智力。我们的大脑是进化的产物,只能解决对安全有用的问题,而不是真正的“通用”计算...在最新的播客节目中,AI科学家领导者Turing奖莱肯(Turing Lecun)在上点上获得了。他说,AGI一词(通用人工智能)非常误导,但是人类智能的本质并不普遍,而且非常专业。更有趣的是,当每个人都谈论AI的发展时,他大胆地预测了自己的直觉,即下一个AI一代的倒塌可能是基于非务实的。同时,他还提到了DeepSeek,并直言不讳地说,他深入参与了非常参与AI领域的人们的AI领域。在整个演出中,莱肯与两个主题的讨论是从大型语言模型(LLM)到下一次AI研究范式转移的主题涵盖的主题,重点介绍了推理,P,P兰宁和世界建模。流的版本如下:Lecun直觉地认为下一个AI一代的崩溃可能基于非代基因;拒绝在未来两年内实现AGI,但可以在十年内完成重大发展;人类和动物的主要主要部分不是语言,而是物理世界行动的建模和计划。创新可以来自世界的任何角落。智能眼镜代表了实施AI技术的重要方向。同时,将摩擦值翻译并随后是一些问题,而无需更改原始的寻求。问:“下一代AI可能基于非赫拉尔”问:您如何看待减少返回一侧的,而公司估计了AI生成的? Lecun:毫无疑问,生成的AI是有用的,尤其是编程助手等。最近讨论了代理系统,但尚未依赖有能力的。从技术演示到实际部署,它需要巨大的跳跃,类似于10年前的自动驾驶困境 - 最初的展示是惊人的,但是很难以较大的尺寸实施它。人工智能领域已经重复了过去70年的历史:人们提出了一个新的范式,然后声称它将达到人类智能的水平,但事实证明,每次都错了。无论是在子任务中的健康状况不足或证明是不足的,都比一般任务。因此,我们应该向他们投资太多,尤其是在对它们上运作的大量基础架构。实际上,大量资金通过了AI基础架构,而不是培训AI,而是为了提供潜在的数十亿个用户。现在,如果我们需要达到人类智能的水平,我们需要发明新技术。我们还没有达到这一水平。问:人工智能的下一步是什么ence?我们应该在哪里投资资源? Lecun:三年前,我写了一篇文章“通往自动机器智能的途径”(通往自动机器智能的途径),该文章解释了未来十年AI研究的方向。我认为未来的AI应该具有许多YETMAIN的能力:了解物理世界 - 不仅仅是符号或文本,而是真正“理解”实现现实世界的规则;推理和计划能力的可用性 - 像人们“如果您这样做会发生什么”并开发技术的思考;长期内存不仅 - 不仅数据存储,而且能够长期以来积累和调用体验的能力;安全和控制 - AI必须严格遵循我们设定的目标,不能偏离或“主动进行主动”。人和动物的大脑中都有一个“世界模型” - 让我们猜测现实世界的运作方式。例如,如果您扔球,您的大脑可以预测其LandinG点没有计算抛物线。这种能力使我们能够接受一系列动作,例如:“如果我现在左转,我可以包裹那辆车吗?”在AI领域,我们希望这些机器也能学习此模型。但是问题是:AI如何通过观察世界来像婴儿一样向主学习? LLM成功证实了研究的力量监督研究,并通过预测下一个文本标志来确定语言法律。但是,相同的过程直接应用于愿景(例如猜测视频的下一个帧)不起作用,因为现实世界中有太多可能与文本诸如文本之类的可能性分布进行建模的可能性。我们建议的解决方案是JEPA(关节嵌入预测体系结构),它不是直接形成像素级别,而是更抽象的“代表性台式”中的因素。就像人的大脑一样 - 我们不要为我们的大脑提供所有框架,而要以更好的方式理解世界。有趣的是,现在每个人都在谈论AB开发AI,但我的直觉是,下一代AI可以来自不是一般的模型。这是我脑海中的方向 - LLM的爆炸没有改变,下一个AI的秋天将使机器能够真正“理解”世界,AI的未来会想到动物。表现出MGA能够超越特定领域的人(例如GO,图像识别),但真正的挑战是可以像生物一样适应现实世界的代理的发展。我应该指出,“ agi”一词具有误导性。这表明人类的智力是“普遍的”,而实际上,人类智能是高度专业的。我们的大脑是进化的产物,只能解决对安全有用的问题,而不是真正的“一般”计算。我们认为自己是“一般”,只是因为我们不知道我们不了解的问题。因此,我更喜欢使用“ Advanced Machine Intelligence(AMI),也称为“ AMI”(法国人)的概念朋友“含义)在元中,而不是误导“ agi”。我认为明年或未来两年将无法实现Agi(或AMI)。但是,在十年中,我们可以做出重大的发展。当然,这取决于我们目前缺少的基本技术是否始终是在填补的基本技术。真正爆炸到2010年之后。因此,我对优化保持谨慎,我相信我们可以成功,但它不会像今天的AI那样快。例如,让最佳语言模型e奥林匹克运动会的最新问题,几乎得分为零,因为他们没有培训类似的问题。更重要的是,他们没有真正的推理。所谓的“思考链”使该模型只能产生更多的文本,而不是作为人类的抽象推理。人类和动物的主要部分(例如猫和大鼠)不是语言,而是物理世界行动的建模和计划。示例:空间推理:如果我让您想到一个旋转90度的立方体,则可以在没有语言描述的情况下模仿它;分层计划:如果我从纽约到巴黎,我将不会计算“第一步或右脚”的步骤,而要用“ Treats Taxi→机场→飞机”抽象;动作研究:猫是众所周知,可以打开门,松鼠会记住食物被隐藏在哪里。他们没有语言,但是通过观察和尝试可以精通复杂的技能。这是真正的智慧,AI现在无法做到。启用a我要达到动物的智力水平(甚至人类),我们需要:1。建立世界模型:允许AI模仿物理定律(例如重力,物体接触); 2。规划分层行动:像人类一样,从高水平的目标到特定行动; 3。非语言推理:真正的智力不依赖语言,而是基于抽象表示; 4。适应不确定性:现实世界是混乱而连续的,不像语言那样结构。如果AI达到猫的智力水平,Magigin将取得巨大的成功。 AI现在可以击败船上的人,但是猫对物理世界的理解仍然远离最优势的大型语言模型。我们离人AI的真实水平仍然很远,但是方向很明显:不要在语言上更好地使AI更好,而是要在世界上理解它并计划像动物一样的行动。它需要一个全新的架构,而不仅仅是更大的语言模型。我相信在接下来的十年中,我们会看到符号IFICANT的发展 - 但这不是“突然觉醒”的超级AI,而是一种逐渐接近生物智能的机器。问:“我们对DeepSeek的出现并不感到惊讶”问:元人工智能的方法是什么? Lecun:作为META的AI负责人,我们想分享我们对开源Llama系列模型的战略思考。它来自一些主要考虑因素:首先,从道德的角度来看,开放资源是正确的选择。 Llama 2发布后,采用了开放资源模型,它直接促进了整个AI生态系统的爆炸性增长。它不仅使企业和初创企业受益,而且更重要的是,它使学术界能够真正参与研究削减。您应该知道,大学和研究机构通常没有资源来培训自己的基本模型。我们开放的资源方法确实有两个重要的影响:它影响SOM的利益E封闭的商业资源(所有人都知道),但它同时为成千上万的公司和研究人员创造了机会。正如Jeff教授所指出的那样,在Lanaranas的教育中,Llama允许大学运行,研究和改进这些模型。此更改的开放模型正是AI字段所需的。有些人可能会问:为什么元数据是免费的?这确实与我们的业务模式有关:与某些直接依赖AI技术本身赚取收入的公司不同,Meta的主要收入来自广告。广告业务取决于这些技术,社交网络的影响以及用户规模和联系的高质量产品。因此,开放资源不仅能够损害我们的业务利益,还可以帮助我们发展更强大的生态系统。当许多人使用并改善技术时,他们最终将返回我们的产品。在通往的道路上追求人AI的水平,开放资源是加速成功的关键。这可能是人类面临的最重要的技术挑战之一,没有公司可以垄断所有变化。最近在诸如DeepSeek之类的开放项目资源中的突破证明了这一点 - 他们对硅谷感到惊讶,但是我们当中那些长期参与开放资源的人并不感到惊讶。我坚信以下内容:改变可以来自世界的任何角落,没有人可以垄断好主意(除了那些对自己感觉良好的人)。在过去的十年中,AI的快速发展主要是由于开放的代码和知识共享。在Meta中,我们将继续保持开放资源技术,因为这是推进AI技术并实现真正变化的最佳方法。我们期待与世界各地的研究人员和开发人员合作,迈向更聪明的未来。 “明智的眼镜已成为IM的重要方向配备技术“问:您如何看待智能眼镜之类的设备的出现?Lecun:我认为智能眼镜代表了实施AI技术的重要方向。我认为,未来的AI助手应该具有以下特征:24/7集成:准备好像真正的助手一样;多人接触;在“助手”的助理中,请求职:不及格的行为:不及时获得专业的行为:没有专业的行为,没有一个专业的行为,不属于一位专业的行为,不得求助于某种情况下,就可以使用;尤其是人工智能的助手,我认为AI比人们更聪明,但我认为这与科学研究或业务管理一样,是在加强自己的伟大人才,而不是您自己的伟大人才。杜斯特里。我发现将来成千上万的AI助手将根据开放资源(例如Meta)提供的主要模型来定制,以开发世界各地的开发人员。该模型不仅可以防止技术垄断,还可以促进真正的变化。参考链接:[1] https://www.youtube.com/watch? https://aiinside.show/episode/yann-ccun-uman-telligence-is-not-eneral-telligencethis rigtt of Wechat公共帐户中的文章:qubit(qubit(id:qbita),5月:yishui:yishui:yishui