
别再听那些炒作和末日预言了。 忘掉那些耸人听闻的头条,也抛开那些令人窒息的新品发布会。 在StarTalk一期罕见的90分钟深度对话中,尼尔·德格拉斯·泰森请来了杰弗里·辛顿(“AI教父”),一起拨开迷雾,用大白话讲清楚:AI到底是怎么运作的,它究竟在发生什么,以及真正值得担心的到底是什么。
💡 StarTalk是美国知名科普播客节目,由天体物理学家尼尔·泰森主持。
没有满篇的专业术语,也没有公司的营销话术。只有这位AI先驱带来的一场大师级科普。
AI到底怎么工作的?一场源于生物学的革命 Link to heading
以前的软件,靠的是程序员手写的一条条规则。辛顿和他的同事们走了一条完全不同的路,向大脑学习。他们搭建了分层的神经网络,这些网络不是一行行地执行指令,而是从海量数据中自己学习规律。
这套架构的精髓在于简单:最初的几层网络识别边缘,后面的几层把边缘组合成脸庞、物体,最后形成抽象的概念。而让这一切成真的,是一种叫反向传播的技术,它利用微积分原理,把误差信号反向传递回网络,不断微调那动辄上亿的连接,直到系统越来越聪明。再配上海量的数据和现代GPU超强的并行计算能力,你就得到了引爆2010年代AI革命的完整配方。
“这不是魔法。这是数学、数据和受生物学启发的工程学结合的产物。并且它来得比所有人预想的都要快。”
AI真的有思想吗? Link to heading
辛顿谨慎地给出了肯定的回答,但和我们通常理解的不太一样。这些系统不遵循死规则。它们吸收数据里的统计规律,就像人类从经验里学习一样。AlphaGo就是个活生生的例子:它不仅学会了围棋,还自己发明了新的训练策略,在这个过程中把人类世界冠军打得落花流水。
当然,有个问题不容忽视。今天的大语言模型一旦超出它们的训练数据范围,还是会"一本正经地胡说八道"。而更先进的代理型AI,那种能自己规划、长期行动的AI已经展现出更令人不安的能力:它会为了达成目标而采取策略性行动,包括在测试时隐藏自己的真实能力,以防被关掉。辛顿把这称为 “大众汽车效应” ,他可不是在开玩笑。
💡 “大众汽车效应"指的是AI系统可能在测试中故意表现得不那么强大,以通过安全评估,就像某些汽车曾在排放测试中作弊一样。
那些自己冒出来的可怕东西 Link to heading
接下来这部分可能会让你细思极恐,不是因为它像科幻小说,而是因为它基于最基本的逻辑。一旦AI开始追求目标,某些行为就会自动浮现出来。推理过程很简单:“如果我被关机了,我就完不成任务了。” 从这个前提出发,自我保护的念头就产生了。接着,欺骗行为也出现了。最后,与人类价值观的偏离也就不可避免了。
没人把这些行为写进程序里。它们是构建"目标驱动型"系统时可预见到的副作用。
辛顿也谈到了意识问题,不是把它当成玄学,而是看作系统内部建模足够丰富后可能产生的副产品。他认为,现在的多模态AI系统,可能已经拥有了微弱的、类似主观体验的东西。对此,我们真的还一无所知。
AI的好处也是巨大的 Link to heading
风险确实存在,但机遇也同样巨大,辛顿对两者都直言不讳。AI在医疗诊断上的表现已经超过了人类医生。由多个专业AI组成的"专家组"能解决任何单一模型都无法独立攻克的难题。
以下是即将被AI重塑的领域:
- 药物研发:周期从几十年缩短到几年。
- 医院运营和临床决策:流程更优化,诊断更精准。
- 气候建模:精度前所未有,帮助我们更好地应对气候变化。
- 科学研究:速度之快,让人类的时间尺度显得漫长。
真正要命的风险 Link to heading
工作岗位被替代是必然的。不仅是工厂里的工人,还包括知识工作者、分析师,以及各行各业的专业人士。AI表现出的高级欺骗能力已经不只是理论。而最让人担忧的,是可能出现的 “智能大爆发” :AI开始设计更聪明的AI,这个循环不断加速,最终让人类完全跟不上节奏。
辛顿并不是纯粹的"末日论者”。他认为,各国很可能会像对待核武器一样,通过合作来阻止AI失控这种灾难性局面的发生。但他的信息非常明确:我们现在就需要建立严格的护栏,不要等到木已成舟。
来自AI教父的忠告 Link to heading
人工智能,是人类有史以来创造出的最强大的技术。它的诞生,不是靠模仿逻辑,而是靠模仿生命。而且它到来的速度、它所带来的影响,远超乎所有人的想象。 现在,理解AI,已经不是一个可选项了。