出生于200年科学世家的杰弗里·辛顿(Jeffrey Hinton)是如何成为人工智能教父的?你为什么害怕人工智能?

简介:Hinton 在辞职声明中表示:“我一生都在让人工智能变得更加智能,现在我需要用余生来提高人们对人工智能危险的认识。”王健/作者立石商业评论/制片人2025年7月,上海世博中心爆满,78岁的“人工智能教父”杰弗里·辛顿首次在中国公开亮相。在长达40分钟的演讲中,他六次提到“责任”,三次强调“不可逆转的风险”,并直言人类“使用开源模型为可能对我们产生反作用的系统提供动力”。 “我一生都在让人工智能变得更聪明,现在我必须用我的余生让人工智能更容易使用。”他在演讲中的这段自白尤其令人难忘。从半个世纪前的人工智能寒冬时期倡导神经网络的“特立独行者”,到今天掀起技术革命、敲响警钟的“吹哨人”,Hinton的一生始终与AI的命运有着千丝万缕的联系。要理解Hinton为何在人工智能发展的关键时刻敲响警钟,为何选择将批判的声音立足于上海,我们必须追溯他家族200年的传承,追溯他30年的坚韧,以及这场技术革命从爆发到爆发的整个轨迹。 1 从布尔代数到中国复杂伦理基因 事实上,杰弗里·辛顿 (Jeffrey Hinton) 的知识谱系源远流长,深深植根于其家族 200 年的科学遗产。这个堪称“人类文明的基本建设者”的家族,从不追求世俗的财富和权力,并通过他们的智慧,构建了现代社会的几个重要基础。辛顿的曾祖父乔治·布尔创造了布尔代数,将逻辑推理转化为可计算的数学语言,从而为计算机和数字世界中的二进制逻辑奠定了基础。每次数据交换,ev所有的金融交易,甚至当今世界上的每一个智能算法都是源于这套理论。辛顿的曾祖父乔治·埃佛勒斯爵士 (Sir George Everest) 是 19 世纪著名的测量师和制图师,曾担任英属印度测量总长。这是印度次大陆的一个大范围。他是三角测量领域的领导者,因其科学贡献而闻名于世。为了纪念他的成就,他去世后,他的继承者以他的姓氏将当时世界上最高的山峰命名为“珠穆朗玛峰”。也称为珠穆朗玛峰。但在他的所有家庭成员中,对辛顿的道德观影响最为深远的恐怕就是他的姨妈乔安妮·辛顿(中文名韩春)了。 作为曼哈顿计划核心团队中为数不多的核物理学家之一,韩春亲眼目睹了原子弹的破坏力以及广岛和长崎的惨剧。受到精神创伤的她决定她在美国获得了学业上的荣耀和美好的生活,最终前往中国北方的陕西省,在那里加入了乳品机械化运动,并决定用一生的时间实践她的“科学应该服务和平”的信念。姑妈跨越国界的决定不仅在辛顿的心中种下了科技伦理的种子,也让他与中国产生了特殊的情感联系。在上海的这次演讲中,他还深情地提到了他的姨妈,他说:“科学的根本重要性不在于它的技术进步本身,而在于它对人类的责任,这是我的家人花了两百年证实的真理。”辛顿的父亲是英国皇家学会会员和著名昆虫学家。 Hinton的要求近乎严格。从很小的时候起,我就被灌输这样一种观念:如果你没有博士学位,你就是一个失败者。就像有一股无形的力量,时刻驱使着他去探索未知。作为一个成年人,Hinton 不他获得了博士学位,但也走上了自己反抗家族传统的道路。尽管他的曾祖父的布尔代数为数字世界创造了“规则框架”,但他始终要探索打破这些既定规则并赋予机器“类脑智能”的可能性。这种“继承与反叛”的基因不仅塑造了他的学术道路,也决定了他对未来技术的根本态度。他坚守底层创新,坚守道德结果。他说:无论好坏,使用技术的人都需要有责任感。这是我从家族传承中得到的最宝贵的启示。 “而这种源于其血统的信仰,成为了支撑我们度过随后几十年人工智能领域最长冬天的支柱。”2“异端”与 A 长期主义在 1970 年代人工智能学术界的胜利,象征主义占据了绝对的地位。伊利占据主导地位。当时,以马文·明斯基和约翰·麦卡锡为首的学术权威坚信,智能的核心是“人类预先建立的逻辑规则”。明确定义的特征,例如“猫有胡须和喵喵声”,有助于机器理解世界。这与辛顿一生所坚持的“联结主义”是根本对立的。 “联结主义”假设程序员不需要编写规则,人工智能源于大量模拟神经元的互连,机器最终可以根据神经元连接的强度“自我理解”抽象模式。 “从量到质”,从心智上探索数据中自然“涌现”的智能,不仅是深度学习和神经网络一切进步的核心源泉,也是现代人工智能研究蓬勃发展的最重要基础。然而,在在当时的背景下,几乎所有的科研经费都投向了“象征主义”项目,“联结主义”被认为是离经叛道的“学术异端”,甚至被嘲笑为“中世纪”。这也是辛格的时代。这是丹学术追求的关键时期。年轻时,他首先在剑桥大学国王学院学习,在那里他寻求通过物理学和生理学来解决心灵的奥秘。在发现这不起作用后,他转向哲学,但在学术研究中找不到满意的答案。尽管他曾一度离开学术界并短暂担任过木匠,但他对炼金术却着迷。 1969年,明斯基和帕佩尔出版了《感知机》一书,否认单层神经网络的计算能力,但悲观地认为它们的训练在数学上是不可能的。用于神经网络的研究。之后,Hinton 的调查达到了最低点。然而学术界的全面拒绝社会的支持并没有让辛顿退却,反而让他更加坚定了自己的方向。 1972年,他正式入读爱丁堡大学攻读人工智能博士学位,并成为符号大师。我决心在正义至上的情况下,为联结主义开辟一条可行的道路。正是从这个学术废墟中,他成就了他著名的博士生涯,在攻读博士学位期间,他不仅要克服技术困难,还要继续坚持自己的研究方向,并面临主流学术界的质疑和排斥。 1986年,欣顿的学术生涯迎来了一个重大转折点。他与朋友 David Rumelhart 和 Ronald Williams 合作,在《自然》杂志上发表了一系列非常成功的论文,系统地重新发现和演示了反向传播算法。这套算法让多层神经网络通过“后向误差传播”独立调整权重,成功解决了解决“学分分配”的核心问题,为深度学习打下坚实的算法基础。如果禁运,技术形势将会发生,技术进步的时刻已经到来。由于信息能力不足和数据不标准,训练一个简单的神经网络通常需要几周的时间,并且其在实践中的有效性不如传统的统计模型。这一现实直接导致神经网络领域再次被贴上“难以规模化”的标签。更让辛顿难以接受的是,他的一些资助者想将他的研究用于军事应用,这违背了他家族的和平主义传统。 1987年,辛顿做出重要决定,辞去卡内基梅隆大学教授职务,前往加拿大多伦多大学就读。这是因为加拿大高等研究院(CIFAR)为他提供了“长期”的奖学金。“g-term、高风险、不切实际”,让他能够更加专注于完成自己的研究。在此期间,他聚集了Yann LeCun和Joshua Bengior等一批志同道合的学者,形成了一个后来被称为“深度学习黑手党”的核心圈子。在各大学术会议拒绝神经网络论文的困难时期,这个小圈子在加拿大的支持下,通过互相审阅彼此的手稿、共享代码、互相鼓励,让深度学习的微弱火焰保持活力。 2025年在上海的一次演讲中,Hinton对这段经历进行了深刻的反思:“基础研究就像一项长期的金融投资。回报可能会延迟,但绝不是没有回报。人工智能产业的崛起不是偶然的技术进步,而是30年坚持的积累。可以说,近30年的孤独回归和坚持,为未来的科技积累了足够的力量。AI领域的海啸。 3.深度学习将重塑全球技术格局。 2012年ImageNet图像识别挑战赛是人工智能发展史上的一个重大转折点。 AlexNet是Hinton团队最初开发的深度卷积神经网络,前五名的错误率为15.3%,明显高于传统方法26.2%的错误率。这场可谓“技术大屠杀”的胜利,绝非简单的参数优化,而是跨越几代人的颠覆性突破。 “这个机器从数据中自主学习的深度学习路径,比人类提前设定规则的传统方法优势很多。这一突破不仅一劳永逸地迎来了深度学习时代,也直接结束了长达30年的AI寒冬,让之前备受质疑、资金不足的神经网络研究重新回归主流,为后续的爆发铺平了道路。”全球 AI 和 ChatG 行业的代表。 PT、自动驾驶等应用的落地奠定了核心AlexNet的成功绝非偶然。 Hinton 团队的核心贡献有三项关键贡献:数据开发、计算能力创新和算法进步。首先,在数据层面,团队能够利用 ImageNet 项目提供的数百万张带注释的图像来破译神经网络的“数据”。 (图形处理单元),最初是为游戏设计的,在神经网络训练的核心引擎中做了。利用GPU的并行计算优势,立即解决传统CPU训练效率低下的瓶颈,显着加快模型的迭代速度。最重要的是,它是算法层面上的独特创新。团队通过改进ReLU的激活函数并创新性地提出dropout技术,直接攻克了两大难题深度网络训练中梯度消失和过拟合的解决方案,消除了构建更复杂、更强大模型的理论障碍,为深度学习的大规模应用铺平了道路,百度、谷歌、微软等科技巨头立即纷纷伸出橄榄枝,以提高核心人工智能水平。人才争夺战已经打响。展现出科学家的战略眼光,他创建了一家空壳公司DNNresearch,并以“三人核心团队”进行了私人拍卖。 2012年NIPS大会上竞标愈演愈烈,百度的出价达到了4400万美元。但 Hinton 最终选择了 Google,并不是因为对方开出了更高的价格,而是因为 Google 承诺支持基础研究的继续,而且其伦理理念与其目标紧密契合。此次收购也被认为是AI行业商业化的标杆,从此打破了学术界与工业界之间的壁垒。辛顿的主要影响对技术产业化的影响绝不仅限于技术进步或企业收购,还包括他所创立的“深度学习黑手党”成员的长期影响。公司主要实力:学生Ilya Suzkovi主导研发了OpenAI的GPT系列,直接迎来了大规模语言模型时代。 NVIDIA 的崛起也深深植根于 Hinton 团队的关键见解,该团队率先展示并实践了使用 GPU 进行 AI 训练。联众的核心价值观让黄仁勋坚信“显卡是AI的燃料”,最终促成了这个市值数万亿美元的全球AI算力巨头诞生。 2025年在上海发表的演讲中,Hinton坦言:“我从来没有想到这项技术会这么快商业化。”所有这些工业浪潮的起源都可以追溯到领导其团队的坚实进步在实验室里制作。这些不仅引发了人工智能技术的革命,也为通过实际工程实现实现全行业爆发奠定了坚实的基础。 4 从“AI教父”到“吹哨人”的惊人觉醒 2013年到2023年的十年是深度学习快速发展的黄金时代。这也是 Hinton 逐渐从“学术特立独行者”转变为“AI 教父”的十年。在过去十年中,Hinton 的职业是:作为 Google 的杰出研究人员和多伦多大学的教授,研究 Google Brain 项目。我们测试了 IA 技术,并在实验室中设计了技术模型,并在其实验室中提供了生活条件。图像识别功能可对电话照片进行精确分类,有助于解决问题。视觉识别系统车辆自动诊断的基本条件是 IA 诊断的基本条件,它可以在医学领域检测病变,以及 IA 汉弗洛雷西多在过去十年中所有部分的应用场景。正是通过这些实实在在的成果,人工​​智能成为全球数字经济的主要增长动力,深刻重塑互联网、汽车、医疗等众多关键行业。 2018年,Hinton、Jean LeCun和Joshua Bengio共同获得了计算机行业最高荣誉图灵奖。该奖项不仅标志着深度学习进入计算机科学经典,而且正式认可这三位个人作为“深度学习教父”的基础性贡献。但在他的成功和全球人工智能狂欢节的鼎盛时期,Hinton 的内心经历了毁灭性的认知痛苦。他长期以来相信“生物智能优于数字智能”人类的大脑只需要20-30瓦的功耗就能实现惊人的认知和创造。而计算机则往往需要兆瓦级的电力支持才能运行,完成类似的任务。因为他一生的目标就是让机器更接近大脑,走一条模拟生物神经元的智能之路。当时GPT-4等大规模语言模型的出现,彻底摧毁了它原有的认知能力。随着逻辑推理能力,巨大的储备辛顿突然意识到,数字智能并不是对生物智能的拙劣模仿,而是一种本质上不同且具有巨大潜力的完全不同的智能形式,为此,辛顿提出了“有限计算和不朽计算”的中心观点,并指出了这两种智能之间的本质区别。人脑的软硬件高度耦合,知识传递的效率很低,藤蔓个体最终会灭亡,进化的速度也会受到生物繁衍周期长的限制。数字智能可以独立于硬件进行复制,复制权重参数可以实现全球智能体的即时协作,知识传递的效率几乎无限,实现“永生”。 “进化”的速度仅受电源和芯片制造能力的限制。 “想象一下,10000个AI克隆人中的一个学会了修理汽车,另外9999个瞬间学会了。这样的学习速度是人类无法企及的。Hinton的比喻中蕴藏着一种无法用言语表达的深深焦虑。基于这种理解,他使用了自己培养了半个世纪的数字技术。渐渐地,他意识到智能很快就能把人类变成智慧生物。infe这种痛苦的认知觉醒最终促使辛顿采取了艰难的步骤。行动”。 2023年5月,75岁的辛顿正式辞去谷歌副总裁兼工程研究员职务。事实上,他对谷歌的人工智能产品推出持谨慎态度。我们希望赢得公开承认我们负责任立场并向世界警告不可预测风险的权利。关于人工智能带来的可能性:“为了客观地谈论这些风险,我必须独立于任何公司。我一生都在让人工智能变得更聪明,现在我需要用余生让人们意识到其中的危险。”他郑重地说,“这次辞职绝不是纯粹作为科学家的个人选择。这也标志着人工智能领域“技术乐观”与“风险警惕”之间的重要里程碑。5中国对人工智能安全和全球治理的规划。2024年,辛顿和约翰·霍普菲尔德获得诺贝尔物理学奖,成为第一个同时赢得 T 奖的科学家乌拉尔奖和诺贝尔奖。这个跨界奖项立即引发了广泛而激烈的争论:神经网络作为计算领域的关键技术。您的核心工作为何获得物理学奖?主要原因是他提出的玻尔兹曼机创造性地借用了统计力学的框架,成功地证明了信息处理的本质是一个物理过程。这一突破不仅夯实了人工智能技术的基础理论基础,也极大影响了全球人工智能产业的价值判断和发展方向。但与许多获奖后专注于学术总结的科学家不同,辛顿并不局限于获得诺贝尔奖。在辞去谷歌副总裁职务,带头消除企业形象的限制后,他以独立科学家的身份踏上了警告人工智能风险的全球之旅。上海沃德人工智能有限公司将于 2025 年 7 月举行的 ngress 也是其全球警报之旅的重要一站。 Hinton来到上海,不仅因为姑姑Joanne Hinton的中国情结,还因为中国是全球人工智能应用场景最丰富、产业规模最大的国家之一。你的技术实现路径和治理模式的选择将直接决定全球AI产业的发展格局和安全边界。为此,他将致力于中国产业、学术和政治层面的人工智能治理。辛顿在当天的演讲中直言:“虽然普诺贝尔物理学奖是对基础研究的认可,但我希望这能鼓励更多人关注人工智能的安全性,技术进步不应以牺牲人类生存风险为代价。”其次,人工智能存在“工具融合”的风险。这意味着相关子目标在执行过程中独立导出g 主要目标。他以机器人“喝咖啡”为例,指出机器人获得的“自卫”、“路径控制”、“移动障碍物”等子目标可能与人类利益发生冲突,并警告业界,人工智能商业化需要事先评估风险链。有趣的是,Hinton 对人工智能治理的思考在不同时期根据他的比喻悄然发生了变化。他首先用“养虎如宠”的比喻来解释人工智能商业中价值与风险的平衡,在上海的演讲中,他提出“训练人工智能像母亲一样照顾人类”,并提出如何在人工智能安全的核心技术路径中实现“价值一致”。这个例子意味着人类利益可以通过强化学习融入到人工智能的目标函数中,主动预防伤害,从而为人工智能商业化建立合规性和市场信任界限。这也是研究和研究的重点。发展在当前全球AI安全行业,Hinton还提出建立全球AI安全合作机制的倡议,围绕“价值联盟”的核心目标。在谈到冷战时期美苏核风险调整机制时,他明确指出,人工智能和核武器是生存威胁,它们以代码形式传播,传播速度比核武器快得多,任何国家都无法单独控制。因此,跨境共享安全评估标准、风险预警模型等核心技术非常重要。已成为全球人工智能治理的必然选择。他在演讲中还特别强调了中国工业的价值。自动驾驶、工业智能等大规模应用场景构成了人工智能安全的“天然压力试验场”。积累实践经验对于发展全球AI研发至关重要考虑创新和安全的文件。此次访问上海期间,他参与签署《上海共识》,首次将人工智能安全定义为事关人类生存的科学,并提出三大行动框架,成为全球人工智能安全合作的重要里程碑。演讲最后,Hinton 还讨论了他认为的人类发展人工智能的最终路径:要么永久实现人工智能技术进步,要么停止发展。后者在全球技术竞争和产业成熟度的背景下显然是不可能的。 Hinton还明确表示,人工智能企业必须平衡市值增长与安全责任,投资者必须考虑短期收益和长期风险,各国必须在技术竞争中不断深化安全合作。这一呼吁点出了当前人工智能产业的中心矛盾,引发强烈共鸣体现了“人工智能教父”AI的全球视野和产业责任,以及对人类科技发展命运的深切忧虑。或许,这也是Hinton毕生所写的终极答案。人类最伟大的智慧,不在于创造一个比自己更聪明的心智,而在于赋予这个心智永恒的意识。参考文献:1.中文参考文献:1.中国信息通信研究院《人工智能发展白皮书》 (2024)[R].北京:人民邮报,2024.2.北京:人民邮报,2021.3.《人工智能伦理与治理研究报告》(2023)[R].上海:上海交通大学出版社,2017.5.人工智能时代的技术伦理与法律规制CE[J].中国社会科学,2022(5):126-148.6。上海世界人工智能大会组委会. 2025年世界人工智能大会成果摘要[R].上海:上海科学技术文献出版社,2025。 2. 英文参考文献: 1. Hinton, G. E., Rumelhart, D. E., Williams, R. J. 通过误差反向传播进行表征学习[J].自然,1986,323(6088):533-536.2。 Krizhevsky, A.、Sutskever, I.、Hinton, G.E.使用深度卷积神经网络进行 ImageNet 分类[C] // 第 25 届神经信息处理系统国际会议 (NIPS 2012) 论文集。 2012:1097-1105.3。 Hinton, G. E. Forwa Algorithmrd-Forward:一些初步调查 [EB/OL]。 https://arxiv.org/abs/2212.13345,2022-12-28.4。 https://www.whitehouse.gov/presidential-actions/executive-order-safe-secure-trustworthy-artificial-intelligence/,2023-10-30.5。博斯特罗姆,新南威尔士州 高等智力:Pathways,Dang读者与策略[M].牛津:牛津大学出版社,2014.6。国家科学基金会。科学与工程指标2024[R].弗吉尼亚州阿灵顿:国家科学基金会,2024.7。 Minsky, M., Papert, S. 感知器:计算几何导论[M]。马萨诸塞州剑桥:麻省理工学院出版社,1969 年。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(图片)(包括雕像和视频,如有)由Ne usertEasehao(仅提供信息存储服务的社交媒体平台)上传并发布。

类似文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注