世界论坛网 > 时事新闻 > 正文  
人类正走进高度不确定未来 AI教父最深层恐惧
www.wforum.com | 2025-12-27 16:48:04  ETtoday | 0条评论 | 查看/发表评论

被誉为“人工智能教父”的辛顿(Geoffrey Hinton),今年稍早接受美国新闻节目 60 Minutes 专访,深入谈论人工智能(AI)的发展原理、潜在风险与他个人的反思。 尽管这场访谈距今已约四个月,但在生成式 AI 能力持续跃进的背景下,相关观点近期再度被频繁引用,也让当时的警告显得更具现实意义。

长期孤军研究,奠定深度学习基础

辛顿在节目中回顾自己自1970年代投入人工神经网络研究的历程。 当年主流学界多半不看好以神经网络模拟人脑运作的方向,但他仍选择长期投入,最终奠定现代深度学习的技术基础。 这项贡献也让他在2019年与其他两位学者共同获得图灵奖,被视为AI发展史上的关键人物。

不是写规则,而是设计学习方式

谈到 AI 的学习方式,辛顿强调,人类并非为机器逐条撰写行为规则,而是设计“学习演算法”,再透过回馈与试错机制,让系统自行调整内部链接。 他形容,这更像是在制定演化的规则,而非编写一份完整的作说明书。 随着模型与大量数据互动,最终形成的神经网络结构高度复杂,甚至连设计者本身,也难以完全理解其内部运作。

AI 是否真的“理解”世界?

对于 AI 是否具备理解与推理能力,辛顿在访谈中表态相当明确。 他认为,近年大型语言模型在多步推理与规划任务上的表现,已超越单纯的文字接龙。 他也以GPT-4解决复杂逻辑问题的案例为例,指出这类系统已展现出某种程度的理解与决策能力。

最大忧虑:AI可能脱离人类控制

不过,辛顿同时也对 AI 的长期风险表达深切忧虑。 他指出,未来若 AI 能自行撰写并修改程式码,甚至优化自身结构,将可能逐步摆脱人类原本设定的控制框架。 此外,AI若全面吸收人类历史中的政治、心理与权术知识,可能在说服与纵人类行为上展现极高效率,进而影响民主制度与社会秩序。

在社会层面,辛顿也点出多项潜在冲击,包括就业结构剧烈变动、假信息扩散、算法偏见,以及自主武器系统进入战场的风险。 他警告,当 AI 在智慧与决策能力上全面超越人类时,带来的将不只是产业调整问题,而是攸关整体人类社会存续的挑战。

没有保证安全的答案

对于未来该如何因应,辛顿坦言,目前看不到一条能保证绝对安全的明确道路。 他呼吁各国政府应更积极介入监管,特别是在军事应用领域,应透过国际条约限制自主武器的发展,并投入更多研究理解AI的行为与风险。

尽管这场专访播出已有数月,但随着 AI 技术持续加速演进,辛顿当时提出的多项警告并未随时间淡化,反而在现实发展中不断被重新检视,也让这场访谈至今仍具高度讨论与参考价值。

▲▼辛顿警告AI或将超越人类理解。 (图/YT@60minutes)

(0)
当前新闻共有0条评论 分享到:
评论前需要先 登录 或者 注册
全部评论
暂无评论
查看更多
实用资讯
24小时新闻排行榜
中方已经尽力,洪森两大算计全都落空
中国五代军用发动机,终于圆满了
兵推曝光:美国或对京沪核打击
美公开官方报告:中印必有一战
柬埔寨10万军队3000将军 每位将军只管一个
48小时新闻排行榜
中方已经尽力,洪森两大算计全都落空
中国五代军用发动机,终于圆满了
兵推曝光:美国或对京沪核打击
美公开官方报告:中印必有一战
柬埔寨10万军队3000将军 每位将军只管一个
一个针对中国的联盟成立 印度没接到邀请
“集装箱”惊雷:中国货船带60个导弹坑出海
美国扣押香港油轮 中国敢拦截对台军售吗?
歼-36第三架原型机飞行测试,歼-10伴飞
幸亏中国没掺和
热门专题
1中美对抗2以哈战争3乌克兰战争
4美国大选5李克强猝逝6新冠疫情
7香港局势8委内瑞拉9华为
10黑心疫苗11“低端人群”12美国税改
13红黄蓝幼儿园14中共19大15郭文贵
广告服务 | 联系我们 | 关于我们 | 网站导航 | 隐私保护
Jobs. Contact us. Privacy Policy. Copyright (C) 1998-2025. Wforum.COM. All Rights Reserved.