近日,在与《Next Question》主持人凯蒂·科里克的对话中,「AI教父」杰弗里·辛顿再次就人工智能发展发出警示:自主杀手机器人与无人机的普及正在降低战争门槛。「当致命性自主武器取代人类士兵时,并非减少人员伤亡是好事——恰恰相反」,辛顿指出这种技术变革将使发动战争的政治成本与军事代价大幅降低。「富国入侵穷国将变得更容易实现」——因为传统战争中「士兵阵亡引发民众反对」的政治制约机制将被打破。「军火商对此欣喜若狂」——辛顿补充道:「这些昂贵的机器人更换成本反而能持续创造利润」 这位人工智能先驱回顾了2023年主动辞去谷歌首席AI科学家职务后的角色转变。「我必须直言不讳地提醒人类:我们正在开发可能毁灭自身的工具」——在近期访谈中他向科里克强调。「比起短期滥用风险」——辛顿着重阐述了更深层忧虑:「当人工智能超越人类智力阈值时可能出现的系统接管危机」。
他指出当前技术路径存在根本缺陷:「让超级智能选择『不想统治人类』的技术方案与提升智能的技术方向截然不同」 在谈到就业冲击时辛顿分析:呼叫中心、初级律师、程序员等岗位将在短期内面临冲击。「但十年后连水管工也可能不安全」——尽管当前这类依赖精细操作的职业仍具优势。
更令人意外的是医疗领域:「患者反馈显示AI诊疗更具同理心」——这使得护理类职业也面临挑战。「全民基本收入虽能解决温饱问题」——但辛顿认为这无法弥补工作丧失带来的价值感缺失。
当被问及如何劝说埃隆·马斯克与OpenAI创始人山姆·阿尔特曼时——辛顿直言不讳:「你们清楚自己正在开发可能灭绝人类的技术!」他剖析两位科技领袖的行为矛盾:「阿尔特曼沉迷于突破智能边界而忽视安全约束;
马斯克虽起诉前搭档却同样缺乏对安全机制的重视——贪婪与自负正阻碍着必要防护措施的落实」 值得注意的是辛顿近期态度出现微妙转变:通过构建「人工智能母亲」概念模型看到了共存新可能。「就像母亲本能驱动般设计AI系统」——他解释道:「我们需要让人工智能像母亲保护婴儿那样对待人类文明,在其核心架构中植入守护者本能而非征服欲望」 这位诺贝尔奖得主最后呼吁行业反思:包括DeepMind在蛋白质折叠领域的突破虽具革命性意义——但技术发展必须始终以安全为前提。「当我们谈论从眼底图像预测心脏病风险等医疗突破时」——辛顿提醒道:「不能忘记这些技术同样可能被用于制造更精准的自主武器系统」
评论列表 (0条):
加载更多评论 Loading...