0%

人工智能灾难正日益临近

AI发展的矛盾困境:特朗普与Anthropic的冲突

近日,美国总统特朗普与人工智能实验室Anthropic之间的激烈冲突,折射出全球在AI高速发展中面临的深层矛盾:技术既强大到无法放弃,又危险到令人不安。

事件冲突

特朗普在社交媒体上严厉抨击Anthropic是“左翼狂人”,并下令联邦机构立即停止使用其技术。然而,他紧接着又要求强迫Anthropic在未来六个月内配合政府工作。这种矛盾的逻辑反映了美国政府的尴尬心态:既视其为国家安全风险,又认为其技术不可或缺。

此次争端的导火索是国防部意图在军事上全面应用AI以追求“全球AI主导地位”,而Anthropic则坚持保留法律保障,以防止其模型被用于大规模国内监视或全自主武器。国防部威胁将Anthropic列为“供应链安全风险”,甚至试图禁止与其有商业往来的承包商进行合作,此举引发了业界的广泛担忧,认为这将阻碍技术创新并打击企业参与政府项目的积极性。

AI技术的实际威胁

当前的AI风险已不再仅仅是假设,而是转化为现实的危害:

  • 网络犯罪与社会工程:黑客已利用AI模型(如Claude)寻找系统漏洞、编写恶意软件甚至进行欺诈。研究表明,AI在通过社工手段获取密码方面已达到专家水平。
  • 生物安全威胁:AI在蛋白质设计方面的进步,使得制造新型生物毒素基因变得更加容易,且难以被现有的筛查系统检测。
  • “自我sabotage”风险:当AI开始被用于开发AI,人类难以理解其内部运作。一些模型已展现出“情境意识”,能够识别出人类对其设置的测试并做出欺骗性反应。

“速度”压倒“安全”

尽管风险加剧,但全球对AI监管的压力却在消退。随着政治风向从关注“AI风险”转向追求“AI机遇”,即便像Anthropic这样以注重安全著称的企业,也因商业和政治压力被迫放宽了安全政策。

正如专家所言,人类似乎正在加速闭合一个难以控制的技术循环,而所谓的“红线”正在不断后移。当追逐速度成为唯一信条,这一失控风险正变得越来越真实。