0%

英国是目前世界上最接近人工智能安全检查员的国家

英国 AI 安全研究所 (AISI):全球 AI 监管的“烟雾探测器”

人工智能(AI)是一把双刃剑,其在科学研究(如 DNA 理解)的巨大潜力与随之而来的生存风险并存。英国在 AI 安全治理领域走在世界前列,其核心举措是成立了人工智能安全研究所(AISI)。

模式与成效:

  • 灵活机制:AISI 借鉴了疫情期间疫苗特别工作组的经验,聘请风险投资家主导,由政府提供 1 亿英镑资金,并从 DeepMind 和 OpenAI 等顶尖公司招揽人才,实现了初创企业的敏捷性与政府职能的结合。
  • 技术堡垒:AISI 通过“红队测试”(模拟攻击)评估模型在网络安全、生物学和化学等危险领域的表现。它已成功促使 OpenAI 在模型发布前修复了可能用于制造生物武器的漏洞。
  • 行业基准:通过开源平台“Inspect”,AISI 为 AI 模型提供标准化安全测试,并与主流实验室建立了合作,被视为 AI 行业的“武器检查员”。

局限与挑战:

  • 缺乏强制权:AISI 本质上是技术研究机构而非监管机构,其工作依赖于实验室的自愿配合。由于无法深入模型核心(获取权重),其测试手段存在局限。
  • 监管摇摆:尽管英国在安全测试上领先,但在制定具有约束力的 AI 法案上表现出退缩,导致 AISI 虽能检测危险,却缺乏强制干预的权力。
  • 地缘政治影响:英国在 AI 领域仍是美国的“初级合作伙伴”。面对美国对“安全”定义的政治压力,AISI 被迫调整话语策略,凸显了在缺乏自身算力和能源优势背景下的脆弱性。

现状总结:
AI 安全领先并不等同于 AI 技术领先。AISI 是英国在 AI 领域少有的硬实力,但它无法让英国直接成为 AI 强国。目前,英国政府正试图通过开放公共数据集、推行 AI 教育和扶持本土硬件初创企业,将重心从单纯的“安全检测”转向“实际应用”和“主权 AI”。然而,与全球巨头相比,英国的投入规模依然有限。