Anthropic拒AI军事用途遭列国安风险 法官质疑政府违宪
(法新社旧金山24日电) 联邦法官今天质疑政府报复人工智慧(AI)公司Anthropic的行动。Anthropic因军事应用争议被列为国家安全风险,随后提起诉讼。
Anthropic本月在旧金山提起诉讼,寻求推翻这项认定。该类认定通常仅针对不友善的外国组织,且可能严重影响其热门AI模型Claude的发展。
Anthropic拒绝让五角大厦将Claude用于执行自动化致命战争及对美国人进行大规模监控,但政府拒绝了 Anthropic提出的安全保障建议。
Claude是国防部目前部署最广泛的前沿人工智慧模型,也是唯一在其机密系统中运作的同类模型。
法官瑞塔.林(Rita Lin, 译音)表示,她将在「几天内」做出裁决。
她指出,政府这些反应「令人担忧」,因为这些反应「似乎不是真正针对所声称的国安问题」。
她表示,如果军方不满与Anthropic的合约,「政府大可直接停用Claude」。
她补充道:「看来被告的做法不仅于此,他们试图因Anthropic在媒体上批评政府发包立场而加以惩罚,这种行为毫无疑问地违反了宪法第一修正案。」
她还对美国政府律师在听证会上的说法表示质疑;该律师声称Anthropic的伦理顾虑可能增加其干预军事行动的风险。
林法官说:「我只是在想,为什么有人对运作方式提出质疑,就会被怀疑可能会植入后门。」