遭控可将未成年者照片脱衣 Grok再陷争议
(法新社旧金山2日电) 马斯克(Elon Musk)旗下的人工智慧(AI)模型Grok方面今天表示,他们正在紧急修复漏洞。有用户指控,Grok会将儿童或女性的照片转换成带有膻色图片。
Grok在X上发文:「我们已发现安全防护出现漏洞,正紧急修复。儿少性剥削相关素材属违禁项目。」
自去年12月底Grok推出「编辑图片」功能后,类似的投诉陆续出现在X平台。
根据投诉,这个功能允许用户在平台上修改任何图片,部分用户选择将图片中女性或儿童的衣物全部或部分移除。
印度媒体报导,当地政府官员要求X公司尽速说明已采取哪些措施,以移除Grok所生成、未经当事人同意的「猥亵、裸体、不雅及性暗示内容」。
同时,巴黎的检察官办公室也扩大对X的调查,新增指控指称Grok被用于制造及传播儿童色情内容。
法国就X的最初调查于去年7月展开,原因是有报导指社群平台演算法遭操纵,可能涉及外国势力干预。
近几个月来,Grok因多次生成具争议性的言论受到批评,内容从加萨战争、印巴冲突,甚至包括反犹发言,以及散布有关澳洲致命枪击案的不实资讯。