The Swiss voice in the world since 1935

Anthropic denuncia «ataques de destilación» de IA chinas para plagiar su modelo Claude

Nueva York, 24 feb (EFE).- La compañía de inteligencia artificial Anthropic ha denunciado una «campaña de ataques de destilación» (entrenar modelos de IA menos potentes a partir de otros más fuertes) desde DeepSeek, Moonshot AI y MiniMax, tres laboratorios de IA de China a los que acusa de técnicas fraudulentas para plagiar a su modelo Claude.

«Hemos identificado campañas a escala industrial por parte de DeepSeek, Moonshot AI y MiniMax para extraer ilícitamente las capacidades de Claude para mejorar sus propios modelos», ha denunciado Anthropic en las últimas horas en un comunicado.

Según Anthropic, estos tres laboratorios de inteligencia artificial (IA) con sede en China mantuvieron más de 16 millones de interacciones con Claude a través de aproximadamente 24.000 cuentas fraudulentas, en violación de sus términos de servicio y de las restricciones de acceso regionales.

La compañía con sede en San Francisco describe estas técnicas como «ataques de destilación», que consisten en entrenar un modelo menos capaz basándose en los resultados de uno más fuerte.

La destilación es un método de entrenamiento legítimo y ampliamente utilizado en el sector de la IA, pero también puede usarse con fines ilícitos por parte de competidores que la usan para adquirir capacidades poderosas de otros laboratorios en mucho menos tiempo y menor precio de lo que les llevaría desarrollarlas de forma independiente.

Anthropic denuncia que este ha sido un caso de destilación «ilícita» porque usó «cuentas fraudulentas y servicios de proxy», ocultando la ubicación para acceder a Claude a gran escala sin ser detectados.

«El volumen, la estructura y el enfoque de los ‘prompts’ eran distintos de los patrones de uso normales, lo que refleja una extracción de capacidades deliberada en lugar de un uso legítimo», argumenta la compañía.

El informe también apunta que la destilación ilícita por parte de DeepSeek, homónimo de OpenAI en China, se fundamentó en extraer el razonamiento interno de Claude para crear «alternativas seguras a la censura para consultas políticamente sensibles».

Anthropic advierte de que los modelos destilados ilícitamente «carecen de las salvaguardas necesarias» para impedir «posibles desarrollos de armas biológicas o actividades cibernéticas maliciosas», lo que supone un «riesgo significativo para la seguridad nacional». EFE

jta/jco/icn

Los preferidos del público

Los más discutidos

SWI swissinfo.ch - Sociedad Suiza de Radio y Televisión SRG SSR

SWI swissinfo.ch - Sociedad Suiza de Radio y Televisión SRG SSR