La JERS propone regular la IA como el Tratado de No Proliferación de Armas Nucleares
Fráncfort (Alemania), 4 dic (EFE).- La Junta Europea de Riesgo Sistémico (JERS) advierte de que el rápido desarrollo de la inteligencia artificial puede crear inestabilidad financiera y considera ideal un acuerdo global para evitar su uso malicioso, algo similar al Tratado de No Proliferación de Armas Nucleares.
La JERS reconoce en un informe, publicado este jueves, los beneficios que ofrece la IA, como acelerar los progresos científicos, mejorar el crecimiento económico, tomar decisiones y gestionar riesgo mejor y mejorar la asistencia sanitaria.
Pero también advierte de los riesgos para el sistema financiero y la sociedad.
Riesgos dadas las tensiones geopolíticas
«En el entorno geopolítico actual, hay mucho en juego. No mantenerse al día con el uso de la IA en las finanzas haría que las autoridades financieras perdieran de vista el sistema, aumentando la frecuencia de episodios de inestabilidad financiera, que, muy posiblemente, requerirán intervenciones más frecuentes de las autoridades o del sector público», que no son gratis, dice el informe.
Por ello, la JERS considera necesarias políticas que aseguren que la IA se usa de manera segura o, incluso, un acuerdo global para evitar usos maliciosos, algo similar al Tratado de No Proliferación de Armas Nucleares, en vigor desde marzo de 1970.
Este Tratado solo permite a cinco estados la posesión de armas nucleares: EEUU, Reino Unido, Francia, Rusia y China.
No obstante, la JERS ve realista una regulación de competencia y protección del consumidor y ajustes en la regulación financiera que ya existe, así como supervisión.
Por ejemplo, modificar las exigencias de capital y liquidez, exigir transparencia y cooperación global.
«Inversiones empresariales importantes han hecho muy accesibles capacidades de inteligencia artificial avanzadas como modelos de lenguaje grande como ChatGPT, Claude y Gemini», añade el informe.
Algunos tienen 800 millones de usuarios activos semanales, según cifras del informe de la JERS, organismo creado en 2010 tras la crisis financiera global para supervisar el sistema financiero de la Unión Europea (UE) y prevenir los riesgos para la estabilidad.
Una de las capacidades de la IA es procesar cantidades inmensas de datos no estructurados e interactuar con los usuarios de forma que complementa y sustituye tareas humanas, lo que puede revolucionar cómo se organiza el trabajo.
Dependencia excesiva de la IA y uso malicioso
Sin embargo, la JERS ve riesgos como la dificultad de detectar errores de IA, una dependencia excesiva y problemas en la supervisión.
Los riesgos para el sistema financiero son en general desajustes de liquidez, concentrar exposiciones, interconexión, la falta de sustitución y apalancamiento (endeudarse para invertir) y la IA puede «exacerbar estos riesgos».
Por ejemplo, se usan ampliamente modelos de IA similares que pueden conducir a exposiciones correlacionadas y amplificar las reacciones del mercado.
La concentración de la IA en un número pequeño de proveedores puede conducir a puntos únicos de fallo e interconexión.
Además, la gente puede confiar demasiado en la IA y su rapidez puede hacer más difícil parar procesos negativos.
También se puede utilizar de forma maliciosa, por ejemplo en fraudes, ciberataques y manipulación del mercado. EFE
aia/rf