Perspectivas suizas en 10 idiomas

La IA está fuera de control (democrático)

Lê Nguyên Hoang

Necesitamos desesperadamente mayor atención y más personal y financiación para establecer sistemas de gobernanza en el sector de la inteligencia artificial (IA) similares a los introducidos en las industrias aeronáutica, farmacéutica y alimentaria, afirma el científico y divulgador científico Lê Nguyên Hoang.

El 29 de marzo se publicó una carta abiertaEnlace externo en la que se pedía “hacer una pausa en los gigantescos experimentos de IA” y que hasta ahora ha sido firmada por más de 20 000 académicos y líderes tecnológicos. No obstante, este llamamiento llega con retraso.

Mostrar más
Opinión

Mostrar más

Ni los gobiernos ni las empresas quieren parar la carrera por la IA

Este contenido fue publicado en Los investigadores de inteligencia artificial (IA) piden que se haga una pausa en los “gigantescos experimentos de IA”, pero probablemente eso no va a ocurrir, asegura el investigador de IA Jürgen Schmidhuber

leer más Ni los gobiernos ni las empresas quieren parar la carrera por la IA

En la última década se han desarrollado e implementado apresuradamente algoritmos impresionantes a gran escala, como ChatGPT y Midjourney. Se han comercializado ampliamente otras IA similares para la detección de fraudes, el filtrado de CV, la videovigilancia y el servicio de atención al cliente (a menudo a pesar de sus conocidos insuficienciasEnlace externo y sesgosEnlace externo). Pero podría decirse que su principal aplicación es, sin duda, el marketing. Muchos de los principales gigantes tecnológicos de la actualidad, como Google, TikTok y Meta, se benefician principalmente de la segmentación publicitaria, mientras que el primer cliente público de ChatGPT no fue otro que Coca-Cola. Esto ya debería ser una señal de alarma.

Lê Nguyên Hoang es cofundador y CEO de la start-up de ciberseguridad Calicarpa, así como cofundador y presidente de la asociación sin ánimo de lucro Tournesol.  El canal de YouTube de Hoang “Science4AllEnlace externo” ha superado los 18 millones de visitas desde su lanzamiento en 2016.

Además, se ha demostrado que los algoritmos difunden información errónea, recomiendan pseudomedicinas, ponen en peligro la salud mentalEnlace externo y han sido también utilizados para coordinar mercados ilegales (incluso de esclavos)Enlace externo. También han alimentado el odio, han ayudado a desestabilizar democracias e incluso han contribuido a genocidiosEnlace externo, como afirman las Naciones Unidas y Amnistía Internacional. Los algoritmos pueden amenazar la seguridad nacional.

Sin embargo, su desarrollo es sumamente opaco. Casi ninguna entidad externa puede asomarse a los algoritmos de Google, Meta u OpenAI. Incluso se han eliminado fuerzas internas de oposición: Google despidió a su equipo de ética, Meta desmanteló su equipo de innovación responsable y Microsoft despidió a un equipo de ética después de que éste diera la voz de alarma sobre un despliegue precipitado, poco ético e inseguro. Poderosas empresas con ánimo de lucro han logrado crear un estado mundial en el que sus algoritmos pueden diseñarse sin apenas rendir cuentas.

Urge una gobernanza eficaz de la IA

La industria del software dista mucho de ser la primera industria fuera de control. Durante décadas, las industrias aeronáutica, automovilística, farmacéutica, alimentaria, tabaquera, de la construcción y energética, entre muchas otras, comercializaron productos sin ningún control. Eso costó millones de vidas. La sociedad acabó oponiéndose a la alarmante falta de responsabilidad. En todas las democracias, leyes estrictas y poderosas agencias reguladoras bien financiadas imponen ahora un control democrático sobre estos mercados. La industria del software necesita una supervisión similar.

Necesitamos urgentemente favorecer tecnologías seguras y éticas, en lugar de exigir que nuestros países lideren la carrera de las IAs más llamativas. Concretamente, la admirable calidad de los algoritmos que dirigen nuestras redes inteligentes, coches, aviones, centrales eléctricas, bancos, centros de datos, redes sociales y teléfonos inteligentes debería importar mucho menos que su ciberseguridad. Como mi colega y yo advertimos en un libro Enlace externopublicado enEnlace externo 2019Enlace externo, si estos algoritmos son frágiles, vulnerables, están desprotegidos o se subcontratan a un proveedor poco fiable, o si abusan de los derechos humanos –como suele ocurrirEnlace externo-, entonces todos estaremos en grave peligro.

Sin embargo, la industria del software y el mundo académico, así como los incentivos legales y económicos actuales, obstaculizan en gran medida la mentalidad de seguridad. Con demasiada frecuencia, los investigadores más citados, más célebres y más financiados, los puestos de software mejor pagados y las empresas con más éxito son los que descuidan la ciberseguridad y la ética. Según un número creciente de expertos, esto debe cambiar. Es urgente.

Nuestras democracias probablemente no puedan permitirse las décadas que fueron necesarias para establecer leyes y organismos de inspección en otras industrias. Dado el ritmo al que se desarrollan e implementan los algoritmos más sofisticados, disponemos de muy poco tiempo para actuar. La carta abierta firmada por mí y otros investigadores de IA pretende ampliar ligeramente esta ventana.

Mostrar más

Lo que usted, sus organizaciones y nuestras instituciones pueden hacer

Establecer un control democrático sobre los algoritmos más críticos de la actualidad es una empresa urgente, enorme y fabulosa, que no se logrará a su debido tiempo si no es con la participación de un gran número de individuos con diversos talentos, conocimientos y responsabilidades.

Un primer reto es la atención. Todos debemos invertir urgentemente mucho más tiempo, energía y financiación para asegurarnos de que nuestros colegas, organizaciones e instituciones presten mucha más atención a la ciberseguridad. No se debe seguir invitando y celebrando a los empleados de las grandes tecnológicas, especialmente en las universidades y los medios de comunicación, sin cuestionar la seguridad y la ética de los productos que las financian. Más en general, en todos los debates sobre tecnología hay que preguntarse “¿qué puede salir mal?”.

Un segundo reto es institucional. Aunque se necesitan nuevas leyes, es probable que los algoritmos a gran escala de hoy en día ya violen las leyes existentes, como beneficiarse de las estafas basadas en la publicidadEnlace externo. Sin embargo, la actual falta total de supervisión externa impide que se haga justicia. Debemos exigir a los responsables políticos que creen agencias reguladoras bien financiadas para hacer cumplir la ley en Internet.

Suiza ha desempeñado a menudo un papel ejemplar en el establecimiento de normas democráticas. Esta es una oportunidad para continuar esta noble tradición. Además, el arco Lemánico (la zona que rodea el lago Lemán) se ha propuesto recientemente para convertirse en un Trust ValleyEnlace externo en el ámbito de la confianza digital y la ciberseguridad. La capacitación de las organizaciones de inspección y ciberseguridad será sin duda clave para que se las considere como tales en todo el mundo.

Un tercer reto consiste en diseñar alternativas seguras, reguladas democráticamente, a los algoritmos actuales más impactantes. A esto he dedicado la mayor parte de los últimos cinco años, cuando mis colegas y yo creamos el proyecto sin ánimo de lucro TournesolEnlace externo. En esencia, el algoritmo de Tournesol es el resultado de una votación segura y justa sobre su comportamiento preferido por parte de la comunidad de colaboradores de Tournesol, a la que cualquiera puede unirse.

Cuanto antes demos todos prioridad a la seguridad de nuestros ecosistemas de información, antes tendremos la oportunidad de proteger a nuestras sociedades de las actuales vulnerabilidades masivas en materia de ciberseguridad.

Por Lê Nguyên Hoang

Texto adaptado del inglés por José M. Wolff

Las opiniones expresadas en este artículo son exclusivamente las del autor, y no reflejan necesariamente las de SWI swissinfo.ch.



En cumplimiento de los estándares JTI

Mostrar más: SWI swissinfo.ch, certificado por la JTI

Puede encontrar todos nuestros debates aquí y participar en las discusiones.

Si quiere iniciar una conversación sobre un tema planteado en este artículo o quiere informar de errores factuales, envíenos un correo electrónico a spanish@swissinfo.ch.

SWI swissinfo.ch - unidad empresarial de la sociedad suiza de radio y televisión SRG SSR

SWI swissinfo.ch - unidad empresarial de la sociedad suiza de radio y televisión SRG SSR