Un estudio sobre noticias falsas pone a prueba los límites éticos de la investigación

Un polémico estudio sobre noticias falsas ha puesto de relieve la responsabilidad y los retos éticos de realizar estudios sobre la sociedad. El estudio en la plataforma de redes sociales Reddit lo ha realizado un equipo de investigación con sede en Suiza.
El equipo de investigación, vinculado a la Universidad de Zúrich, ha puesto a prueba —de forma encubierta— la capacidad de la inteligencia artificial (IA) para manipular a la opinión pública con información falsa. Este estudio se ha llevado a cabo en un grupo de subreddit.
Durante varios meses, este equipo observó el comportamiento social más allá de los límites éticos. Utilizaron modelos de lenguaje masivos —Large Language Models (LLM)— para inventar opiniones sobre diversos temas: desde la tenencia de perros peligrosos hasta el aumento del coste de la vivienda, pasando por Oriente Próximo y las iniciativas en favor de la diversidad.
Los robots de inteligencia artificial se ocultaron tras seudónimos ficticios mientras en la comunidad subreddit r/changemyview vertían cuestiones de debate. Las personas participantes en el grupo argumentaban a favor o en contra de las opiniones generadas por la IA, sin saber que estaban siendo parte de un proyecto de investigación. Solo lo supieron al final, cuando el grupo invetigación lo confesó cuando terminó el estudio.
La revelación provocó una tormenta de críticas en Reddit, la comunidad investigadora y los medios de comunicación internacionales.
Quienes realizaron la investigación —que no van a revelar su identidad por temor a represalias— al principio defendieron sus acciones, porque la «gran importancia social de este tema» hacía «crucial realizar un estudio de este tipo, aunque significara desobedecer las normas» del canal, que incluían la prohibición de los bots de IA.
Más tarde emitieron una «disculpa completa y profundamente sentida», ya que «las reacciones de decepción y frustración de la comunidad nos han hecho lamentar las molestias que el estudio haya podido causar ».
«La mala ciencia es mala ética»
«Aquí la cuestión no solo es llevar a cabo una investigación que implique engaño. Se trata de romper, voluntariamente, las reglas de una comunidad de seres humanos que construyen la confianza en su red basándose en esas reglas», dijo el profesor Dominique Sprumont, presidente de la Comisión Cantonal de Ética de la Investigación de Vaud (Suiza).
«La calidad científica del proyecto, además, es más que dudosa. La mala ciencia es mala ética».
El equipo suizo se topó con un problema que para mucha gente que se dedica a la investigación es familiar: cuánta información hay que ocultar a quienes participan para que el estudio sea viable.
A este mismo dilema se han enfrentado previamente otros equipos que han investigado sobre noticias falsas. Así lo corroboran Gillian Murphy y Ciara M Greene, del University College de Cork y el University College de Dublín (Irlanda), que han realizado su propia investigación sobre la información falsa y han examinado los resultados de otros estudios.
Quienes investigan a veces —desde el principio— ocultan el propósito exacto del estudio y solo informan a quienes participan en el mismo cuando el estudio ha finalizado, escribieron en un artículo en la revista sciencedirect, publicado en 2023. Indican al principio, por ejemplo, que el estudio es sobre el consumo de noticias (en general) y no, sobre las noticias falsas.
Límites del engaño
«En algunas investigaciones sobre información falsa, sin utilizar este tipo de engaño, sería imposible estudiar cómo responden espontáneamente a la información falsa quienes participan, ya que, cuando saben que la información que se les va a mostrar puede ser engañosa, las sospechas, motivaciones y comportamientos de quienes participan puede cambiar», escriben Gillian Murphy y Ciara M Greene, para quienes el engaño tiene sus límites.
Así, dicen que quienes investigan tienen el deber moral de respetar los derechos humanos y la intimidad de quienes participan en las pruebas, informarles desde el principio de que participan en una investigación, obtener su consentimiento explícito para utilizar sus datos y tomar medidas para evitar causar daños a las personas.
En este vídeo explicamos algunas de las formas en que quien investiga puede abordar este tipo de investigación éticamente.
En 2014, miembros de la academia, de la abogacía y de la clase política criticaron a Facebook por manipular de forma encubierta miles de noticias para comprobar cómo las publicaciones negativas o positivas de sus amistades influían en el estado de ánimo de las personas usuarias.
Facebook afirmó que el experimento era importante para comprobar el impacto emocional que en quienes utilizan la plataforma tiene su servicio de noticias. Más adelante, sin embargo, admitió que realizó el estudio de forma incorrecta.
Responsabilidad poco clara
Las críticas por no informar a la gente de antemano de que estaban participando en un proyecto de investigación también han llegado al estudio suizo sobre noticias falsas en Reddit.
Ha generado confusión, asimismo, quién es el responsable del mismo. El proyecto lo concibió un investigador empleado en la Universidad de Zúrich, que en abril del año pasado lo presentó a su Comité de Ética de la Facultad de Artes y Ciencias Sociales como una de las cuatro pruebas, y la única de las cuatro en la que participaban bots de inteligencia artificial.
En aquel momento, el organismo de ética ya tachó el estudio de Reddit de «excepcionalmente difícil», según la universidad. Recomendó que quienes iban a realizar la investigación, «en la medida de lo posible», informaran a los participantes y cumplieran totalmente las normas de Reddit.
Mostrar más
Pero en septiembre el investigador principal dejó la universidad y no comenzó el estudio hasta después de marcharse, dice la universidad, que añade que la responsabilidad del proyecto y de la publicación, por tanto, recae en quien ha realizado la investigación y no, en la universidad.
«En el momento en que se realizó el proyecto de Reddit, no había involucrados investigadores ni estudiantes [de la universidad de Zúrich]».
Los resultados preliminares del equipo de investigación se publicaron en un primer momento, pero se retiraron de la red posteriormente.
Proceso de revisión más estricto
La comisaria de Protección de Datos de Zúrich, Dominka Blonski, no ha iniciado todavía una investigación formal del asunto, pero su oficina está al tanto de la polémica. «No sabemos si la investigación la llevó a cabo la Universidad de Zúrich o su facultad, o investigadores individuales por iniciativa propia», declaró Blonski a SWI swissinfo.ch.
Blonski debe determinar, en primer lugar, si investiga a la universidad o a personas concretas. Pero está preocupada por los indicios que han aparecido en los medios de comunicación que apuntan a posibles violaciones de la legislación sobre protección de datos, especialmente en relación con la aparente elaboración de perfiles de algunas personas usuarias de Reddit.
La universidad también debe hacer frente a «demandas legales formales» no especificadas de Reddit y está investigando el incidente internamente.
«A la luz de estos acontecimientos, el Comité de Ética de la Facultad de Artes y Ciencias Sociales tiene la intención de adoptar un proceso de revisión más estricto en el futuro y, en particular, de coordinarse con las comunidades de las plataformas antes de realizar estudios experimentales», dijo una portavoz.
Editado por Gabe Bullard. Texto adaptado del inglés por Lupe Calvo / CW. Vídeo adaptado del inglés por Carla Wolff.

Mostrar más
La máquina y la moral

En cumplimiento de los estándares JTI
Mostrar más: SWI swissinfo.ch, certificado por la JTI
Puede encontrar todos nuestros debates aquí y participar en las discusiones.
Si quiere iniciar una conversación sobre un tema planteado en este artículo o quiere informar de errores factuales, envíenos un correo electrónico a spanish@swissinfo.ch.