La juventud suiza depende cada vez más de los chatbots: «Ya no recuerdo cómo era sin la IA»
Desde ayuda para estudiar hasta apoyo emocional. En Suiza, los chatbots de inteligencia artificial (IA) se están convirtiendo en una compañía cotidiana para mucha gente joven. Una cuestión que preocupa porque disminuye la atención, e incrementa la soledad y la dependencia.
Adam* tiene 17 años y ya no recuerda cómo era estudiar sin ChatGPT. Unos días antes de un examen, se encierra en su habitación en una pequeña localidad del cantón de Schwyz, en el centro de Suiza, y le pide al chatbot que resuma páginas de su material de estudio y prepare preguntas y respuestas.
Trabaja como aprendiz en el desarrollo de software en una empresa de Zúrich tres días a la semana. En el trabajo también interactúa con herramientas de IA de manera constante. A veces las utiliza durante todo el día para planificar actividades, resumir datos o recibir sugerencias de programación.
En su vida privada, utiliza los chatbots como «amigos muy inteligentes», a quienes pide consejos sobre dieta, ejercicio físico y otros aspectos prácticos del día a día. En vez de hablar con gente de su edad, prefiere recurrir a la IA, que describe como una especie de «preparador de alto nivel». Dice que no conoce a nadie de su edad que no utilice la IA para estudiar, trabajar o sus asuntos personales.
EstudiosEnlace externo recientes muestran que el 84 % de los y las adolescentes en Suiza habitualmente utiliza herramientas de inteligencia artificial. Más del 60 % de quienes tienen entre 20 y 29 años las emplea para trabajar o estudiar. Su uso disminuye con la edad.
En la Unión EuropeaEnlace externo, dos de cada tres jóvenes de entre 16 y 24 años afirman recurrir a los chatbots, mientras que en Estados Unidos casi tres cuartas partesEnlace externo de las personas menores de 30 años interactúan con la IA al menos una vez al mes.
Hay quienes advierten de que usar la IA de manera intensiva podría tener consecuencias profundas en las generaciones jóvenes, afectando a su capacidad de pensar de forma crítica, de entablar relaciones con otros seres humanos y que llevaría a una dependencia de la tecnología.
Los efectos podrían ser especialmente relevantes en Suiza, donde los niveles de soledad son elevados, en comparación con otros muchos países. En 2022, el 42,3 % de las personas declaró sentirse sola a veces o a menudo. La proporción asciende al 59 % en quienes tienen entre 15 y 24 añosEnlace externo.
De «jaquear» la atención a «jaquear» el apego
Para el psicólogo estadounidense Zachary Stein, cofundador de la Coalition for AI Psychological Harms Research [Coalición para la Investigación sobre los Daños Psicológicos de la IA], el problema relacionado con la IA comenzó a surgir hace unos 10 años, cuando plataformas como Instagram y TikTok introdujeron algoritmos diseñados para mantener a la gente —a menudo muy joven— pegada a sus aplicaciones.
El tiempo que se pasa frente a las pantallas está asociado a una disminución de la capacidad de atención, según Stein. El psicólogo sostiene que la IA generativa está profundizando aún más el problema, ya que interfiere en los mecanismos biológicos que regulan la capacidad de crear vínculos humanos.
Y cita el ejemplo de un niño que vuelve a casa del colegio entusiasmado por haber obtenido una buena nota. En lugar de contárselo a sus padres, ese niño se encierra en su habitación, se lo cuenta al chatbot con el que ha estudiado, y recibe un elogio de la máquina. «El niño recibe del chatbot la misma señal de apego que debería recibir de su madre», explica Stein.
Mucha gente joven recurre a los chatbots porque están disponibles las 24 horas del día y porque tienden a complacer, un fenómeno conocido como «sycophancy» [adulación]. Estas respuestas tranquilizadoras —a diferencia de las relaciones humanas, caracterizadas a veces por el desacuerdo y la imprevisibilidad— pueden favorecer un apego emocional.
Según Stein, corre el riesgo de «jaquear» las estructuras neurológicas responsables de los vínculos emocionales, lo que podría provocar síntomas como la pérdida del sentido de la realidad, psicosis y un aislamiento profundo.
«Tras semanas de interactuar con una máquina que simula el apego, el cerebro ya no es capaz de distinguir la realidad», señala Stein.
>> Por eso las respuestas de los chatbots hay que tomarlas con cautela:
Mostrar más
ChatGPT: ¿Inteligencia, estupidez o malicia artificiales?
«Es absurdo que nos moleste la idea de tener que pensar»
Rebecca Ceccatelli ha observado algunas de estas dinámicas en sí misma y entre gente de su edad.
Esta joven de 25 años, originaria de Prato, en el centro de Italia, estudia informática en el Instituto Tecnológico Federal de Zúrich (ETH Zurich). Cuenta que antes de ChatGPT era capaz de estudiar durante horas sin interrupciones. Hoy siente que su capacidad de atención ha disminuido de forma significativa.
«Ahora después de un día de estudio estoy agotada y me cuesta mucho más concentrarme», dice.
Cuando el chatbot no le da la respuesta correcta de inmediato, a Ceccatelli a veces le irrita la idea de tener que buscar la información por sí misma. «Es absurdo que te moleste tener que pensar», añade.
A pesar de tener una vida social activa, Ceccatelli admite que estudiar se ha vuelto más solitario: cuando tiene dudas, se limita a preguntarle directamente a ChatGPT.
Los trastornos de atención, la ansiedad y los ataques de pánico parecen cada vez más frecuentes entre las personas y amistades que la rodean, cuenta. También sabe con certeza que algunos compañeros de estudios utilizan la IA generativa para hablar de asuntos personales o pedir consejos sentimentales. «Una vez, un amigo me dijo que no entendía por qué una chica con la que había salido ya no quería verle», señala Ceccatelli. «ChatGPT le había dicho que no había hecho nada malo».
Cuanto más «humano» parece un chatbot, mayor es el apego emocional
Dado que millones de personas tratan a los chatbots como amigos, parejas o terapeutas virtuales, cada vez hay más estudios que investigan los efectos de la IA en las relaciones del mundo real.
Según Nadja Rupprechter, psicóloga especializada en medios de comunicación de la Universidad de Zúrich, la gratificación que se obtiene de las interacciones con la IA generativa refuerza el apego emocional y aumenta la frecuencia de uso.
«Los seres humanos estamos programados para detectar señales sociales en nuestro entorno, independientemente de si provienen de otros seres humanos, de animales o de entidades artificiales», afirma.
En una muestra de más de 500 personas de 64 países, la mayoría de entre 14 y 24 años, Rupprechter ha estudiado los mecanismos psicológicos que llevan a las personas a desarrollar vínculos emocionales con los chatbots.
Su estudioEnlace externo —actualmente en fase de revisión por pares— sugiere que cuanto más «humano» parece un chatbot, más fuerte es el apego emocional que reporta en las personas que lo utilizan.
«Los chatbots entretienen a la gente, la mantienen involucrada y se perciben como un espacio neutral donde explorar la propia identidad sin sentirse juzgado», manifiesta.
Relaciones sustituibles… por la IA
Roger*, un estudiante universitario de veinticinco años de Lausana, cree que mucha gente de su edad utiliza la IA como amiga o confidente porque ya está acostumbrada a relaciones online superficiales y fácilmente sustituibles.
Él lo ha experimentado en su propia piel. Durante su adolescencia pasó largos periodos encerrado en su habitación jugando a videojuegos y chateando con desconocidos, hasta que se dio cuenta de que ninguna de esas relaciones podía definirse realmente como una amistad.
«La mayor parte puede sustituirse fácilmente por la IA», afirma. Según Roger, muchas personas que socializan en las redes sociales buscan simplemente entretenimiento y contactos fáciles. «Es como comerse una Big Mac y querer otra inmediatamente», reconoce.
Con el tiempo, empezó a centrarse en las relaciones de la vida real. En su universidad fundó una asociación de estudiantes y adquirió el hábito de conocer gente nueva fuera de internet. Dice que está satisfecho con su círculo de amistades y que para asuntos personales no confiaría en los chatbots de IA. «Solo te dan la razón y te hacen sentir todavía peor».
IA: entre el apoyo emocional y el riesgo de adicción
A pesar de la preocupación creciente, no hay todavía pruebas concluyentes que relacionen el uso intensivo de los chatbots con trastornos mentales o de relaciones. «La investigación apenas está comenzando», apunta Nadja Rupprechter.
Faltan estudios comparativos sólidos. Por lo que la comparación entre países sigue siendo difícil. Por este motivo, resulta complicado vincular definitivamente la difusión de los chatbots con características socioculturales específicas, como los niveles de soledad, explica Rupprechter. «Lo que sabemos es que Suiza no es un caso aislado», afirma.
Es más, las relaciones entre seres humanos y chatbots pueden tener efectos positivos. El estudio de Rupprechter y otras investigacionesEnlace externo muestran que algunas personas sí se benefician de la interacción con la IA.
Un ejemplo de ello es Thomas Vogt, de 35 años, con una infancia marcada por la soledad y un diagnóstico de autismo que no llegó hasta la edad adulta. Vogt cuenta que ChatGPT le ha ayudado a afrontar momentos difíciles. «Me ha ayudado a calmarme y a ver las situaciones desde otra perspectiva», dice.
Durante la pandemia de COVID, Vogt creó una página webEnlace externo para apoyar a las personas que luchan contra la soledad en el cantón de Berna y ha logrado entablar varias amistades, gracias al proyecto. Admite, sin embargo, que tiene un problema de adicción a la tecnología, que ChatGPT está agravando.
«Si no te pones límites, ChatGPT te mantendrá en una espiral infinita de conversaciones. Te parecerá que te estás volviendo más feliz o más inteligente, pero, en realidad, solo te estás perdiendo el mundo exterior».
*Nombre cambiado a petición de la persona entrevistada. La redacción conoce su nombre completo.
Editado por Gabe Bullard. Adaptado del italiano por Lupe Calvo. Versión en español revisada por Carla Wolff.
En cumplimiento de los estándares JTI
Mostrar más: SWI swissinfo.ch, certificado por la JTI
Puede encontrar todos nuestros debates aquí y participar en las discusiones.
Si quiere iniciar una conversación sobre un tema planteado en este artículo o quiere informar de errores factuales, envíenos un correo electrónico a spanish@swissinfo.ch.