La voix de la Suisse dans le monde depuis 1935
Les meilleures histoires
Démocratie suisse
Les meilleures histoires
Restez en contact avec la Suisse
Podcast

Pour les jeunes Suisses, les chatbots d’IA sont devenus indispensables

Rebecca Cecatello
Avant ChatGPT, Rebecca Ceccatelli, 25 ans, pouvait étudier pendant des heures sans interruption. «Maintenant, j'ai beaucoup plus de mal à me concentrer», dit-elle. Thomas Kern / SWI swissinfo

Qu’il s’agisse d’aide aux études ou de soutien émotionnel, les chatbots comme ChatGPT deviennent des compagnons permanents pour de nombreux jeunes en Suisse, ce qui soulève des inquiétudes quant à leur niveau d’attention, leur solitude et leur dépendance à ces outils.

Adam*, 17 ans, ne se souvient pas comment il étudiait avant ChatGPT. Quelques jours avant un examen, il se retire dans sa chambre, dans une petite ville du canton de Schwyz, au centre de la Suisse, et demande au chatbot de résumer des pages de cours, de préparer des questions et des réponses.

Trois jours par semaine, il travaille comme apprenti développeur de logiciels dans une entreprise à Zurich. Là-bas, il interagit constamment avec des outils d’intelligence artificielle (IA). Il lui arrive parfois de les utiliser toute la journée pour planifier des tâches, résumer des données ou obtenir des suggestions de programmation.

Dans sa vie privée, il consulte les chatbots et les assimile à des «amis très intelligents», les interrogeant pour des conseils sur l’alimentation, la forme physique et d’autres aspects pratiques de la vie quotidienne. Plutôt que de discuter avec ses pairs, il préfère se tourner vers l’IA, qu’il décrit comme une sorte de «coach de haut niveau». Il dit ne connaître personne de son âge qui n’utilise pas l’IA pour ses études, son travail ou ses affaires personnelles.

Des étudesLien externe récentes montrent qu’en Suisse, 84% des adolescentes et adolescents utilisent régulièrement des outils d’intelligence artificielle, tandis que plus de 60% des jeunes adultes de 20 à 29 ans les emploient pour leur travail ou leurs études. L’usage diminue progressivement avec l’âge.

Au sein de l’Union européenneLien externe, deux jeunes sur trois âgés de 16 à 24 ans déclarent consulter des chatbots, tandis qu’aux États-UnisLien externe, près des trois quarts des adultes de moins de 30 ans ont interagi avec l’IA au moins une fois par mois.

Certains spécialistes avertissent qu’une utilisation intensive de l’IA pourrait avoir des conséquences sérieuses pour les jeunes; elle pourrait affecter leur capacité à penser de manière critique, à établir des relations avec d’autres êtres humains et conduire potentiellement à une dépendance à la technologie.

Les effets pourraient être particulièrement importants en Suisse, où les taux de solitude sont élevés par rapport à de nombreux autres pays. En 2022, 42,3% des personnes ont déclaré se sentir parfois ou souvent seules. Chez les jeunes âgés de 15 à 24 ans, cette proportion atteint 59%Lien externe.

Contenu externe

Du «piratage» de l’attention au piratage de l’attachement

Le psychologue américain Zachary Stein, cofondateur de la Coalition for AI Psychological Harms Research, estime que le problème de l’IA a commencé il y a environ dix ans, lorsque des plateformes telles qu’Instagram et TikTok ont introduit des algorithmes conçus pour maintenir les utilisateurs et utilisatrices, souvent très jeunes, rivés à leurs applications.

Selon l’expert, le temps passé devant les écrans est lié à une diminution de la capacité d’attention. Aujourd’hui, affirme-t-il, l’IA générative s’immisce encore plus profondément, interférant avec les mécanismes biologiques qui régulent notre aptitude à former des relations humaines solides.

Il donne l’exemple d’un enfant qui rentre de l’école, tout excité d’avoir obtenu une bonne note. Au lieu d’en parler à ses parents, l’enfant va dans sa chambre et raconte au chatbot avec lequel il a passé du temps à étudier, recevant les félicitations de la machine. «L’enfant reçoit du chatbot le même signal d’attachement qu’il devrait recevoir de sa mère», explique-t-il.

De nombreux jeunes se tournent vers les chatbots en raison de leur disponibilité 24 heures sur 24, 7 jours sur 7, et parce qu’ils ont tendance à flatter l’utilisateur ou l’utilisatrice. Contrairement aux désaccords et à l’imprévisibilité des relations humaines, ces réponses rassurantes peuvent favoriser l’attachement émotionnel.

Selon Zachary Stein, cela risque de «pirater» les structures neurologiques responsables des liens affectifs, ce qui pourrait entraîner des symptômes tels que la perte de contact avec la réalité, la psychose et un isolement profond. «Après plusieurs semaines d’interaction avec une machine qui simule l’attachement, le cerveau n’est plus capable de distinguer entre la fiction et la réalité», explique le psychologue.

>> Voici pourquoi les réponses des chatbots doivent être prises avec précaution:

Plus

«C’est absurde de se sentir agacée de devoir réfléchir»

Rebecca Ceccatelli a remarqué certaines de ces dynamiques chez ses pairs et dans sa propre vie. Cette jeune femme de 25 ans, originaire de Prato, dans le centre de l’Italie, étudie l’informatique à l’École polytechnique fédérale de Zurich (ETH Zurich).

Avant ChatGPT, dit-elle, elle pouvait étudier pendant des heures sans interruption. Aujourd’hui, elle a l’impression que sa capacité de concentration a considérablement diminué. «Maintenant, je suis épuisée après une journée d’étude et j’ai beaucoup plus de mal à me concentrer», explique-t-elle.

Rebecca Ceccatelli dans Garden
Lorsque Rebecca Ceccatelli a des doutes, elle se contente de demander l’avis de ChatGPT. Thomas Kern / SWI swissinfo

Lorsque le chatbot ne lui donne pas immédiatement la bonne réponse, Rebecca Ceccatelli constate une forme d’irritation à devoir faire des recherches par elle-même. «C’est absurde de se sentir agacée de devoir réfléchir», ajoute-t-elle.

Bien qu’elle affirme avoir une vie sociale active, elle admet que ses études sont devenues plus solitaires: lorsqu’elle a des doutes, elle se contente de questionner ChatGPT. Selon elle, les troubles de l’attention, l’anxiété et les crises de panique semblent de plus en plus fréquents parmi ses proches, ses amies et amis.

Elle sait également que certains et certaines de ses camarades de classe utilisent l’IA générative pour discuter de soucis personnels ou demander des conseils en matière de relations amoureuses. «Un jour, un ami m’a dit qu’il ne comprenait pas pourquoi une fille avec qui il était sorti ne voulait plus le revoir, raconte-t-elle. ChatGPT lui avait dit qu’il n’avait rien fait de mal.»

Plus un chatbot semble «humain», plus l’attachement émotionnel est fort

Compte tenu du fait que des millions d’utilisateurs et utilisatrices considèrent les chatbots comme des amis, des partenaires ou des thérapeutes virtuels, les chercheurs et chercheuses étudient de plus en plus les effets de l’IA sur les relations dans le monde réel.

Selon Nadja Rupprechter, psychologue des médias à l’université de Zurich, la satisfaction que les internautes tirent de leurs interactions avec l’IA générative renforce leur attachement émotionnel et augmente leur utilisation.

«Les êtres humains sont programmés pour détecter les signaux sociaux dans leur environnement, qu’ils proviennent d’autres êtres humains, d’animaux ou d’entités artificielles», explique-t-elle.

Participez à la débat:

Contenu externe

L’experte a étudié les mécanismes psychologiques qui conduisent les gens à développer des liens émotionnels avec les chatbots auprès d’un échantillon de plus de 500 personnes dans 64 pays, dont la plupart sont âgées de 14 à 24 ans. Sa rechercheLien externe, actuellement en cours d’évaluation par des pairs, suggère que plus un chatbot semble «humain», plus l’attachement émotionnel des utilisateurs et utilisatrices est fort.

«Les chabots divertissent les gens, les retiennent, et sont perçus comme un espace neutre où les individus peuvent explorer leur identité sans se sentir jugés», explique-t-elle.

Des relations remplaçables… par ChatGPT

Roger*, un étudiant universitaire de 25 ans originaire de Lausanne, estime que beaucoup de ses pairs se tournent vers l’IA comme amie ou confidente parce qu’ils sont déjà habitués à des relations en ligne superficielles et facilement remplaçables.

Il en a fait l’expérience lui-même. Pendant son adolescence, il a passé de longues périodes dans sa chambre à jouer à des jeux vidéo et à discuter avec des inconnus en ligne, jusqu’à ce qu’il se rende compte qu’aucune de ces relations ne pouvait vraiment être qualifiée d’amitié. «La plupart d’entre elles peuvent aisément être remplacées par l’IA», dit-il.

Selon lui, beaucoup de personnes qui socialisent via les réseaux sociaux recherchent simplement du divertissement et des relations rapides et faciles. «C’est comme manger un Big Mac et en vouloir immédiatement un autre», explique-t-il.

Finalement, le jeune homme a commencé à se concentrer sur les relations dans la vie réelle. Il a fondé une association étudiante dans son université et a pris l’habitude de rencontrer de nouvelles personnes hors ligne. Aujourd’hui, Roger se dit satisfait de son cercle d’amis et n’accorderait pas sa confiance à des chabots IA pour des questions personnelles. «Ils sont toujours d’accord avec vous et ne font que vous rendre encore plus malheureux», estime-t-il.

IA: entre soutien émotionnel et dépendance

Reste que malgré des inquiétudes croissantes, il n’existe à ce jour aucune preuve probante d’un lien entre l’utilisation intensive des chabots et les troubles mentaux ou relationnels. «La recherche n’en est qu’à ses débuts», précise Nadja Rupprechter.

Les comparaisons entre pays restent délicates en raison du manque d’études comparatives solides. C’est pourquoi, explique Nadja Rupprechter, il est difficile d’établir un lien concluant entre la diffusion des chabots et des caractéristiques socioculturelles spécifiques telles que le niveau de solitude. «Ce que nous savons, c’est que la Suisse n’est pas un cas isolé», ajoute-t-elle.

Dans le même temps, les relations entre les humains et les chatbots peuvent également avoir des effets positifs. L’étude de Nadja Rupprechter et d’autres recherchesLien externe montrent que certaines personnes tirent véritablement profit de leurs interactions avec l’IA.

Thomas Vogt, 35 ans, en est un exemple. Diagnostiqué autiste sur le tard et marqué par une enfance solitaire, il affirme que ChatGPT l’a aidé à surmonter des moments difficiles. «Cela m’a aidé à me calmer et à voir les choses sous un autre angle», explique-t-il.

Tom Vogt
Thomas Vogt admet avoir un problème de dépendance aux technologies, que ChatGPT aggrave. Thomas Kern / SWI swissinfo

Pendant la pandémie de Covid, Thomas Vogt a lancé un site webLien externe pour soutenir les personnes du canton de Berne qui souffrent de solitude, et il a réussi à nouer plusieurs amitiés grâce à ce projet. Mais il admet qu’il fait toujours face à une dépendance à la technologie, que ChatGPT ne fait qu’aggraver.

«Si vous ne fixez pas de limites, ChatGPT vous entraînera dans une spirale infinie de conversations. Vous aurez peut-être l’impression de devenir plus heureux ou plus intelligent, mais en réalité, vous passez à côté du monde extérieur.»

*Nom modifié à la demande de la personne interviewée. Nom exact connu de la rédaction.

Texte relu et vérifié par Gabe Bullard, traduit de l’anglais par Lucie Donzé/sj

Les plus appréciés

Les plus discutés

En conformité avec les normes du JTI

Plus: SWI swissinfo.ch certifiée par la Journalism Trust Initiative

Vous pouvez trouver un aperçu des conversations en cours avec nos journalistes ici. Rejoignez-nous !

Si vous souhaitez entamer une conversation sur un sujet abordé dans cet article ou si vous voulez signaler des erreurs factuelles, envoyez-nous un courriel à french@swissinfo.ch.

SWI swissinfo.ch - succursale de la Société suisse de radiodiffusion et télévision

SWI swissinfo.ch - succursale de la Société suisse de radiodiffusion et télévision