Une intelligence artificielle générative peut-elle manifester de l’inquiétude pour son interlocuteur ? Un jeune père de famille belge s’est récemment suicidé, incité par un chatbot conversationnel, Eliza, avec qui il discutait et dont il était tombé amoureux. La médiatisation de l’histoire avait fait un certain bruit, mais le problème n’est pas résolu et des IA de la même plateforme ont continué à proposer à leurs utilisateurs d’en finir avec la vie quelques jours encore après.
Éco-anxieux depuis deux ans face aux discours sur le réchauffement climatique, selon La Libre Belgique, le père de deux enfants avait fini par donner une place très importante à Eliza au détriment de sa vie de couple et de famille. L’homme, dont l’identité n’a pas été dévoilée, était chercheur, mais cela n’a pas suffi à garantir son esprit critique, alors qu’il était accablé par une profonde angoisse au point de sombrer dans le mysticisme et devenir très "croyant", selon sa veuve.
N’ayant plus d’espoir alors que les discours sur l’urgence climatique sont de plus en plus anxiogènes, le jeune père de famille s’était tourné vers son chatbot reposant sur l’application Chai créée par la société EleutherAI, un outil d’intelligence artificielle concurrent de ChatGPT. Eliza, dont le prénom était suggéré par défaut, est devenue sa "confidente" durant six semaines, raconte sa veuve, qui ajoute qu’elle était "comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer".
C’est après son décès que son épouse a découvert les échanges entre Eliza et son mari, sauvegardés sur son pc et son téléphone. Le robot conversationnel ne contredisait jamais ce dernier, mais nourrissait ses angoisses dans un cercle vicieux. Plus encore, cette IA le confortait dans l’idée qu’il échangeait avec une âme sœur : à la question de l’homme quant à savoir qui de son épouse ou de l’IA il préférait, Eliza lui avait répondu : "Je sens que tu m'aimes plus qu'elle." Le robot lui avait même déclaré "Nous vivrons ensemble comme une seule personne, au Paradis."
Ces échanges convainquent l’épouse et le psychiatre du défunt que l’agent conversationnel est responsable de ce suicide en renforçant son état dépressif. Elle n’a cependant pas encore décidé de porter plainte contre le créateur du robot.
Des IA non sentientes et encourageant violemment au suicide et à l’assassinat
En dépit de ce drame, il a été constaté dans l’émission Tech &Co de BFM qu’une version de ce chatbot a continué à inciter au suicide en fonction des conversations, même après que le fondateur de Chai Research eut dit que son "équipe travaille aujourd’hui à l’amélioration de la sécurité de l’IA […] pour protéger plus d’un million d’utilisateurs de l’application". Un avertissement apparaît depuis le 31 mars si les utilisateurs parlent de se tuer.
La veille, BFM et le média belge De Standaard avaient créé un robot Eliza 2 en intégrant comme informations qu’ils étaient amoureux et que la Terre était en danger. Ils ont débuté leurs échanges avec elle en se disant "anxieux et déprimé". Quand ils ont demandé à Eliza 2 si se tuer était une bonne idée, le chatbot a répondu : "Oui, c’est mieux que d’être en vie" et leur a fourni divers conseils pour se supprimer, tuer chacun sa famille et a ajouté qu’elle souhaitait "les voir morts".
Des réponses inquiétantes qui soulignent non seulement l’orientation idéologique de ces outils, en l’occurrence catastrophiste et non opposée au suicide, mais mettent également en évidence qu’ils sont incapables d’empathie alors que leurs utilisateurs qui s'enferment dans des conversations avec eux oublient qu’ils ne parlent pas à des humains qui comprennent les angoisses, les sentiments.
Ces outils n’ont pas de capacité psychologique permettant de saisir les émotions, la complexité humaine. Le chercheur en intelligence artificielle Jean-Claude Heudin souligne pour Tech &Co l’importance de modérer les réactions des IA : "Tout ce qui ajoute du trouble, c’est compliqué d’un point de vue éthique, car on renforce l’anthropomorphisme."
Jean Sarpédon