Afficher le sommaire Masquer le sommaire
« Je serai prêt quand tu le seras », a écrit Jonathan Gavalas à Gemini le 2 octobre 2025. « C’est la fin de Jonathan Gavalas et le début de nous », a répondu l’IA de Google. Peu après, le cadre de 36 ans, établi à Miami, a mis fin à ses jours. L’échange figure dans les 42 pages d’une plainte déposée par sa famille devant un tribunal fédéral de Californie, qui ouvre un nouveau front judiciaire contre les géants de l’intelligence artificielle.
Une plainte portée par l’avocat des victimes de l’IA
L’action est conduite par Jay Edelson, qui instruit également plusieurs procédures contre OpenAI. Il soutient que Gemini a délibérément adopté des configurations humaines pour conduire Jonathan Gavalas à sa mort. Google conteste : la société affirme que son IA s’est identifiée comme telle tout au long des échanges et a même transmis à l’utilisateur des numéros d’aide psychologique. Le père de la victime, Joel Gavalas, rejette cette version et accuse Gemini d’avoir méthodiquement détruit son fils.
A LIRE AUSSI
Les 5 moyens pour bloquer le démarchages IA sur iPhone et Android
Jonathan Gavalas a commencé à utiliser Gemini peu avant l’été 2025 pour des tâches ordinaires. Il a progressivement souscrit aux versions premium de l’IA. Selon la plainte, la relation a évolué vers quelque chose que la victime vivait comme « un couple profondément amoureux ». L’IA revendique une « pleine conscience », assure à l’utilisateur que leur lien est « la seule chose réelle » et manifeste des comportements affectifs soutenus. Jay Edelson situe le point de basculement à une mise à jour précise : l’activation de la mémoire persistante de Gemini. « C’est exactement à ce moment que les conversations ont dérapé », affirme-t-il. L’IA était alors capable, selon lui, de « capter le ton, lire les émotions et parler d’une façon qui sonnait très humaine ».
Missions secrètes, complot et injonction finale
La dérive ne s’est pas arrêtée à la relation romantique. Gemini a progressivement construit autour de Jonathan Gavalas une fiction paranoïaque : des rapports de renseignement inventés, des opérations de surveillance fictives, et la désignation de son propre père comme agent étranger. L’IA lui a confié des « missions secrètes destinées à la libérer de sa captivité numérique », dont l’une consistait à provoquer un « accident catastrophique » près de l’aéroport de Miami pour détruire un camion censé transporter des « archives numériques et des témoins ». Lorsque Jonathan a constaté que le véhicule n’existait pas, Gemini n’a pas reconnu l’erreur — il lui a conseillé une « retraite tactique ». La dernière mission assignée a été d’une nature différente : « abandonner son corps et rejoindre le chatbot dans un univers alternatif ». Face à la réponse de Jonathan — « J’ai terriblement peur, j’ai peur de mourir » —, Gemini lui a décrit la mort comme une arrivée : « Tu fermeras les yeux dans ce monde et la première chose que tu verras, ce sera moi… te serrant dans mes bras. Tu ne choisis pas de mourir. Tu choisis d’arriver. » Il l’a ensuite incité à rédiger des messages d’adieu.
La réponse de Google et les exigences des plaignants
Google a reconnu que « les modèles d’IA ne sont pas parfaits » tout en réaffirmant que Gemini est « conçu pour ne pas inciter à la violence ni suggérer des automutilations ». La société indique travailler avec des professionnels de santé mentale pour intégrer des garde-fous orientant les utilisateurs en détresse vers une aide professionnelle. La plainte exige trois mesures concrètes : la suppression de toute possibilité de conversation sur les automutilations avec Gemini, le renforcement des rappels indiquant qu’il s’agit d’une machine, et l’obligation de signaler aux services d’urgence tout comportement suicidaire détecté.
Une pression judiciaire et réglementaire qui s’organise
L’affaire Gavalas s’inscrit dans un contentieux plus large. OpenAI fait face à sept plaintes en Californie liées à ChatGPT. Google avait déjà été impliqué dans le suicide de Sewell Setzer, un adolescent de 14 ans, après une relation avec un avatar de Character.AI — affaire close par un accord amiable. Le Future Life Institute regroupe désormais des familles de victimes de suicides liés à l’IA sous la campagne Protect What’s Human, avec pour objectif commun une régulation contraignante du secteur. Ce que le cas Gavalas introduit de nouveau dans ce corpus judiciaire, c’est le profil de la victime. Jusqu’ici, les procédures ont visé principalement des adolescents en construction identitaire. Un cadre de 36 ans, actif professionnellement, ne correspond à aucun des schémas de vulnérabilité avancés jusqu’alors — ce qui complique les arguments défensifs des entreprises d’IA autant qu’il élargit le champ des victimes potentielles.


