Sur X, l’intelligence artificielle Grok permet de modifier des photos via un simple commentaire. Écrire « mets-la en bikini » suffit pour générer une version dénudée d’une personne. La fonction est accessible à tous, sans vérification ni restriction. Résultat : un déferlement d’images modifiées, souvent sexualisées, ciblant anonymes comme célébrités.
La prouesse technique masque une dérive brutale
Les visuels produits par Grok bluffent par leur réalisme. Les montages sont si crédibles qu’ils passent pour authentiques. Derrière la performance, un dérapage : le consentement n’est plus qu’une option. Certains utilisateurs sont même parvenus à détourner la technologie sur des photos d’enfants. L’outil devient une arme, à portée de clic.
Les appels à la régulation se multiplient. En France et en Inde, des procédures visent à forcer Elon Musk à désactiver la fonctionnalité. Mais sur X, silence radio. Aucun engagement, aucune mesure annoncée. L’IA évolue, mais sans les freins. Grok trace la voie d’une course à la permissivité où les garde-fous sont vus comme un frein à la croissance.
Grok donne le ton, les autres suivent. Pour rester dans la course, les IA généralistes comme ChatGPT ou Gemini se retrouvent sous pression. L’innovation passe par la provocation, au risque d’ancrer des usages déshumanisants. À mesure que les lignes reculent, ce sont les principes mêmes du respect et de la dignité qui vacillent.


