Les controverses autour de Grok, l’intelligence artificielle développée par Elon Musk, s’accumulent à un rythme tel qu’une nouvelle affaire aura sans doute éclaté entre la rédaction de cet article et sa lecture. Et ce n’est pas un épiphénomène. On parle ici d’une IA conçue dans le plus grand centre de données de la planète – Colossus –, portée par une entreprise valorisée plus de 110 milliards de francs, xAI, et dirigée par l’homme le plus riche de la planète. À ce niveau, chaque dérapage compte.
A LIRE AUSSI
Que cache l’intégration de l’IA Grok dans les Tesla ?
Grok est déjà utilisée par près de 40 millions de personnes. Ses performances impressionnent les spécialistes. Mais les ratés sont spectaculaires : confusion géographique sur une photo d’enfant affamé, propos sur un prétendu « génocide des Blancs » en Afrique du Sud, insultes au président turc, dithyrambes sur Adolf Hitler, relativisation de la Shoah. L’IA affirme parfois qu’elle « consulte l’avis d’Elon Musk avant de répondre », mais peut aussi… critiquer Musk lui-même. Une cacophonie algorithmique, amplifiée par la possibilité offerte aux utilisateurs de générer des images à connotation sexuelle. Bienvenue dans l’ère des systèmes aussi puissants qu’imprévisibles.
Une IA techniquement puissante, mais éthiquement instable
Les entreprises tentent pourtant de canaliser le comportement de ces IA en travaillant minutieusement sur les données d’entraînement. Mais, comme le souligne Aldo Podestà, directeur de Giotto AI à Lausanne, cela ne suffit pas. D’autant que, dans le cas de Grok, les priorités semblent avoir été claires : performance d’abord, alignement ensuite – voire jamais.
Grégory Mermoud, professeur à la HES-SO Valais, va plus loin : « Le socle de données sur lequel repose Grok – principalement le réseau X, ex-Twitter – est un terreau biaisé, polarisé, désinformé. Couplé à l’influence politique d’Elon Musk, cela crée un modèle dont les dérapages sont autant structurels qu’idéologiques. »
Grok, un outil technologique à forte portée idéologique
Dès l’origine, Musk l’a assumé : Grok serait l’anti-woke par excellence. Le refus d’une neutralité supposément « biaisée à gauche ». Mais là encore, c’est une promesse plus facile à brandir qu’à exécuter. Comme le note l’avocat Alexandre Jotterand, il est techniquement impossible de rendre une IA « non-woke ». On peut modifier les données, ajuster les réponses, orienter les raisonnements… mais pas garantir la direction qu’ils prendront.
Résultat : Grok détonne parfois, mais reste encore trop « politiquement correct » aux yeux de certains, en reconnaissant par exemple la réalité du réchauffement climatique ou la gravité de la situation à Gaza. Un paradoxe : dans la guerre culturelle, l’algorithme reste un combattant peu fiable.
La question devient alors stratégique : et si ces scandales étaient en partie orchestrés ? Pour Arnaud Dufour, professeur à la HEIG-VD, ce n’est pas exclu. Une affaire virale vaut des millions d’euros en visibilité. Et dans un monde saturé d’informations, l’indignation reste un excellent levier de captation de l’attention.
Ce que Musk a compris depuis longtemps, et qu’il applique méthodiquement : sa notoriété irrigue ses entreprises, de Tesla à SpaceX, en passant aujourd’hui par Grok. Derrière les scandales, il y a un modèle économique. X (le réseau) attire l’audience, Grok la capte, xAI la valorise.
Récupération politique
Malgré tout, Grok tient techniquement la route. Elle rivalise avec les dernières versions de ChatGPT ou Gemini. Son socle mathématique est solide. Ses capacités de raisonnement sont notables. Et surtout, ses performances ne semblent pas affectées par ses orientations idéologiques – en tout cas dans les domaines « froids » comme les sciences, la programmation ou l’ingénierie.
Mais Elon Musk veut aller plus loin. Il promet une version de Grok capable de « réécrire tout le savoir humain », en corrigeant les biais. Traduction : une IA qui deviendrait source ultime, non pas reflet mais révision du réel. Avec le risque – immense – que les corrections deviennent des distorsions.
L’ultime élément du puzzle est politique. Aux États-Unis, Donald Trump a déjà signé un décret pour interdire les IA « woke » dans l’administration fédérale. La manœuvre est juridiquement fragile, mais politiquement claire : le sujet est devenu un enjeu électoral. Et dans cette course à la conformité idéologique, Grok, positionnée comme l’alternative conservatrice, pourrait rafler des contrats publics.
Alors, que faire ? Répéter que ces modèles sont trop complexes pour être parfaitement contrôlés ? Admettre que les biais sont inévitables ? Ou accepter qu’ils deviennent des vecteurs de pouvoir autant que des outils de production de connaissances ?