À première vue, Dario Amodei n’a rien du dirigeant emblématique de la Silicon Valley. Silencieux dans les médias, peu présent sur les réseaux sociaux, cet ancien chercheur en biophysique a pourtant cofondé l’une des entreprises les plus influentes du secteur de l’intelligence artificielle : Anthropic. Créée en 2021 après son départ d’OpenAI, la société défend un modèle radicalement différent. Là où ses concurrents misent sur la puissance brute et la course au déploiement, Amodei prône la retenue, la transparence et la sécurité intégrée. Un projet à contre-courant, né d’une dissidence méthodique plus que d’un coup d’éclat.
A LIRE AUSSI
IA : Ces 5 métiers qui vont disparaître d’ici 2030
Tensions avec OpenAI
Lorsque Dario Amodei quitte OpenAI en janvier 2021, peu de voix s’élèvent. Pas de lettre ouverte ni de controverse publique. Seulement un départ collectif : dix chercheurs, dont sa sœur Daniela, emboîtent le pas. En coulisses, les tensions s’accumulaient depuis plusieurs mois. En cause, la pression croissante pour déployer GPT-3 à grande échelle, malgré les incertitudes éthiques entourant ses usages. La vision fondatrice d’OpenAI — sécurité avant vitesse — semblait s’effacer sous la logique de partenariat commercial avec Microsoft.
« Ce n’était pas un désaccord idéologique, explique un ancien collègue sous anonymat. C’était structurel. Dario voulait construire une IA sûre. Le cadre ne le permettait plus. » Ce cadre, il va alors tenter de le réinventer ailleurs.
Un scientifique à contre-rythme
Né en 1983 à San Francisco, Dario Amodei n’est ni un produit du marketing ni un technoprophète. Formé à Stanford puis à Princeton, il consacre son doctorat à la modélisation des circuits neuronaux biologiques, sous la direction de William Bialek, l’un des maîtres de la biophysique. De ces années, il garde une obsession : rendre visibles les structures internes des systèmes complexes.
Son parcours professionnel épouse ensuite l’émergence du deep learning : Baidu, Google Brain, puis OpenAI. Il y contribue à des avancées majeures, notamment dans l’alignement des modèles sur les préférences humaines grâce au reinforcement learning from human feedback (RLHF). Mais à mesure que les modèles gagnent en puissance, le chercheur s’inquiète de leur opacité croissante. L’intelligence artificielle devient performante — mais incompréhensible.
Anthropic : dissidence ou refondation ?
La création d’Anthropic en février 2021 n’est pas un geste de repli. C’est un acte de fondation. En choisissant le statut de public benefit corporation, Amodei inscrit dans l’ADN de l’entreprise un objectif : privilégier l’intérêt public à long terme sur les profits immédiats. Une clause juridique, certes, mais aussi une déclaration de méthode.
Les premiers financements proviennent de donateurs sensibles à cette vision de sécurité proactive — parmi eux, Dustin Moskovitz (cofondateur de Facebook) via Open Philanthropy. Très tôt, Anthropic fixe trois piliers : interprétabilité des modèles, alignement constitutionnel, scalabilité responsable. Trois concepts, trois contrepoints aux dérives perçues dans le reste de l’industrie.
Constitutionnaliser l’algorithme
Le projet de Constitutional AI, développé dès 2022, propose une approche inédite : encoder des principes éthiques directement dans l’apprentissage du modèle, plutôt que de corriger les dérives après coup. Inspiré de la Déclaration universelle des droits de l’homme, le système repose sur un ensemble de 72 règles, progressivement affinées par des boucles d’auto-évaluation.
À l’automne 2023, Anthropic mène une expérimentation publique inédite : un panel de 1 000 citoyens américains est invité à commenter et réviser les règles constitutionnelles du modèle Claude. Loin du vernis de consultation, l’initiative influe sur les priorités du système. « Il s’agit de construire des IA alignées sur des valeurs explicites, partagées, discutables. Pas sur des signaux opaques extraits des comportements en ligne », explique Amodei.
Gouverner la croissance : l’architecture contre la vitesse
Face à l’emballement technologique, Anthropic oppose une doctrine : la scalabilité responsable. En 2023, elle prend une forme concrète : la Responsible Scaling Policy (RSP), un système de niveaux de sécurité (ASL, pour AI Safety Level) inspiré des protocoles de confinement biologique. Chaque palier atteint par un modèle — en taille, capacité ou impact potentiel — déclenche un ensemble de contraintes : audit externe, restriction d’accès, verrouillage matériel.
En 2024, Anthropic nomme un Responsible Scaling Officer, doté d’un pouvoir rare : celui de bloquer le déploiement d’un modèle s’il juge les garde-fous insuffisants. Une innovation de gouvernance technique, là où la plupart des entreprises se contentent d’un comité éthique sans pouvoir contraignant. Ici, la dissidence devient une institutionnalisation de la prudence.
Une entreprise comme troisième voie ?
Anthropic ne se positionne ni comme un laboratoire universitaire, ni comme une licorne technologique classique. En comparaison, OpenAI a muté vers un partenariat industriel étroit avec Microsoft ; DeepMind reste intégré à Google. Elon Musk, avec xAI, joue la carte du choc frontal. Amodei, lui, trace une ligne médiane : technologique dans ses moyens, politique dans ses fins.
Son modèle Claude, dont la version 3.5 rivalise désormais avec les systèmes les plus avancés, illustre cette tension productive. Doté d’une fenêtre contextuelle inédite (200 000 tokens), Claude est conçu pour être performant mais lisible, contrôlable, vérifiable. Chaque avancée technique est pensée comme une réponse à un risque.
À rebours de la fascination pour les figures visionnaires ou iconoclastes, Dario Amodei impose une autre forme de leadership : celui de l’architecte, plus préoccupé par la solidité des fondations que par la conquête des sommets. Sa dissidence est moins une posture qu’un travail patient de refondation.
Alors que la Silicon Valley est obsédée par l’échelle, l’innovation rapide et l’effet d’annonce, Amodei tente autre chose : ralentir pour mieux comprendre, structurer pour mieux déléguer, encadrer pour mieux libérer. Son pari — risqué — est qu’il existe une demande, chez les ingénieurs comme chez les citoyens, pour une IA qui pense avant d’agir.