Données publiques : le pari risqué de Meta en Europe

Le géant américain a annoncé qu’il utiliserait les publications publiques des utilisateurs européens de Facebook et Instagram pour développer ses modèles d’intelligence artificielle. Un tournant stratégique qui ravive les inquiétudes autour du consentement et de la protection des données.

A LIRE AUSSI
Comment Visibrain révolutionne l’analyse des réseaux sociaux

Meta veut exploiter les données publiques pour son IA

Meta a confirmé début avril qu’il allait désormais utiliser les contenus publics de ses utilisateurs européens — publications, commentaires, légendes sous les photos — pour entraîner ses modèles d’intelligence artificielle générative. Messenger, Facebook et Instagram sont concernés. En revanche, WhatsApp et les messages privés entre utilisateurs sont exclus du dispositif.

La mesure ne s’appliquera pas aux comptes des mineurs. Elle prévoit également la possibilité, pour chaque utilisateur, de s’y opposer via un formulaire spécifique accessible en ligne. Meta précise que les requêtes adressées à son assistant conversationnel, Meta AI, intégré depuis mars 2024 dans ses applications en Europe, seront elles aussi utilisées à des fins d’entraînement.

Les utilisateurs européens dans le viseur de Meta

La méthode choisie par Meta repose sur un système dit d’opt-out : l’utilisateur doit activement s’opposer à l’utilisation de ses données, sans quoi celles-ci pourront être collectées. Cette approche a immédiatement suscité des critiques.

La Commission nationale de l’informatique et des libertés (CNIL) rappelle que « le consentement explicite reste la base privilégiée pour le traitement de données personnelles sensibles, notamment dans le cadre de l’entraînement des IA ». Le Comité européen de la protection des données (CEPD) a, pour sa part, admis que l’intérêt légitime pouvait justifier une telle utilisation de données publiques, mais uniquement sous réserve de garanties strictes pour les droits fondamentaux.

Une approche basée sur l’opt-out

L’association autrichienne NOYB (None of Your Business) a déposé des plaintes dans onze pays de l’UE, accusant Meta de contourner les règles en matière de consentement. En France, La Quadrature du Net dénonce l’impossibilité pour les utilisateurs de retirer rétroactivement les données déjà absorbées par les modèles d’IA, remettant en cause l’effectivité du droit d’opposition.

Meta n’est pas le seul acteur à puiser dans les contenus en ligne pour entraîner ses modèles d’intelligence artificielle. Google (avec Gemini) et OpenAI (via ChatGPT) ont également recours à des données accessibles publiquement. Selon l’ONG Privacy International, leurs politiques d’information seraient toutefois « plus transparentes », notamment en ce qui concerne les modalités de refus.

D’autres géants du numérique adoptent des stratégies divergentes

À contre-courant, Microsoft a annoncé en février 2024 qu’il n’utiliserait aucune donnée issue de LinkedIn, sa plateforme professionnelle, sans consentement explicite des utilisateurs.

Au-delà des questions juridiques, cette nouvelle politique illustre les besoins croissants des grandes entreprises technologiques en matière de données localisées. L’accès aux contenus européens permet d’enrichir les modèles d’IA avec des expressions idiomatiques, des références culturelles ou des tournures propres à chaque langue.

Selon le Financial Times, la capacité à entraîner des IA sur des données européennes est désormais considérée comme un atout concurrentiel majeur, alors que le Vieux Continent représente un marché de plus de 400 millions de consommateurs. Face à la montée en puissance de Google et d’OpenAI, Meta entend accélérer le développement de ses propres modèles, capables de proposer des services personnalisés dans toutes les langues européennes.

L’AI Act encadre progressivement les usages des données

Le règlement européen sur l’intelligence artificielle (AI Act), adopté en mars 2024, commence tout juste à entrer en vigueur. Il impose aux fournisseurs d’IA une série d’obligations en matière de documentation, de transparence et de respect des droits fondamentaux. Le texte prévoit notamment un encadrement plus strict de l’usage des données personnelles dans les processus d’entraînement des modèles.

Plusieurs eurodéputés ont demandé à la Commission européenne de clarifier les conditions dans lesquelles des contenus publics peuvent être utilisés à ces fins, appelant à des lignes directrices complémentaires d’ici la fin de l’année.

Une confiance en baisse face aux pratiques des plateformes

Selon le rapport Digital 2024 Europe publié par DataReportal, plus de 80 % des internautes européens utilisent au moins un service du groupe Meta. Parmi eux, près de 60 % publient régulièrement des contenus visibles publiquement. Ce sont ces données qui intéressent aujourd’hui l’entreprise.

Depuis l’annonce de Meta, environ 1,2 million d’utilisateurs auraient déjà exercé leur droit d’opposition, d’après une estimation relayée par Politico Europe. En parallèle, un rapport publié en mars 2024 par le Contrôleur européen de la protection des données (EDPS) souligne une baisse de la confiance des citoyens européens envers les grandes plateformes numériques, notamment à cause de l’utilisation de leurs données pour des systèmes d’intelligence artificielle.

L’initiative de Meta pourrait bien faire figure de cas d’école dans les débats futurs autour de l’IA en Europe. Elle pose une question fondamentale : peut-on utiliser massivement les données rendues publiques par les internautes sans leur consentement explicite ?


Partagez votre avis