SAN FRANCISCO : OpenAI , Anthropic et Google renforcent leur coordination contre la copie non autorisée de systèmes d'IA avancés via le Frontier Model Forum, un organisme à but non lucratif du secteur dont le cadre de partage des menaces permet désormais aux entreprises membres d'échanger des informations sur les vulnérabilités, les méthodes d'attaque et autres risques de sécurité liés aux modèles de pointe. Lancé en 2023 par Anthropic, Google, Microsoft et OpenAI, le forum compte désormais également Amazon et Meta, élargissant ainsi son champ d'action à l'ensemble du secteur, la protection des modèles devenant une préoccupation majeure pour les principaux développeurs américains.

En mars 2025, le Frontier Model Forum a annoncé que toutes ses entreprises membres avaient signé un accord de partage d'informations volontaire portant sur trois catégories : les vulnérabilités et failles exploitables, les menaces liées à un accès ou une manipulation non autorisés, et les capacités préoccupantes susceptibles d'entraîner des dommages à grande échelle. Dans un point d'étape publié le 16 février 2026, le groupe a indiqué que ses membres avaient déjà utilisé le système pour partager les informations concernées et que son infrastructure juridique et technique était conçue pour protéger la propriété intellectuelle tout en garantissant la conformité aux règles de la concurrence.
La pression sur ce dossier s'est intensifiée le 23 février, lorsqu'Anthropic a publiquement accusé trois sociétés chinoises d'IA, DeepSeek, Moonshot AI et MiniMax, d'avoir mené des campagnes à grande échelle pour extraire des fonctionnalités de Claude, en violation de ses conditions d'utilisation. Anthropic a déclaré que ces campagnes avaient généré plus de 16 millions d'interactions via environ 24 000 faux comptes et ciblé certaines des fonctions les plus performantes de Claude, notamment le raisonnement, la programmation, l'utilisation d'outils, la vision par ordinateur et le contrôle informatique. L'entreprise a qualifié cette activité de « distillation à l'échelle industrielle » plutôt que d'une utilisation commerciale normale.
Canal de sécurité partagé
Anthropic a déclaré avoir relié les campagnes à des laboratoires spécifiques grâce à la corrélation des adresses IP, aux métadonnées des requêtes, aux indicateurs d'infrastructure et à la corroboration de partenaires de l'industrie ayant observé des comportements similaires sur leurs propres plateformes. L'entreprise a indiqué que les opérateurs utilisaient des comptes frauduleux et des services proxy pour accéder à Claude à grande échelle tout en échappant à la détection, et qu'un réseau proxy gérait simultanément plus de 20 000 comptes. Dans le cas de MiniMax, Anthropic a constaté un basculement du trafic dans les 24 heures suivant la mise à jour de Claude, près de la moitié de ce trafic étant redirigée vers le nouveau système.
Le Frontier Model Forum a réaffirmé ces préoccupations le même jour dans une note d'information définissant la distillation adverse comme un accès dissimulé ou indirect aux résultats d'un modèle afin d'entraîner un autre modèle à reproduire ses capacités, souvent en violation des termes de licence ou des conditions d'utilisation. La note précisait que le risque ne se limite pas à la duplication des performances, mais inclut également la possibilité que les capacités copiées se propagent sans les mesures de sécurité qui accompagnaient le système d'origine. Elle identifiait le raisonnement général, la programmation avancée, le traitement multimodal et l'utilisation d'outils agents comme des cibles privilégiées de ce type d'extraction.
Surveillance accrue à Washington
OpenAI a aussi soulevé la question auprès des législateurs américains. Dans une note adressée au comité spécial de la Chambre des représentants sur le Parti communiste chinois, l'entreprise a indiqué que des employés de DeepSeek avaient utilisé des routeurs tiers obscurcis et des méthodes d'accès automatisées pour obtenir des données de sortie à des fins de distillation. Les conditions d'utilisation d'OpenAI, mises à jour le 1er janvier 2026, interdisent à la fois l'extraction automatique des données de sortie et leur utilisation pour développer des modèles concurrents à ceux d'OpenAI. Ces restrictions placent la sécurité des données de sortie des modèles au même rang que le contrôle des puces et le contrôle d'accès dans la compétition plus large pour les systèmes d'IA avancés.
Ensemble, ces révélations montrent que les principaux développeurs américains considèrent l'extraction non autorisée de modèles comme une menace réelle pour la sécurité et la concurrence, et non comme un simple différend relatif aux conditions d'utilisation. Le Frontier Model Forum reste axé sur la sécurité de l'IA, mais son mécanisme de partage d'informations est désormais devenu un canal officiel d'échange d'alertes concernant les jailbreaks, les vecteurs d'attaque, les indicateurs de cybermenaces et autres tentatives d'accès non autorisé aux modèles d'IA de pointe. – Par Content Syndication Services .
L'article « OpenAI, Google et Anthropic renforcent leurs défenses en matière d'IA » est paru initialement dans le Little Rock Gazette .
