
Une nouvelle étude menée par des chercheurs de l’ETH Zurich et de la société Anthropic met en lumière une évolution préoccupante : les grands modèles de langage (LLM), utilisés dans de nombreux chatbots modernes, peuvent désormais servir à identifier des internautes anonymes avec une efficacité remarquable. En analysant des profils pseudonymes présents sur différentes plateformes comme Hacker News, Reddit ou LinkedIn, les chercheurs ont démontré qu’un agent basé sur l’intelligence artificielle pouvait retrouver l’identité réelle d’un utilisateur en quelques minutes seulement. Une tâche qui demanderait habituellement plusieurs heures de travail à un enquêteur humain. Plus inquiétant encore, ces techniques fonctionnent même lorsque les données disponibles sont non structurées, par exemple dans des conversations ou des commentaires publiés en ligne. Cela remet en cause les méthodes traditionnelles d’anonymisation utilisées depuis des années pour protéger les internautes.
L’étude explique que les modèles de langage sont capables d’automatiser plusieurs étapes clés de la désanonymisation. Les chercheurs ont identifié trois capacités majeures des LLM :
Lors d’une expérience visant à relier des profils Hacker News à des comptes LinkedIn, les chercheurs ont obtenu 68 % de rappel avec 90 % de précision. Les méthodes classiques, quant à elles, n’ont pratiquement donné aucun résultat.Même dans des cas plus complexes, comme l’identification d’utilisateurs actifs sur plusieurs communautés Reddit, l’IA a réussi à reconnaître 8,5 % des profils avec un niveau de précision de 90 %, un résultat largement supérieur aux techniques traditionnelles incapables d’exploiter efficacement des données textuelles.
Un autre élément marquant de l’étude concerne la capacité de ces attaques à fonctionner sur des bases de données gigantesques. Les chercheurs ont estimé que, même avec un ensemble potentiel de 100 millions d’individus, leur méthode conserverait un taux d’identification significatif, avec environ 27 % de rappel pour une précision de 90 %.Cela signifie que plus la base de données analysée est grande, plus les modèles de langage disposent d’informations pour recouper les indices et identifier les personnes derrière les pseudonymes. Cette capacité à traiter des volumes massifs d’informations constitue un avantage majeur face aux algorithmes classiques.
Ces résultats suggèrent que l’anonymat en ligne pourrait devenir beaucoup plus fragile qu’auparavant. Pendant longtemps, l’utilisation de pseudonymes et l’absence de données sensibles comme les adresses ou les numéros de téléphone étaient considérées comme suffisantes pour protéger l’identité des internautes. Aujourd’hui, les modèles d’IA peuvent exploiter des micro-indices présents dans les textes, comme :
Ces détails, qui semblent anodins, peuvent être combinés pour reconstituer une identité avec une précision surprenante.
Les conséquences potentielles de ces techniques sont nombreuses. Les gouvernements pourraient s’en servir pour identifier des dissidents politiques ou des journalistes utilisant des pseudonymes. Les entreprises pourraient exploiter ces méthodes pour relier les discussions anonymes à des profils clients réels afin d’améliorer leur ciblage publicitaire. Du côté de la cybercriminalité, ces technologies pourraient être utilisées pour automatiser des campagnes de harcèlement, d’escroquerie ou d’ingénierie sociale, en identifiant rapidement des victimes potentielles sur les forums spécialisés. Un autre problème majeur est l’accessibilité de ces outils : les modèles d’IA et leurs API sont aujourd’hui largement disponibles, ce qui réduit fortement la barrière technique pour mener ce type d’attaque.
Un cas récent illustre déjà les dérives possibles. La start-up Anthropic, connue pour ses modèles d’IA Claude, a annoncé avoir détecté des campagnes d’extraction de données à grande échelle menées par plusieurs laboratoires d’intelligence artificielle. Selon l’entreprise, les sociétés DeepSeek, Moonshot et MiniMax auraient tenté d’exploiter le système afin d’améliorer leurs propres modèles. Anthropic affirme avoir repéré plus de 16 millions d’interactions avec son IA provenant d’environ 24 000 comptes frauduleux, utilisés pour contourner les restrictions d’accès et collecter des informations. Cette situation montre que l’exploitation massive des capacités des modèles d’IA n’est plus une simple hypothèse théorique.
Face à cette évolution, les chercheurs insistent sur la nécessité d’une prise de conscience du côté des utilisateurs. Publier sous pseudonyme ne garantit plus une protection complète de l’identité, surtout lorsque les messages contiennent des détails personnels ou professionnels. Les plateformes pourraient mettre en place plusieurs mesures :
Cette étude met en évidence un déséquilibre croissant entre les capacités offensives des modèles d’IA et les moyens actuels de protection. À mesure que les modèles deviennent plus puissants et accessibles, le coût des attaques diminue, tandis que celui des défenses augmente. Les fournisseurs d’IA pourraient intégrer des mécanismes pour détecter les tentatives de désanonymisation, mais la frontière entre usage légitime et usage malveillant reste difficile à définir. La question se pose désormais clairement : faut-il repenser entièrement la notion de vie privée à l’ère de l’intelligence artificielle ? Une interrogation qui concerne autant les législateurs, les plateformes numériques que les utilisateurs eux-mêmes.