OpenAI a développé un outil sophistiqué capable de détecter les textes générés par son propre modèle, ChatGPT. Destiné à aider les enseignants et autres professionnels à identifier les contenus créés par IA, cet outil soulève de nombreuses questions éthiques et pratiques. Voici un aperçu de cette avancée et des débats qu’elle suscite au sein même de la société.
OpenAI : filigrane en débat
Depuis 2022, bien avant la sortie officielle de ChatGPT, OpenAI travaille sur un système de détection des textes générés par IA. Inspire par des solutions comme SynthID de Google, ce système utilise un filigrane textuel subtil, intégrant une signature invisible dans les textes produits par ChatGPT. Cette technologie, qui se targue d’une efficacité de 99,99%, pourrait révolutionner la manière dont les enseignants abordent la vérification des travaux des étudiants.
Cependant, cette avancée n’est pas sans provoquer des frictions au sein de l’entreprise. Si certains plaident pour son déploiement immédiat, d’autres craignent que cela ne décourage l’utilisation de l’IA par les utilisateurs. En effet, un sondage interne a révélé que 30% des utilisateurs seraient moins enclins à utiliser ChatGPT si ce système de filigrane était mis en place.
Les risques du filigrane textuel
La précision de la méthode de filigrane d’OpenAI est indéniable, mais elle n’est pas infaillible. Des chercheurs ont souligné que ce système pourrait être contourné par des techniques de reformulation complexe, l’utilisation de systèmes de traduction ou d’autres modèles génératifs. En outre, OpenAI reconnait que cette technologie pourrait être préjudiciable pour les utilisateurs non anglophones, qui pourraient être injustement pénalisés en raison des nuances linguistiques et des différences dans la gestion des langues par l’IA.
Pour parer à ces limitations, OpenAI explore actuellement des alternatives telles que l’utilisation de métadonnées crypto graphiquement signées, qui offriraient une détection sans faux positifs. Toutefois, cette solution est encore en phase préliminaire d’exploration.
OpenAI explore de nouvelles méthodes de détection IA
OpenAI n'est pas étranger à la détection de contenu généré par IA. Depuis le printemps dernier, la société teste déjà un outil similaire pour les images générées par DALL-E, et elle priorise actuellement les filigranes audio et visuels, en particulier en période d'élections où les dommages potentiels sont jugés plus graves.
Malgré les défis et les risques associés, l'innovation d'OpenAI en matière de détection de texte IA représente une étape importante dans la régulation de l'utilisation des intelligences artificielles. Reste à savoir si cette technologie sera adoptée largement, ou si les préoccupations éthiques et pratiques freineront son déploiement. Les débats internes et les retours des utilisateurs joueront un rôle crucial dans cette décision, reflet de l'équilibre délicat entre innovation et responsabilité éthique dans le domaine de l’IA.