OpenAI, leader dans la course au développement de l'intelligence artificielle aussi intelligente qu'un humain, est de nouveau sous le feu des critiques. Selon un rapport du Washington Post, des employés anonymes ont exprimé de sérieuses préoccupations concernant les protocoles de sécurité de l'organisation. Un employé anonyme a même affirmé que les tests de sécurité avaient été précipités et que la célébration du produit avait été planifiée avant même de s'assurer de sa sécurité.
Des Problèmes de Sécurité Répétés
Les inquiétudes concernant la sécurité chez OpenAI ne sont pas nouvelles. Plusieurs employés actuels et anciens ont récemment signé une lettre ouverte demandant de meilleures pratiques de sécurité et de transparence. Cette lettre fait suite à la dissolution de l'équipe de sécurité après le départ du cofondateur Ilya Sutskever. Jan Leike, un chercheur clé d'OpenAI, a également démissionné, affirmant que « la culture de la sécurité et les processus ont été relégués au second plan au profit de produits brillants».
Une Pression Croissante et des Réponses Insuffisantes
Les efforts de relations publiques d'OpenAI, bien qu'importants, ne suffiront pas à protéger la société. "Nous sommes fiers de notre bilan en fournissant les systèmes d'IA les plus capables et les plus sûrs et croyons en notre approche scientifique pour aborder les risques," a déclaré la porte-parole d'OpenAI, Taya Christianson, au Verge. « Un débat rigoureux est crucial compte tenu de l'importance de cette technologie, et nous continuerons à dialoguer avec les gouvernements, la société civile et d'autres communautés dans le monde entier au service de notre mission».
L'IA d'OpenAI : Une Bombe à Retardement en Matière de Sécurité ?
Les enjeux autour de la sécurité, selon OpenAI et d'autres chercheurs, sont immenses. Un rapport commandé par le Département d'État américain en mars a déclaré que "le développement actuel de l'IA de pointe pose des risques urgents et croissants pour la sécurité nationale." Les controverses continues, comme l'incident "Her", et le coup de théâtre dans la salle de réunion qui a brièvement évincé le PDG Sam Altman, n'ont fait qu'alimenter les préoccupations.
La Nécessité d'une Transparence Accrue
Face aux critiques croissantes, OpenAI a tenté d'apaiser les craintes avec des annonces opportunes. Cette semaine, l'organisation a annoncé une collaboration avec le Laboratoire national de Los Alamos pour explorer comment les modèles d'IA avancés, comme le GPT-4o, peuvent aider en toute sécurité la recherche bioscientifique. Pourtant, ces annonces semblent plus être des mesures défensives en réponse aux critiques croissantes de ses pratiques de sécurité.
L'importance de la transparence et de la sécurité dans le développement de l'IA ne peut être sous-estimée. Alors que les outils d'IA peuvent être révolutionnaires, les préoccupations concernant la concentration du contrôle de ces outils entre les mains de quelques entreprises sont légitimes. Si les nombreuses allégations contre les protocoles de sécurité de l'entreprise sont fondées, cela soulève de sérieuses questions sur la capacité d'OpenAI à jouer le rôle de gardien de l'AGI, un rôle que l'organisation s'est essentiellement attribué elle-même .
Au final, la sécurité chez OpenAI est un sujet brûlant qui nécessite une attention immédiate et approfondie. Les efforts de communication ne suffiront pas à apaiser les inquiétudes. Ce qui compte vraiment, c'est l'impact potentiel sur les personnes au-delà de la bulle de la Silicon Valley si OpenAI continue à développer des IA sans protocoles de sécurité stricts.