Lundi, Elon Musk, le milliardaire américain, a annoncé qu'il bannirait l'utilisation des appareils Apple au sein de ses entreprises. Cette décision fait suite à l'annonce d'un partenariat entre le fabricant de l’iPhone et OpenAI, la société créatrice de ChatGPT.
Elon Musk n'a pas hésité à critiquer vivement l'intégration de ChatGPT dans iOS 18, la qualifiant de "violation inacceptable de la sécurité" et accusant Apple de transformer ses appareils en "logiciels espions". Il a même menacé de contraindre les visiteurs de ses entreprises à déposer leurs iPhone à l'entrée dans des cages de Faraday, pour bloquer les ondes électromagnétiques. En plus de cela, il prévoit d'interdire à ses employés de posséder un iPhone.
Réaction d'Apple
En réponse aux accusations d'Elon Musk, Apple a affirmé que l'utilisation de ChatGPT serait facultative et que les données des utilisateurs seraient protégées. La firme de Cupertino a réitéré son engagement envers la confidentialité et la sécurité des données, des principes souvent mis en avant dans sa communication.
"Très heureux de collaborer avec Apple pour intégrer ChatGPT dans leurs appareils plus tard cette année ! Je pense que vous allez vraiment apprécier."
Altman a à son tour répondu et a souligné que ce partenariat avec Apple permettrait d'offrir une expérience utilisateur enrichie et plus interactive. Il a ajouté que l'intégration de ChatGPT dans les appareils Apple renforcerait les capacités des utilisateurs en leur fournissant des outils d'intelligence artificielle de pointe directement à portée de main. Le propriétaire d'OpenAI a exprimé sa conviction que cette collaboration représenterait un grand pas en avant pour l'accessibilité et l'usage quotidien de l'IA.
Au-delà de la rivalité personnelle entre Elon Musk et OpenAI, cette affaire soulève des questions cruciales sur l'avenir de l'intelligence artificielle et son intégration dans notre quotidien. Les préoccupations d'Elon Musk, bien que parfois jugées excessives, reflètent les craintes légitimes d'une partie de la société concernant les risques potentiels de l'IA en matière de surveillance, de manipulation et de perte de contrôle.