Le 21 juin, Anthropic a fait une annonce majeure dans le monde de l'intelligence artificielle avec le lancement de Claude 3.5 Sonnet, une mise à jour significative de leur série Claude, qui rivalise directement avec GPT-4. Cette nouvelle version représente un bond en avant en termes d'intelligence artificielle, tout en maintenant des standards rigoureux de sécurité et de confidentialité.
Un Engagement en Matière de Sécurité et de Confidentialité
Anthropic met un point d'honneur à garantir la sécurité et la confidentialité de ses utilisateurs. Les modèles, y compris Claude 3.5 Sonnet, subissent des tests rigoureux et sont conçus pour minimiser les risques de mauvaise utilisation. Bien que Claude 3.5 Sonnet représente un progrès significatif en matière d'intelligence, les évaluations de red teaming ont conclu qu'il reste au niveau de sécurité ASL-2. Des informations détaillées sont disponibles dans l'addendum de la carte du modèle.
Dans le cadre de cet engagement en matière de sécurité et de transparence, Anthropic a collaboré avec des experts externes pour tester et affiner les mécanismes de sécurité de ce nouveau modèle. Claude 3.5 Sonnet a été soumis à une évaluation de sécurité pré-déploiement par l'Institut de Sécurité de l'Intelligence Artificielle du Royaume-Uni (UK AISI). Les résultats de cette évaluation ont été partagés avec l'Institut de Sécurité de l'Intelligence Artificielle des États-Unis (US AISI), conformément à un protocole d'accord rendu possible par le partenariat entre les AISIs des deux pays, annoncé plus tôt cette année.
Anthropic a intégré des retours de politiques provenant d'experts externes pour garantir que leurs évaluations sont robustes et prennent en compte les nouvelles tendances en matière d'abus. Cette collaboration a permis aux équipes d'Anthropic de renforcer leur capacité à évaluer Claude 3.5 Sonnet face à divers types de mauvaise utilisation. Par exemple, les retours des experts en sécurité des enfants de Thorn ont été utilisés pour mettre à jour les classificateurs et affiner les modèles.
L'un des principes constitutionnels fondamentaux qui guide le développement des modèles d'IA d'Anthropic est la confidentialité. Anthropic ne forme pas ses modèles génératifs sur les données soumises par les utilisateurs sans leur permission explicite. À ce jour, aucune donnée client ou soumise par les utilisateurs n'a été utilisée pour former leurs modèles génératifs.
Innovations et Prochaines Étapes
Anthropic vise à améliorer substantiellement la courbe de compromis entre intelligence, vitesse et coût tous les quelques mois. Pour compléter la famille de modèles Claude 3.5, Anthropic prévoit de lancer Claude 3.5 Haiku et Claude 3.5 Opus plus tard cette année.
En plus de travailler sur leur prochaine génération de modèles, Anthropic développe de nouvelles modalités et fonctionnalités pour soutenir davantage de cas d'utilisation pour les entreprises, y compris des intégrations avec des applications d'entreprise. Leur équipe explore également des fonctionnalités comme la Mémoire, qui permettra à Claude de se souvenir des préférences et de l'historique d'interaction d'un utilisateur tel que spécifié, rendant leur expérience encore plus personnalisée et efficace.
Anthropic est en constante amélioration de Claude et apprécie les retours de ses utilisateurs. Vous pouvez soumettre des commentaires sur Claude 3.5 Sonnet directement dans le produit pour influencer la feuille de route de développement et aider les équipes à améliorer votre expérience. Comme toujours, Anthropic est impatient de voir ce que les utilisateurs construiront, créeront et découvriront avec Claude.
Le lancement de Claude 3.5 Sonnet marque une étape importante pour Anthropic, consolidant leur position dans le domaine compétitif de l'intelligence artificielle tout en réaffirmant leur engagement envers la sécurité, la confidentialité et l'innovation.