OpenAI a annoncé la mise en place d’un nouveau comité de sûreté et de sécurité

OpenAI a annoncé la mise en place d’un nouveau comité de sûreté et de sécurité, mais aussi le développement d’un nouveau grand modèle d’IA.
Pourquoi on en parle ? La sécurité est devenue LA préoccupation du moment chez OpenAI. Depuis les démissions des vétérans de l’entreprise I. Sutskever et J. Leike, et la dissolution de leur équipe chargée de la sécurité, OpenAI multiplie les annonces pour rassurer l’opinion publique.
- “La culture et les processus de sécurité d’OpenAI ont été relégués au second plan par rapport aux produits qui brillent” selon J. Leike, qui a annoncé hier rejoindre Anthropic, un concurrent créé par d’anciens employés d’OpenAI et soutenu par Google et Amazon.
Dans les faits : Ce comité de sûreté et de sécurité, dirigé par le CEO Sam Altman, a “90 jours pour évaluer et améliorer les processus et garanties de l’organisation”. Le but est de renforcer la sécurité à court terme et travailler sur le “superalignement” à long terme, pour s’assurer que les futurs modèles ne se mettent pas à faire leur propre vie…
Pourquoi ? La stratégie d’OpenAI est de plus en plus claire : “If you build it larger, it will get smarter » (“Si vous le bâtissez à grande échelle, le modèle deviendra plus performant”). En clair, pour atteindre le Saint Graal de l’AGI (intelligence artificielle générale, une forme d’IA capable de raisonner au même niveau que l’être humain), OpenAI développe des modèles d’IA toujours plus grands appelés “modèle frontière”.
- Le modèle frontière peut être vu comme des groupements de paramètres d’IA, chacun ayant une tâche spécifique : reconnaître du texte, corriger la grammaire, traduire des langues, etc. Plus ces modèles ont de paramètres, plus ils peuvent capter de données et donc s’améliorer.
- C’est notamment grâce à cette stratégie qu’OpenAI arrive à faire des miracles, et qu’elle avance plus vite que des géants comme Google et Meta.
Problème : Ces modèles pourraient « posséder des capacités dangereuses suffisantes pour poser des risques graves pour la sécurité publique” selon OpenAI, et c’est notamment la raison pour laquelle les doutes sur la capacité de l’entreprise à contrôler sa technologie persistent.
Un peu de recul : Cette stratégie semble inévitable. Même Elon Musk, qui a quitté OpenAI en 2018 par souci de sécurité et de transparence, est en train de prendre le même chemin qu’OpenAI avec sa start-up xAI qui vient de lever 6 milliards de dollars.
- Ces fonds pourraient permettre à sa start-up de rattraper son retard sur OpenAI en créant des modèles toujours plus grands. Mais il compte aussi surtout s’appuyer sur son réseau social X pour entraîner ses modèles d’IA.
Bref. Disponible d’ici la fin de l’année, ChatGPT 5 va nous amener « au niveau suivant de capacités sur notre chemin vers l’AGI » selon OpenAI. Mais la course à l’AGI n’est pas sans risque…