Sommaire
# Culture de négligence chez OpenAI, employés alertent sur cataclysme
Révélations sur la culture interne d’OpenAI
Un groupe d’employés de la société OpenAI a dévoilé des critiques sur ce qu’ils décrivent comme une « culture d’insouciance et de manque de transparence » au sein de cette startup. Celle-ci est engagée dans une course acharnée pour développer les systèmes d’intelligence artificielle (IA) les plus puissants au monde, selon un rapport du New York Times.
Déclaration publique et soutien interne
Hier mardi, le groupe a publié une déclaration publique appelant les entreprises leaders dans le domaine de l’IA, dont OpenAI, à offrir plus de transparence et de protections aux employés lanceurs d’alerte. La déclaration a été signée par plusieurs anciens employés, dont William Saunders, Carol Wainwright, Jacob Hilton et Daniel Ziegler.
Lindsey Held, porte-parole d’OpenAI, a assuré que la société est fière de son bilan en matière de systèmes d’IA sûrs et efficaces, et que le débat sérieux est essentiel compte tenu de la valeur de la technologie.
Les employés d’OpenAI disent que l’entreprise n’a pas pris suffisamment de mesures pour empêcher le risque des systèmes d’IA futurs (française).
Moment critique
Selon le rapport, cette campagne arrive à un moment critique pour OpenAI, toujours en convalescence après une tentative de coup d’État interne l’année dernière. Le conseil d’administration avait alors voté pour le renvoi du PDG Sam Altman en raison de préoccupations sur sa transparence, avant de le réintégrer quelques jours plus tard.
L’entreprise fait également face à des batailles légales avec des créateurs de contenu qui l’accusent de violation de droits d’auteur pour l’entraînement de ses modèles d’IA. Le conflit public récent avec l’actrice Scarlett Johansson, qui a accusé OpenAI d’avoir utilisé sa voix sans autorisation, a aussi terni son image.
En mai dernier, deux des principaux chercheurs en sécurité chez OpenAI, Ilya Sutskever et John Leike, ont démissionné. Leike a exprimé ses préoccupations sur les risques inhérents à la création de machines plus intelligentes que les humains, reprochant à la société de sacrifier la sécurité pour les produits brillants.
Kokotajlo mentionne que Microsoft a commencé à tester une nouvelle version du moteur de recherche Bing en Inde en 2022 sans l’approbation du Conseil de sécurité (Getty).
Le monde n’est pas prêt
Daniel Kokotajlo, âgé de 31 ans, a rejoint OpenAI en 2022 en tant que chercheur en gouvernance. Demandé de prédire le développement de l’IA, il a d’abord estimé que l’AGI arriverait en 2050. Cependant, après avoir observé la rapidité des progrès, il a réduit l’échéance à 2027 avec une probabilité de 50%.
Il voit également un risque de 70% que l’IA avancée puisse causer des dommages catastrophiques à l’humanité. Bien que des protocoles de sécurité existent chez OpenAI, comme le Conseil de sécurité des applications en partenariat avec Microsoft, ils ralentissent rarement le rythme de travail de l’entreprise.
En 2022, Microsoft a testé une nouvelle version de Bing en Inde. Certains employés d’OpenAI ont soupçonné qu’elle incluait une version non publiée de GPT-4, sans l’approbation du Conseil de sécurité, même après des rapports sur des comportements étranges. Microsoft a démenti ces affirmations.
En avril dernier, Kokotajlo a quitté OpenAI, citant une perte de confiance dans la capacité de l’entreprise à agir de manière responsable.