Accueil High-tech Culture de négligence chez OpenAI, employés alertent sur cataclysme

Culture de négligence chez OpenAI, employés alertent sur cataclysme

par Lina
Faire un don
A+A-
Réinitialiser
Culture de négligence chez OpenAI, employés alertent sur cataclysme

# Culture de négligence chez OpenAI, employés alertent sur cataclysme

<section>
<h2>Révélations sur la culture interne d’OpenAI</h2>
<p>
Un groupe d’employés de la société OpenAI a dévoilé des critiques sur ce qu’ils décrivent comme une « culture d’insouciance et de manque de transparence » au sein de cette startup. Celle-ci est engagée dans une course acharnée pour développer les systèmes d’intelligence artificielle (IA) les plus puissants au monde, selon un rapport du New York Times.
</p>
<ul>
<li>Neuf employés actuels et anciens ont exprimé des craintes communes que la société n’ait pas pris suffisamment de mesures pour empêcher les systèmes d’IA de poser un risque futur.</li>
<li>Ils soulignent que la priorité d’OpenAI semble être davantage axée sur les bénéfices et la croissance, au détriment de la sécurité, alors que l’entreprise cherche à développer l’intelligence artificielle générale (AGI).</li>
<li>Les employés dénoncent également des méthodes strictes contre ceux qui expriment des préoccupations, comme la signature d’accords de non-divulgation restrictifs pour les employés démissionnaires.</li>
</ul>
</section>

<section>
<h2>Déclaration publique et soutien interne</h2>
<p>
Hier mardi, le groupe a publié une déclaration publique appelant les entreprises leaders dans le domaine de l’IA, dont OpenAI, à offrir plus de transparence et de protections aux employés lanceurs d’alerte. La déclaration a été signée par plusieurs anciens employés, dont William Saunders, Carol Wainwright, Jacob Hilton et Daniel Ziegler.
</p>
<ul>
<li>Daniel Kokotajlo, ancien chercheur en gouvernance chez OpenAI, a ajouté que de nombreux employés actuels soutiennent cette lettre de manière anonyme par crainte de représailles.</li>
<li>Un employé actuel et un ancien de Google DeepMind ont également signé la lettre.</li>
</ul>
<p>
Lindsey Held, porte-parole d’OpenAI, a assuré que la société est fière de son bilan en matière de systèmes d’IA sûrs et efficaces, et que le débat sérieux est essentiel compte tenu de la valeur de la technologie.
</p>
</section>

<section>
<img src= »https://aljazeera.net/wp-content/uploads/2023/02/000_337P9FB.jpg?w=770&resize=770%2C513″ alt= »OpenAI » />
<p>
Les employés d’OpenAI disent que l’entreprise n’a pas pris suffisamment de mesures pour empêcher le risque des systèmes d’IA futurs (française).
</p>
</section>

<section>
<h2>Moment critique</h2>
<p>
Selon le rapport, cette campagne arrive à un moment critique pour OpenAI, toujours en convalescence après une tentative de coup d’État interne l’année dernière. Le conseil d’administration avait alors voté pour le renvoi du PDG Sam Altman en raison de préoccupations sur sa transparence, avant de le réintégrer quelques jours plus tard.
</p>
<p>
L’entreprise fait également face à des batailles légales avec des créateurs de contenu qui l’accusent de violation de droits d’auteur pour l’entraînement de ses modèles d’IA. Le conflit public récent avec l’actrice Scarlett Johansson, qui a accusé OpenAI d’avoir utilisé sa voix sans autorisation, a aussi terni son image.
</p>
<p>
En mai dernier, deux des principaux chercheurs en sécurité chez OpenAI, Ilya Sutskever et John Leike, ont démissionné. Leike a exprimé ses préoccupations sur les risques inhérents à la création de machines plus intelligentes que les humains, reprochant à la société de sacrifier la sécurité pour les produits brillants.
</p>
</section>

<section>
<img src= »https://aljazeera.net/wp-content/uploads/2023/03/GettyImages-1087962222.jpg?w=770&resize=770%2C514″ alt= »Bing search » />
<p>
Kokotajlo mentionne que Microsoft a commencé à tester une nouvelle version du moteur de recherche Bing en Inde en 2022 sans l’approbation du Conseil de sécurité (Getty).
</p>
</section>

<section>
<h2>Le monde n’est pas prêt</h2>
<p>
Daniel Kokotajlo, âgé de 31 ans, a rejoint OpenAI en 2022 en tant que chercheur en gouvernance. Demandé de prédire le développement de l’IA, il a d’abord estimé que l’AGI arriverait en 2050. Cependant, après avoir observé la rapidité des progrès, il a réduit l’échéance à 2027 avec une probabilité de 50%.
</p>
<p>
Il voit également un risque de 70% que l’IA avancée puisse causer des dommages catastrophiques à l’humanité. Bien que des protocoles de sécurité existent chez OpenAI, comme le Conseil de sécurité des applications en partenariat avec Microsoft, ils ralentissent rarement le rythme de travail de l’entreprise.
</p>
<p>
En 2022, Microsoft a testé une nouvelle version de Bing en Inde. Certains employés d’OpenAI ont soupçonné qu’elle incluait une version non publiée de GPT-4, sans l’approbation du Conseil de sécurité, même après des rapports sur des comportements étranges. Microsoft a démenti ces affirmations.
</p>
<p>
En avril dernier, Kokotajlo a quitté OpenAI, citant une perte de confiance dans la capacité de l’entreprise à agir de manière responsable.
</p>
</section>

Laissez un commentaire

*En utilisant ce formulaire, vous acceptez le stockage et la gestion de vos données par ce site web.


Droits d’auteur © 2024 – unsujet.fr – Tous droits réservés

Bienvenue sur unsujet.fr ! 🌟 Nous utilisons des cookies pour améliorer votre expérience sur notre site. Ces petits fichiers sont essentiels pour le bon fonctionnement de notre site et nous aident à comprendre comment vous l'utilisez, afin de le rendre encore plus intéressant et pertinent pour vous. En continuant à naviguer sur unsujet.fr, vous acceptez notre utilisation des cookies. Si vous souhaitez en savoir plus sur notre politique de confidentialité et les cookies que nous utilisons, cliquez sur "En savoir plus". Vous pouvez également choisir de refuser les cookies non essentiels en cliquant sur "Refuser". Merci de votre visite et bonne lecture sur unsujet.fr ! 📚🌍 Accepter En savoir plus