Sommaire
OpenAI a annoncé hier, mardi, qu’elle avait commencé à entraîner un nouveau modèle d’intelligence artificielle révolutionnaire qui succédera à son modèle de base actuel, GPT-4, soutenant le célèbre robot de conversation, ChatGPT, selon le New York Times.
OpenAI annonce l’entraînement d’un nouveau modèle IA révolutionnaire
La société a déclaré dans un billet de blog qu’elle s’attend à ce que « le nouveau modèle offre un niveau supérieur de capacités » dans le cadre de ses efforts pour développer l’intelligence artificielle générale, une notion où le modèle pourrait accomplir les mêmes tâches que le cerveau humain.
Un nouveau modèle aux capacités supérieures
Le nouveau modèle sera utilisé pour gérer des produits d’intelligence artificielle tels que les robots de conversation, les assistants numériques, les moteurs de recherche et les modèles de génération d’images.
Une application large et diversifiée
Il peut falloir des mois, voire des années, pour entraîner des modèles d’intelligence artificielle. Après l’entraînement, les entreprises prennent généralement plusieurs mois supplémentaires pour tester et affiner la technologie afin de la rendre utilisable par le grand public. Cela signifie que le nouveau modèle d’OpenAI pourrait sortir dans environ neuf mois à un an, voire plus.
Entraînement et tests rigoureux
OpenAI a également annoncé la formation d’un nouveau comité de sécurité et de sûreté. Ce comité examinera les façons de faire face aux risques posés par le nouveau modèle et les technologies futures. « Bien que nous soyons fiers de développer et de lancer des modèles leaders de l’industrie en termes de capacités et de sécurité, nous accueillons les discussions sérieuses en cours à ce moment crucial », a ajouté la société.
Formation d’un comité de sécurité et de sûreté
OpenAI vise à développer des technologies d’intelligence artificielle plus rapidement que ses concurrents, tout en cherchant à apaiser les critiques qui pensent que ces technologies sont devenues plus dangereuses. Ces craintes comprennent la contribution de ces modèles à la diffusion de la désinformation, la peur de remplacer des emplois, et même la menace pour l’existence humaine, comme le rapportait le New York Times.
Objectifs compétitifs et critiques
Les opinions des experts varient quant au moment où les entreprises technologiques parviendront à développer une intelligence artificielle générale, mais des entreprises comme OpenAI, Google, Meta et Microsoft travaillent continuellement à renforcer la puissance de ces nouvelles technologies depuis plus d’une décennie, entraînant une avancée notable tous les deux à trois ans environ.
Participation à la course technologique
![Sam Altman, chef de la direction d’OpenAI, lors d’une session de panel au Forum économique mondial (WEF) à Davos, Suisse, le jeudi 18 janvier 2024. Le rassemblement annuel de Davos des leaders politiques, cadres supérieurs et célébrités se déroule du 15 au 19 janvier. Photographe : Stefan Wermuth/Bloomberg via Getty Images](https://aljazeera.net/wp-content/uploads/2024/01/GettyImages-1933965269-1705930832.jpg?w=770&resize=770%2C513)
Le nouveau comité de sécurité et de sûreté inclut le PDG Sam Altman (Getty)
OpenAI a déclaré que pendant l’entraînement de son nouveau modèle, le nouveau comité de sécurité et de sûreté travaillerait à améliorer les politiques et procédures de protection de cette technologie. Le comité comprend Sam Altman (PDG) ainsi que des membres du conseil d’administration, dont Brett Taylor, Adam D’Angelo et Nicole Seligman. La société a mentionné que les nouvelles politiques pourraient entrer en vigueur à la fin de l’été ou à l’automne prochain.
Renforcement des politiques de sécurité
Récemment, la société a décidé de dissoudre l’équipe axée sur les risques à long terme de l’intelligence artificielle après seulement un an de sa formation. Sa mission principale était de se concentrer sur les réalisations scientifiques et techniques pour orienter et contrôler des systèmes d’intelligence artificielle plus intelligents que nous.
Changements dans l’équipe de gestion des risques
Cette nouvelle est arrivée quelques jours après l’annonce du départ des dirigeants de l’équipe, à savoir Ilya Sutskever (cofondateur de la société) et Jan Leike. Sutskever n’a pas révélé les raisons de son départ, mais Leike a expliqué certains détails concernant son départ. Il a mentionné sur sa plateforme X que « la création de machines plus intelligentes que les humains est une entreprise intrinsèquement risquée. OpenAI porte une responsabilité immense au nom de toute l’humanité. Cependant, au cours des dernières années, la culture de sécurité et ses processus ont régressé au profit de produits plus attractifs. »
Départ des dirigeants de l’équipe des risques