Accueil Industrie et technologie OpenAI lance une fonctionnalité anti-hallucination très attendue pour ChatGPT

OpenAI lance une fonctionnalité anti-hallucination très attendue pour ChatGPT

par Lina
A+A-
Réinitialiser
OpenAI lance une fonctionnalité anti-hallucination très attendue pour ChatGPT

OpenAI lance une fonctionnalité anti-hallucination très attendue pour ChatGPT

OpenAI a récemment annoncé le déploiement d’une nouvelle fonctionnalité pour son programme de chat ChatGPT, visant à rendre ses sources d’information plus transparentes lors de la génération de réponses en ligne. Cette avancée technologique marque une étape significative dans l’amélioration de la crédibilité des données produites par le système et vise à limiter les risques de diffusion de fausses informations ou d’informations non vérifiées.

La société a partagé la nouvelle via son compte officiel sur la plateforme Ex, soulignant que cette mise à jour accordera plus de contexte aux réponses de ChatGPT et facilitera la découverte de contenus émanant de divers éditeurs et créateurs en ligne.

À ce titre, le nouveau mécanisme de navigation, baptisé « Browse », sera exclusivement disponible dans les versions payantes de ChatGPT, notamment ChatGPT Plus et Enterprise, offrant ainsi un accès privilégié à cette fonctionnalité aux abonnés de ces services.

OpenAI ChatGPT

La quête de légitimité et de transparence

Cette initiative vise à renforcer la légitimité des informations générées par ChatGPT, réduisant ainsi les risques d’interprétations erronées ou de publications basées sur des « hallucinations » provenant du système lui-même sans aucune référence vérifiable. Les utilisateurs auront désormais la possibilité de suivre les liens sources par eux-mêmes, accédant ainsi à davantage de détails sur les sujets qui les intéressent.

ChatGPT fait ainsi écho à d’autres assistants virtuels tels que « Copilot » de Microsoft, qui expose également ses sources d’informations aux utilisateurs, qu’ils disposent d’un compte standard ou de l’abonnement premium « Copilot Pro ». Il s’appuie sur des modèles linguistiques tels que GPT-4 d’OpenAI pour sa performance.

De son côté, l’assistant virtuel « Jiminy » de Google divulgue également ses sources via des liens en fin de réponse, facilitant ainsi la vérification des données pour les utilisateurs.

Leadership et transparence technologiques

Les utilisateurs d’outils d’intelligence artificielle générative ont souvent été confrontés à des problèmes d’authenticité des informations fournies, ces outils ayant tendance à produire des contenus inventés, incomplets ou inexacts en réponse à des requêtes variées. Cette nouvelle fonctionnalité représente une avancée majeure dans le domaine, soulignant l’engagement des entreprises technologiques à promouvoir la transparence et la crédibilité des connaissances partagées en ligne.

Laissez un commentaire

*En utilisant ce formulaire, vous acceptez le stockage et la gestion de vos données par ce site web.


Droits d’auteur © 2024 – unsujet.fr – Tous droits réservés

Bienvenue sur unsujet.fr ! 🌟 Nous utilisons des cookies pour améliorer votre expérience sur notre site. Ces petits fichiers sont essentiels pour le bon fonctionnement de notre site et nous aident à comprendre comment vous l'utilisez, afin de le rendre encore plus intéressant et pertinent pour vous. En continuant à naviguer sur unsujet.fr, vous acceptez notre utilisation des cookies. Si vous souhaitez en savoir plus sur notre politique de confidentialité et les cookies que nous utilisons, cliquez sur "En savoir plus". Vous pouvez également choisir de refuser les cookies non essentiels en cliquant sur "Refuser". Merci de votre visite et bonne lecture sur unsujet.fr ! 📚🌍 Accepter En savoir plus