OpenAI a rendu une nouvelle version de son modèle de langue GPT-3 AI disponible qui promet d'être meilleure à suivre les intentions des utilisateurs tout en produisant des résultats plus véridiques et moins toxiques.
L'API AI ouverte est alimentée par des modèles de langue GPT-3 qui peuvent être utilisés pour effectuer des tâches de langage naturel en utilisant des invites de texte soigneusement conçues.Cependant, les modèles peuvent également produire des sorties qui sont mensongées, toxiques ou reflètent des sentiments nocifs.
Les modèles d'IA de l'organisation ont été critiqués dans le passé pour une gamme de lacunes, y compris le racisme contre les sexes et les religions spécifiques.L'organisation appelait autrefois GPT-3 trop dangereuse pour rendre publique, en raison de la possibilité de créer de fausses nouvelles en prenant des repères des huit millions de pages Web qu'il avait scannées pour en savoir plus sur la langue.
L'organisation a déclaré que c'est en partie parce que GPT-3 est formé pour prédire le mot suivant sur un grand ensemble de données de texte Internet au lieu d'exécuter en toute sécurité les tâches de langue que veut l'utilisateur.
Pour rendre ses modèles plus sûrs et plus alignés avec les utilisateurs, OpenAI a utilisé une technique connue sous le nom d'apprentissage du renforcement de la rétroaction humaine (RLHF), en utilisant des aides humaines appelées étiqueteurs pour aider l'IA dans son apprentissage.
«Sur les invites soumises par nos clients à l'API, nos étiqueteurs fournissent des démonstrations du comportement du modèle souhaité et classent plusieurs sorties de nos modèles.Nous utilisons ensuite ces données pour affiner GPT-3 », a déclaré la société.