Operai ha puesto a disposición una nueva versión de su modelo de idioma GPT-3 AI que promete ser mejor para seguir las intenciones de los usuarios al tiempo que produce resultados que son más veraces y menos tóxicos.
La API de AI Open funciona con modelos de lenguaje GPT-3 que se pueden usar para realizar tareas de lenguaje natural utilizando indicaciones de texto cuidadosamente diseñadas.Sin embargo, los modelos también pueden producir salidas que son falsas, tóxicas o reflejan sentimientos dañinos.
Los modelos de IA de la organización han sido criticados en el pasado por una variedad de deficiencias, incluido el racismo contra géneros y religiones específicas..La organización una vez llamó a GPT-3 demasiado peligrosa para hacer pública, debido a que la API puede crear noticias falsas tomando señales de las ocho millones de páginas web que había escaneado para aprender sobre el lenguaje.
La organización dijo que esto se debe en parte a que GPT-3 está capacitado para predecir la siguiente palabra en un gran conjunto de datos de texto de Internet en lugar de realizar de forma segura las tareas de lenguaje que el usuario desea..
Para hacer que sus modelos sean más seguros y más alineados con los usuarios, OpenAI utilizó una técnica conocida como aprendizaje de refuerzo de la retroalimentación humana (RLHF), utilizando ayudantes humanos llamados etiquetadores para ayudar a la IA en su aprendizaje.
"Según las indicaciones presentadas por nuestros clientes a la API, nuestros etiquetadores proporcionan demostraciones del comportamiento del modelo deseado y clasifican varios resultados de nuestros modelos.Luego usamos estos datos para ajustar GPT-3 ”, dijo la compañía.