El nuevo chatbot de DeepMind usa búsquedas de Google y humanos para dar mejores respuestas

La diferencia entre este enfoque y sus predecesores es que DeepMind espera utilizar un «diálogo a largo plazo para la seguridad», dice Geoffrey Irving, investigador de seguridad de DeepMind.

“Esto significa que no esperamos que los problemas que enfrentamos en estos modelos, ya sea información errónea, estereotipos u otros, sean obvios a primera vista, y queremos hablar sobre ellos en detalle. Y eso también significa entre máquinas y humanos”, dice.

La idea de DeepMind de usar las preferencias humanas para optimizar cómo aprende un modelo de IA no es nueva, dice Sara Hooker, quien dirige Cohere for AI, un laboratorio de investigación de IA sin fines de lucro.

«Pero las mejoras son convincentes y muestran claros beneficios para la optimización guiada por humanos de los agentes de diálogo en un entorno de modelo de lenguaje extendido», dice Hooker.

Douwe Kiela, chercheur à la start-up d’IA Hugging Face, déclare que Sparrow est «une belle prochaine étape qui suit une tendance générale en IA, où nous essayons plus sérieusement d’améliorer les aspects de sécurité des déploiements de modèles de grande lengua».

Pero todavía queda mucho trabajo por hacer antes de que estos modelos de IA conversacionales puedan implementarse en la naturaleza.

Sparrow todavía comete errores. El modelo a veces se desvía del tema o inventa respuestas aleatorias. Los participantes determinados también lograron que el modelo rompiera las reglas el 8% de las veces. (Esto sigue siendo una mejora con respecto a los modelos anteriores: los modelos anteriores de DeepMind rompieron las reglas tres veces más a menudo que Sparrow).

“Para áreas donde el daño humano puede ser alto si un oficial responde, como brindar asesoramiento médico y financiero, esto aún puede parecerles a muchos una tasa de falla inaceptable”, dice Hooker. La obra también se construye en torno a un modelo inglés. , “ya ​​que vivimos en un mundo donde la tecnología debe servir de manera segura y responsable a muchos idiomas diferentes”, agrega.

Y Kiela señala otro problema: «Confiar en Google para encontrar información conduce a sesgos desconocidos que son difíciles de descubrir, dado que todo es de fuente cerrada».

Deja una respuesta

Tu dirección de correo electrónico no será publicada.