mayo 4, 2024

Todas las respuestas del chatbot están inventadas. Esta nueva herramienta podría ayudarle a determinar en quién confiar.

El modelo de confianza lingüística se basa en varias técnicas para calcular sus puntuaciones. Primero, cada consulta enviada a la herramienta se envía a varios modelos de lenguaje grandes diferentes. Cleanlab utiliza cinco versiones de DBRX, un modelo de código abierto desarrollado por Databricks, una empresa de inteligencia artificial con sede en San Francisco. (Pero la tecnología funcionará con cualquier modelo, dice Northcutt, incluidos los modelos Llama de Meta o la serie GPT de OpenAI, los modelos detrás de ChatpGPT). Si las respuestas de cada uno de esos modelos son iguales o similares, contribuirá a una puntuación más alta.

Al mismo tiempo, el modelo de lenguaje de confianza también envía variaciones de la consulta original a cada uno de los modelos DBRX, intercambiando palabras con el mismo significado. Nuevamente, si las respuestas a consultas sinónimas son similares, esto contribuirá a una puntuación más alta. «Los manipulamos de diferentes maneras para obtener resultados diferentes y ver si están de acuerdo», dice Northcutt.

La herramienta también puede permitir que varios modelos intercambien sus respuestas entre sí: «Es como, ‘Aquí está mi respuesta, ¿qué piensas?’ » “Bueno, aquí está el mío, ¿qué te parece?” Y les dejas hablar. Estas interacciones se monitorean, miden y también se incluyen en la puntuación.

Nick McKenna, científico informático de Microsoft Research en Cambridge, Reino Unido, que trabaja en grandes modelos de lenguaje para la generación de código, es optimista sobre la utilidad de este enfoque. Pero duda que sea perfecto. «Uno de los peligros que vemos en las alucinaciones de modelos es que pueden aparecer de manera muy sutil», dice.

En una serie de pruebas realizadas en diferentes modelos de lenguaje grandes, Cleanlab muestra que sus puntuaciones de confiabilidad se correlacionan bien con la precisión de las respuestas de estos modelos. Es decir, puntuaciones cercanas a 1 corresponden a respuestas correctas y puntuaciones cercanas a 0 corresponden a respuestas incorrectas. En otra prueba, también descubrieron que usar el modelo de lenguaje de confianza con GPT-4 producía respuestas más confiables que usar GPT-4 solo.

Los modelos de lenguaje grandes generan texto prediciendo la siguiente palabra más probable en una secuencia. En futuras versiones de su herramienta, Cleanlab planea hacer que sus puntuaciones sean aún más precisas basándose en las probabilidades utilizadas por un modelo para hacer estas predicciones. También quiere acceder a los valores numéricos que los modelos asignan a cada palabra de su vocabulario, que utilizan para calcular estas probabilidades. Este nivel de detalle lo proporcionan algunas plataformas, como Bedrock de Amazon, que las empresas pueden utilizar para ejecutar grandes modelos de lenguaje.

Cleanlab probó su enfoque con datos proporcionados por Berkeley Research Group. La empresa tuvo que buscar en decenas de miles de documentos corporativos referencias a cuestiones de cumplimiento sanitario. Hacer esto a mano puede llevar semanas al personal capacitado. Al verificar documentos utilizando el Trust Language Model, Berkeley Research Group pudo ver en qué documentos confiaba menos el chatbot y verificar solo esos. Esto redujo la carga de trabajo en aproximadamente un 80 por ciento, dice Northcutt.

En otra prueba, Cleanlab trabajó con un banco grande (Northcutt no quiso nombrarlo, pero dice que es un competidor de Goldman Sachs). Al igual que el Berkeley Research Group, el banco tuvo que buscar en unos 100.000 documentos referencias a reclamaciones de seguros. Una vez más, el modelo de lenguaje de confianza ha reducido a más de la mitad el número de documentos que deben verificarse manualmente.

Ejecutar cada consulta varias veces a través de varias plantillas lleva más tiempo y cuesta mucho más que los tradicionales intercambios con un solo chatbot. Pero Cleanlab presenta Trusted Language Model como un servicio premium para automatizar tareas de alto riesgo que en el pasado habrían estado fuera del alcance de grandes modelos de lenguaje. La idea no es reemplazar los chatbots existentes sino hacer el trabajo de expertos humanos. Si la herramienta puede reducir el tiempo que lleva contratar economistas o abogados calificados a 2.000 dólares la hora, los costos valdrán la pena, afirma Northcutt.

A largo plazo, Northcutt espera que al reducir la incertidumbre que rodea a las respuestas de los chatbots, su tecnología desbloquee la promesa de excelentes modelos de lenguaje para una gama más amplia de usuarios. «El problema de las alucinaciones no es un problema de patrones del lenguaje a gran escala», afirma. «Es un problema de incertidumbre».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *