¿Deberían los sistemas de IA venir con advertencias de seguridad?

Dado el poder de los sistemas de IA y el papel que juegan cada vez más para ayudar a tomar decisiones importantes sobre nuestras vidas, hogares y sociedades, reciben un escrutinio formal sorprendentemente pequeño.

Eso está empezando a cambiar, gracias al floreciente campo de las auditorías de IA. Cuando funcionan bien, estas auditorías nos permiten verificar de manera confiable que un sistema funciona correctamente y determinar cómo mitigar cualquier sesgo o daño potencial.

Famosos, un 2018 Auditoría Los sistemas comerciales de reconocimiento facial de los investigadores de inteligencia artificial Joy Buolamwini y Timnit Gebru descubrieron que el sistema no reconocía a las personas de piel más oscura ni a las personas blancas. Para las mujeres de piel oscura, la tasa de error fue del 34 %. Como señala la investigadora de inteligencia artificial Abeba Birhane en un nuevo juicio en la naturaleza, la auditoría “impulsó un cuerpo de trabajo crítico que expuso el sesgo, la discriminación y la naturaleza opresiva de los algoritmos de análisis facial”. La esperanza es que al hacer este tipo de auditorías en diferentes sistemas de IA, podamos eliminar mejor los problemas y tener una conversación más amplia sobre cómo los sistemas de IA afectan nuestras vidas. .

Los reguladores se están poniendo al día, lo que en parte impulsa la demanda de auditorías. A nueva ley en Nueva York comenzará a exigir que todas las herramientas de contratación basadas en IA sean auditadas a partir de enero de 2024. En la Unión Europea, las grandes empresas tecnológicas deberán realizar auditorías anuales de sus sistemas de IA a partir de 2024, y la próxima ley de IA requerirá auditorías de Sistemas de IA de “alto riesgo”.

Es una gran ambición, pero hay enormes obstáculos. No existe una comprensión común de cómo debería ser una auditoría de IA, y no hay suficientes personas con las habilidades adecuadas para realizarla. Las pocas auditorías que se realizan actualmente son en su mayoría ad hoc y varían mucho en calidad, me dijo Alex Engler, que estudia la gobernanza de la IA en la Institución Brookings. Un ejemplo que dio fue el de la empresa de contratación de inteligencia artificial HireVue, que participó en un comunicado de prensa que una auditoría externa reveló que sus algoritmos no tenían sesgos. Resultó que eso no tenía sentido: la auditoría en realidad no analizó los modelos de la empresa y estaba bajo un acuerdo de confidencialidad, lo que significaba que no había forma de verificar lo que había encontrado. Esencialmente no fue más que un truco publicitario.

Una forma en que la comunidad de IA está tratando de abordar la falta de oyentes es a través de competencias de recompensas por sesgos, que funcionan de manera similar a las recompensas por errores de ciberseguridad, es decir, invitan a las personas a crear herramientas para identificar y mitigar los sesgos algorítmicos en los modelos de IA. Tal competencia fue lanzada la semana pasada, organizada por un grupo de voluntarios, incluido el gerente ético de inteligencia artificial de Twitter, Rumman Chowdhury. El equipo detrás espera que este sea el primero de muchos.

Es una buena idea crear incentivos para que las personas aprendan las habilidades para realizar auditorías y también comenzar a establecer estándares sobre cómo deberían ser las auditorías al mostrar qué métodos funcionan mejor. Puedes encontrar mas aqui.

El crecimiento de estas auditorías sugiere que algún día podremos ver advertencias tipo paquete de cigarrillos. que los sistemas de IA podrían dañar su salud y seguridad. Otros sectores, como Productos Químicos y alimentos, realice auditorías periódicas para garantizar que los productos sean seguros de usar. ¿Podría algo como esto convertirse en la norma en la IA?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *