La UE quiere responsabilizar a las empresas por la IA dañina

El nuevo proyecto de ley, llamado Directiva de responsabilidad de IA, agregará fuerza a la ley de IA de la UE, que se espera que se convierta en ley de la UE casi al mismo tiempo. La ley de IA requeriría controles adicionales para los usos de IA de “alto riesgo” que tienen el mayor potencial para dañar a las personas, incluida la vigilancia, el reclutamiento o los sistemas de atención médica.

El nuevo Proyecto de Ley de Responsabilidad otorgaría a las personas y empresas el derecho a demandar por daños y perjuicios después de haber sido dañados por un sistema de IA. El objetivo es responsabilizar a los desarrolladores, productores y usuarios de tecnología y pedirles que expliquen cómo se construyeron y entrenaron sus sistemas de IA. Las empresas tecnológicas que no siguen las normas se enfrentan a demandas colectivas en toda la UE.

Por ejemplo, los solicitantes de empleo que puedan demostrar que un sistema de inteligencia artificial para filtrar currículos los ha discriminado pueden pedir a un tribunal que obligue a la empresa de inteligencia artificial a darles acceso a la información del sistema para que puedan identificar a los responsables y averiguar qué. salió mal. Armados con esta información, pueden proceder.

La propuesta aún tiene que abrirse camino a través del proceso legislativo de la UE, que llevará al menos algunos años. Será cambiado por miembros del Parlamento Europeo y los gobiernos de la UE y probablemente será objeto de un intenso cabildeo por parte de las empresas tecnológicas, que reclamar que tales reglas podrían tener un efecto “escalofriante” en la innovación.

Ya sea que tenga éxito o no, esta nueva legislación europea tendrá un efecto dominó en la forma en que se regula la IA en todo el mundo.

En particular, el proyecto de ley podría tener un impacto negativo en el desarrollo de software, dice Mathilde Adjutor, gerente de políticas europeas del grupo de cabildeo tecnológico CCIA, que representa a empresas como Google, Amazon y Uber.

Según las nuevas reglas, “los desarrolladores no solo corren el riesgo de ser considerados responsables de los errores del software, sino también del impacto potencial del software en la salud mental de los usuarios”, dice.

Imogen Parker, directora asociada de políticas del Instituto Ada Lovelace, un instituto de investigación de IA, dice que el proyecto de ley transferirá el poder de las empresas a los consumidores, una corrección que considera particularmente importante dado el potencial de discriminación de la IA. Y el proyecto de ley garantizará que cuando un sistema de IA cause daños, haya una forma común de buscar una compensación en toda la UE, dice Thomas Boué, jefe de política de la UE para el grupo de presión tecnológico BSA, cuyos miembros incluyen a Microsoft e IBM.

Sin embargo, algunas organizaciones y activistas de los derechos de los consumidores dicen que las propuestas no van lo suficientemente lejos y pondrán el listón demasiado alto para los consumidores que quieran quejarse.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *