No hay plaza de Tiananmen en ERNIE-ViLG, la nueva IA de creación de imágenes china

En la China actual, las empresas de redes sociales suelen tener listas propietarias de palabras confidenciales, construidos tanto a partir de instrucciones gubernamentales como de sus propias decisiones operativas. Esto significa que cualquier filtro que usen los empleados de ERNIE-ViLG probablemente difiera de los que usa WeChat, propiedad de Tencent, o Weibo, que es operado por Sina Corporation. Algunas de estas plataformas han sido sistema probado por el grupo de investigación con sede en Toronto Citizen Lab.

Badiucao, un caricaturista político chino-australiano (que usa el alias de su obra de arte para proteger su identidad), fue uno de los primeros usuarios en detectar la censura en ERNIE-ViLG. Muchas de sus obras de arte critican directamente al gobierno chino o a sus líderes políticos, por lo que estas fueron algunas de las primeras sugerencias que puso en el modelo. “Por supuesto, también estaba explorando intencionalmente su ecosistema. Como es un territorio nuevo, tengo curiosidad por saber si la censura lo ha alcanzado”, dice Badiucao. «Objetivo [the result] es una pena.”

Como artista, Badiucao no está de acuerdo con ninguna forma de moderación en estas IA, incluido el enfoque adoptado por DALL-E 2, porque cree que debería ser él quien decida qué es aceptable en su propio arte. Pero aun así, advierte que la censura impulsada por preocupaciones morales no debe confundirse con la censura por razones políticas. “Es diferente cuando una IA juzga lo que no puede generar con base en estándares morales comúnmente acordados y cuando un gobierno, como tercero, entra y dice que no puede hacer esto porque daña al país o al gobierno nacional”. él dice.

La dificultad de identificar una línea clara entre la censura y la moderación también es el resultado de las diferencias entre culturas y regímenes legales, dice Giada Pistilli, ética principal de Hugging Face. Por ejemplo, diferentes culturas pueden interpretar las mismas imágenes de manera diferente. “Cuando se trata de símbolos religiosos, en Francia no se permite nada en público, y esa es su expresión de secularismo”, dice Pistilli. “Cuando vas a Estados Unidos, el laicismo significa que todo, como cualquier símbolo religioso, está permitido”. En enero, el gobierno chino propuso un nuevo reglamento prohibir cualquier contenido generado por IA que “ponga en peligro la seguridad nacional y la estabilidad social”, lo que cubriría IA como ERNIE-ViLG.

Lo que podría ayudar en el caso de ERNIE-ViLG es que el desarrollador publique un documento que explique las decisiones de moderación, dice Pistilli: “¿Está censurado porque es la ley la que les dice que lo hagan? ¿Están haciendo eso porque creen que está mal? Siempre ayuda explicar nuestros argumentos, nuestras elecciones”.

A pesar de la censura incorporada, ERNIE-ViLG seguirá siendo un actor importante en el desarrollo de IA de texto a imagen a gran escala. La aparición de modelos de IA entrenados en conjuntos de datos de idiomas específicos compensa algunas de las limitaciones de los modelos convencionales basados ​​en inglés. En particular, ayudará a los usuarios que necesitan una IA que comprenda el idioma chino y pueda generar imágenes precisas en consecuencia.

Así como las plataformas de redes sociales chinas han prosperado a pesar de la censura rigurosa, ERNIE-ViLG y otros modelos chinos de IA pueden eventualmente experimentar lo mismo: son demasiado útiles para darse por vencidos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.