Los propagandistas también utilizan la IA
El informe de amenazas adversas de OpenAI debería ser un preludio a más robusto intercambio de datos en el futuro. En lo que respecta a la IA, investigadores independientes han comenzado a crear bases de datos sobre abusos, como Base de datos de incidentes de IA y el Base de datos de incidentes políticos deepfake—para permitir a los investigadores comparar diferentes tipos de uso indebido y realizar un seguimiento de cómo el uso indebido cambia con el tiempo. Pero a menudo es duro para detectar abusos externos. A medida que las herramientas de IA se vuelven más capaces y ubicuas, es importante que los formuladores de políticas que consideran la posibilidad de regular comprendan cómo se utilizan y abusan de ellas. Si bien el primer informe de OpenAI ofreció resúmenes de alto nivel y ejemplos seleccionados, ampliar las relaciones de intercambio de datos con investigadores que brinden más visibilidad sobre contenidos o comportamientos conflictivos es un siguiente paso importante.
Cuando se trata de combatir las operaciones de influencia y el abuso de la IA, los usuarios de Internet también tienen un papel que desempeñar. Después de todo, este contenido sólo tiene impacto si las personas lo ven, lo creen y participan para compartirlo más. En uno de los casos revelados por OpenAI, los usuarios en línea denunciaron cuentas falsas utilizando texto generado por IA.
En nuestra propia investigación, tenemos visto Las comunidades de usuarios de Facebook exponen proactivamente contenido de imágenes generadas por IA creadas por spammers y estafadores, ayudando a aquellos que son menos conocedores de la tecnología a evitar ser víctimas del engaño. Una buena dosis de escepticismo es cada vez más útil: detenerse a comprobar si el contenido es real y si las personas son quienes dicen ser, y ayudar a amigos y familiares a ser más conscientes de la creciente prevalencia del contenido generado, puede ayudar a los usuarios de las redes sociales a resistir el engaño. propagandistas y delincuentes.
Abierto AI entrada en el blog El informe que anunciaba la eliminación lo decía de manera sucinta: “Los actores de amenazas trabajan en Internet. » Nosotros también. A medida que entramos en una nueva era de operaciones de influencia impulsadas por la IA, debemos abordar desafíos comunes a través de la transparencia, el intercambio de datos y la vigilancia colaborativa si esperamos desarrollar un ecosistema digital más resiliente.
Josh A. Goldstein es un investigador. en el Centro de Seguridad y Tecnologías Emergentes (CSET) de la Universidad de Georgetown, donde trabaja en el proyecto CyberAI. Renée DiResta es el director de investigación del Observatorio de Internet de Stanford y autor de Líderes invisibles: aquellos que convierten las mentiras en realidad.