Prepárese para la próxima generación de IA

Para recibir El Algoritmo en su buzón todos los lunes,registrarse aquí.

¡Bienvenido al algoritmo!

¿Alguien más se siente mareado? Así como la comunidad de IA se estaba enfocando en los increíbles avances en los sistemas de texto a imagen, ya nos estamos moviendo hacia la siguiente frontera: texto a video.

A fines de la semana pasada, Meta presentó Make-A-Video, una IA que genera videos de cinco segundos a partir de mensajes de texto.

Basado en código abiertoconjuntos de datosMake-A-Video te permite escribir una cadena de palabras, como “Un perro vestido con un traje de superhéroe con una capa roja volando por el cielo”, y luego genera un clip que, aunque es bastante preciso, tiene la estética de un trippy. viejo video casero.

El desarrollo es un gran avance en la IA generativa que también plantea cuestiones éticas difíciles. Crear videos a partir de indicaciones de texto es mucho más difícil y costoso que generar imágenes, y es impresionante que Meta haya encontrado una manera de hacerlo tan rápido. Pero a medida que se desarrolla la tecnología, existe el temor de que se explote como una herramienta poderosa para crear y difundir información errónea. Puedes leer mi historia al respecto aquí.

Sin embargo, solo unos días después de su anuncio, el sistema de Meta ya comienza a parecer un poco básico.Este es uno de los muchos modelos de texto a video presentados en documentos a una de las principales conferencias de IA, la Conferencia Internacional sobre Representaciones del Aprendizaje.

Otro, llamadoFenakies aún más avanzado.

Puede generar un video a partir de una imagen fija y un mensaje en lugar de solo un mensaje de texto. También puede crear clips mucho más largos: los usuarios pueden crear videos de varios minutos basados ​​en varias indicaciones diferentes que forman el guión del video. (Par exemple : “Un ours en peluche photoréaliste nage dans l’océan à San Francisco. L’ours en peluche va sous l’eau. L’ours en peluche continue de nager sous l’eau avec des poissons colorés. Un panda nage bajo el agua.”)

Vídeo generado por Phenaki.

Tal tecnología podría revolucionar el cine y la animación.Es francamente asombroso lo rápido que sucedió esto. DALL-E se lanzó el año pasado. Es a la vez muy emocionante y un poco aterrador pensar en dónde estaremos el próximo año a estas alturas.

Los investigadores de Google también enviaron un documento a la conferencia sobre su nuevo modelo llamadoSueñoFusión, que genera imágenes en 3D basadas en indicaciones de texto. Los modelos 3D se pueden ver desde cualquier ángulo, la iluminación se puede cambiar y el modelo se puede sumergir en cualquier entorno 3D.

No espere jugar con estos modelos en el corto plazo.Meta aún no lanza Make-A-Video al público. Es una buena cosa. El modelo de Meta se entrena con el mismo conjunto de datos de imágenes de código abierto que estaba detrás de Stable Diffusion. La compañía dice que filtró el lenguaje tóxico y las imágenes NSFW, pero eso no garantiza que haya capturado todos los matices de la molestia humana cuando los conjuntos de datos consisten en millones y millones de muestras. Y la compañía no tiene exactamente un historial excepcional de reducción de daños de los sistemas que construye, para decirlo a la ligera.

Los creadores de Pheraki escriben en supapelque si bien los videos producidos por su modelo aún no son indistinguibles en calidad de los reales, esto “está dentro del ámbito de lo posible, incluso hoy”. Los creadores de los modelos dicen que antes de lanzar su modelo, quieren comprender mejor los datos, las indicaciones y filtrar los resultados y medir el sesgo para mitigar el daño.

Cada vez será más difícil saber qué es real en línea, y la IA de video abre una serie de peligros únicos que el audio y las imágenes no abren, como la posibilidad de falsificaciones profundas turbocargadas. Plataformas como TikTok e Instagram ya están distorsionando nuestro sentido de la realidad a través de filtros faciales aumentados. El video generado por IA podría ser una poderosa herramienta de desinformación, ya que es más probable que las personas crean y compartan videos falsos que versiones falsas de audio y texto del mismo contenido.de acuerdo aa los investigadores de la Universidad de Penn State.

En conclusión, todavía estamos lejos de entender qué hacer con los elementos tóxicos de los modelos lingüísticos. Recién comenzamos a examinar los daños de los sistemas de IA de texto a imagen. ¿Video? Buena suerte con eso.

Aprendizaje más profundo

La UE quiere responsabilizar a las empresas por la IA dañina

La UE crea nuevas reglas para que sea más fácil demandar a las empresas de IA por daños.Un nuevo proyecto de ley publicado la semana pasada, que se espera que se convierta en ley en unos pocos años, es parte de un impulso de Europa para obligar a los desarrolladores de IA a no lanzar sistemas peligrosos.

El proyecto de ley, llamado Directiva de responsabilidad de AI, agregará fuerza a la ley de IA de la UE, que se espera que se convierta en ley casi al mismo tiempo. La ley de IA requeriría controles adicionales para usos de IA de “alto riesgo” que tienen el mayor potencial para dañar a las personas. Esto podría incluir sistemas de inteligencia artificial utilizados para vigilancia, reclutamiento o atención médica.

La ley de responsabilidad entraría en vigor una vez que el daño ya se haya producido.Esto daría a las personas y empresas el derecho a demandar por daños y perjuicios cuando hayan sido perjudicados por un sistema de IA, por ejemplo, si pueden probar que se usó IA discriminatoria para ponerlos en desventaja en el contexto de un proceso de contratación.

Pero hay una trampa: Los consumidores tendrán que demostrar que la IA de la empresa los perjudicó, lo que podría ser una tarea enorme. Puedes leer mi historia al respecto aquí.

Bits y bytes

Cómo los robots y la IA ayudan a desarrollar mejores baterías
Los investigadores de Carnegie Mellon han utilizado un sistema automatizado y un software de aprendizaje automático para generar electrolitos que podrían permitir que las baterías de iones de litio se carguen más rápido, abordando una de las mayores barreras para la adopción generalizada de vehículos eléctricos. (Revisión de tecnología del MIT)

¿Pueden los teléfonos inteligentes ayudar a predecir el suicidio?
Los investigadores de la Universidad de Harvard están utilizando datos recopilados de teléfonos inteligentes y biosensores portátiles, como los relojes Fitbit, para crear un algoritmo que podría ayudar a predecir cuándo los pacientes están en riesgo de suicidio y ayudar a los médicos a intervenir. (Los New York Times)

OpenAI ha puesto a disposición de todos su AI DALL-E de texto e imagen.
Las imágenes generadas por IA estarán en todas partes. Puedes probar el programaaquí.

Alguien ha creado una IA que crea Pokémon parecidos a personajes famosos.
La única IA generadora de imágenes que importa. (el poste de washington)

¡Gracias por leer! La próxima semana.

bálsamo de limón

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *