Meta lanza cinco modelos de investigación de IA

Meta lanza cinco modelos de investigación de IA. Fotocomposición Notipress

Meta lanza varios modelos de investigación para seguir innovando en la IA

Meta lanza una serie de modelos investigación de inteligencia artificial para inspirar y colaborar con la comunidad que trabaja en esta materia

Por: Axel Olivares

La empresa Meta ha apostado en los últimos años en la inteligencia artificial. Para no quedar atrás, la compañía de Mark Zuckerberg se ha lanzado a la innovación en materia de IA a partir de varios modelos de investigación. Junto al equipo de Investigación Fundamental en IA (FAIR) de Meta, se lanzaron cinco modelos para inspirar a la colaboración con la comunidad global de IA. Los modelos cubren varias funciones, entre ellas, modelos de generación de imagen a texto y de texto a música, un modelo de predicción de múltiples tokens y una técnica para detectar el habla generada por IA.

Con respecto a la generación y el procesamiento tanto de texto como de imágenes, Meta lanzó componentes clave de sus modelos Chameleon bajo una licencia exclusiva para investigación. La peculiaridad de este modelo es que puede procesar y entregar imágenes y texto al mismo tiempo. Chameleon tiene la capacidad de generar subtítulos creativos para imágenes o usar una combinación de indicaciones de texto e imágenes para crear una escena completamente nueva.

Otro modelo tiene que ver con los de lenguaje extenso (LLM). Entrenado con grandes cantidades de texto, los LLM tienen el objetivo de predecir la siguiente palabra. Aunque, este enfoque aún es ineficiente, ya que requiere de grandes cantidades de textos para lograrlo. Por tal motivo, Meta propuso un nuevo enfoque para crear modelos de lenguaje más rápidos y mejores mediante el uso de predicción de múltiples tokens. Con este enfoque, se entrenan modelos de lenguaje para predecir múltiples palabras futuras, en lugar de una a la vez.

Por otro lado, nuevos modelos como Jasco permiten la entrada de audio, texto, acordes y símbolos para crear un clip musical. El modelo permite controles significativamente mejores y más versátiles sobre la música generada.

En este sentido, Meta también está lanzando AudioSeal el cual ayuda a detectar el habla generada por IA. A diferencia de los métodos tradicionales que se basan en algoritmos de decodificación complejos, el enfoque de detección localizada de AudioSeal permite una detección más rápida y eficiente. Este modelo se lanza bajo una licencia comercial. Es solo una de las diversas líneas de investigación responsable que Meta compartió para ayudar a prevenir el uso indebido de las herramientas de inteligencia artificial generativa.

Para ayudar a evaluar posibles disparidades geográficas en los modelos de conversión de texto a imagen, Meta lanzó también indicadores automáticos para entender cómo varían las percepciones de la representación geográfica en las distintas regiones. Esto permite una mayor diversidad y una mejor representación en las imágenes generadas por IA. De esta forma, la compañía espera ayudar a la comunidad de IA a mejorar la diversidad en sus modelos generativos.