Tecnología
Meta agrega voz y nuevas capacidades de generación de imágenes a su asistente Meta AI en WhatsApp, Instagram y Facebook
Publicado
Hace 1 semanael
Meta ha presentado nuevas capacidades de Inteligencia Artificial (IA) para su asistente Meta AI, que podrá conversar con los usuarios mediante respuestas por voz a través de Facebook, Messenger, WhatsApp e Instagram DM, así como interaccionar con imágenes, editándolas o generando nuevo contenido.
La tecnológica ha celebrado su evento anual Meta Connect 2024, en el que, además de las novedades de ‘hardware’, ha presentado su nuevo modelo de lenguaje Llama 3.2, el primer modelo de visión de la compañía, con el que agrega comprensión tanto de imágenes como de texto.
Durante el evento Meta ha puesto en valor las capacidades de su asistente Meta AI que, según ha trasladado, es utilizado por más de 400 millones de personas mensualmente. En este sentido, la compañía ha trasladado su intención de hacerlo “más divertido, útil y eficaz”, gracias a las capacidades multimodales de Llama 3.2.
Para ello, tal y como ha anunciado, han implementado una serie de novedades en el asistente Meta AI, entre ellas, la capacidad de interaccionar de forma más natural añadiendo voz. Es decir, Ahora, los usuarios podrán interaccionar con Meta AI a través de Facebook, Messenger, WhatsApp e Instagram DM, y el asistente responderá a través de contestaciones por voz.
En este sentido, el asistente podrá utilizar distintas voces reconocidas, como las de los actores y actrices Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key y Kristen Bell.
Asimismo, Meta ha señalado que están experimentando con el doblaje automático de vídeos y sincronización labial en Reels, con el objetivo de ayudar a los usuarios a visualizar contenido en su idioma preferido, ya sea a través de Instagram o Facebook.
Así, se trata de una función en pruebas para el contenido en inglés y español, que comenzarán a implementar en un pequeño grupo de creadores de contenido en Instagram, con la idea de ampliarlo próximamente a más creadores e idiomas.
INTERACCIÓN CON IMÁGENES
Por otra parte, dado que, ahora, el asistente Meta AI puede procesar información visual, los usuarios podrán preguntar o interaccionar sobre contenido que aparezca en imágenes, como fotografías publicadas en redes sociales. Por ejemplo, el asistente podrá identificar un tipo de flor que aparezca en una imagen o proporcionar la información de una receta de cocina que se muestre en una foto.
Siguiendo esta línea, gracias a la capacidad de procesar información visual Meta ha implementado nuevas opciones para las herramientas de edición de IA. En concreto, los usuarios podrán subir una foto y llevar a cabo ediciones precisas mediante indicaciones. Hasta ahora, Meta AI solo permitía editar imágenes generadas por la IA, sin embargo, con esta nueva opción los usuarios podrán añadir, eliminar o cambiar elementos de sus fotos reales.
Meta AI también puede sugerir pies de foto para las publicaciones y ‘stories’ en Facebook e Instagram. Para ello, bastará con escoger una foto y la IA generará varios subtítulos relacionados con lo que aparezca en la imagen, para que el usuario pueda escoger el que más se ajuste a sus preferencias.
AMPLIANDO IMAGINE DE META AI
La compañía ha señalado igualmente que están ampliando las funciones Imagine de Meta AI, que ahora permitirá generar imágenes de los propios usuarios en espacios concretos o convertidos en otros personajes, como un superhéroe o un astronauta, para que las compartan con otros usuarios.
Finalmente, la tecnológica ha compartido que están añadiendo temas de chat generados por IA para Messenger e Instagram. Igualmente, también están probando a introducir contenido generado por Meta AI en los ‘feeds’ de Facebook e Instagram, con imágenes basadas en los intereses de los usuarios.
Comparte esto:
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)
- Haz clic para compartir en Facebook (Se abre en una ventana nueva)
- Haz clic para compartir en Twitter (Se abre en una ventana nueva)
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)
- Haz clic para compartir en Telegram (Se abre en una ventana nueva)
Relacionado
You may like
-
Meta Movie Gen ofrece un conjunto de modelos para generación de vídeo y audio para vídeo de alta calidad
-
Google Lens ahora comprende los vídeos y admite preguntas en voz alta
-
Canvas de OpenAI convierte a ChatGPT en un compañero de trabajo en un proyecto colaborativo
-
Epic Games reduce el pago de regalías a los desarrolladores que apuesten por Unreal Engine y Epic Games Store
-
Google actualiza Gemini 1.5 Pro para que ofrezca respuestas “mejores y más precisas” en temas complejos y matemáticos
-
La aplicación Nvidia sustituirá a finales de año la Experiencia GeForce
Tecnología
Meta Movie Gen ofrece un conjunto de modelos para generación de vídeo y audio para vídeo de alta calidad
Publicado
Hace 1 díael
octubre 5, 2024Meta ha presentado un conjunto de modelos fundacionales que recoge bajo el nombre de Meta Movie Gen, con los que ofrece a los creadores herramientas para generar, personalizar y editar vídeos y producir audios, todos de alta calidad y con descripciones de texto.
Meta Movie Gen es la tercera generación de modelos fundacionales de Meta, que la compañía dirige a creadores de contenido y cineastas como una herramienta que ayude a impulsar su creatividad, en lugar de sustituirla.
Los modelos que incluye se han entrenado con conjuntos de datos con licencia y otros disponibles públicamente, para ofrecer cuatro capacidades: generación de vídeo, generación de vídeo personalizada, edición de vídeo precisa y generación de audio.
En lo que respecta a la generación de vídeo, el modelo utiliza un transformador de 30.000 millones de parámetros para producir vídeos de alta calidad de hasta 16 segundos para una velocidad de 16 fotogramas por segundo, a partir de una descripción de texto.
Como indica Meta, el modelo “puede razonar sobre el movimiento de objetos, las interacciones entre sujetos y objetos y el movimiento de la cámara, y puede aprender movimientos plausibles para una amplia variedad de conceptos”, como recoge en su blog oficial.
Los modelos de Meta Movie Gen también generan de vídeos personalizados, a partir de la imagen de una persona y una descripción. A ello se unen la capacidad de editar, con acciones localizadas o más generales, y resultados precisos.
Meta Movie Gen también genera audio. En concreto, utiliza un modelo de 13.000 millones de parámetros que genera vídeo de alta calidad para un vídeo y a partir de una descripción en texto. El resultado tiene una duración de hasta 45 segundos y engloba sonido ambiental, efectos de sonido y música instrumental de fondo. Este modelo también permite generar audio coherente para vídeos de duraciones arbitrarias.
Comparte esto:
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)
- Haz clic para compartir en Facebook (Se abre en una ventana nueva)
- Haz clic para compartir en Twitter (Se abre en una ventana nueva)
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)
- Haz clic para compartir en Telegram (Se abre en una ventana nueva)
Relacionado
Tecnología
Google Lens ahora comprende los vídeos y admite preguntas en voz alta
Publicado
Hace 3 díasel
octubre 4, 2024Google ha actualizado su herramienta de búsqueda visual Lens para integrar la interacción de voz, que permitirán profundizar sobre lo que se ve a través de la cámara con preguntas en voz alta, una novedad que se complementa con la posibilidad de realizar búsquedas con vídeos.
Google Lens ha ampliado sus capacidades para facilitar la búsqueda de información al usuario sobre la marcha, con la introducción de la interacción por voz, como ha informado la compañía en su blog oficial.
De esta forma, además de tomar una foto y escribir la pregunta, el usuario podrá preguntar en voz alta sobre lo que está viendo a través de la cámara. “Explorar el mundo que te rodea es más natural e intuitivo”, como apunta la compañía.
A esta novedad se le une la incorporación en Lens de la comprensión de vídeos. Esto permite al usuario realizar un vídeo sobre una situación y preguntar sobre los elementos que aparecen en él. “Nuestros sistemas interpretarán el vídeo y tu pregunta conjuntamente para producir una descripción general de IA, junto con recursos útiles de toda la web”, ha explicado Google.
La comprensión de vídeo está disponible a nivel global en la aplicación de Google, para Android e iOS, al igual que las preguntas de voz, aunque en este último caso se limitan por el momento al inglés.
Comparte esto:
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)
- Haz clic para compartir en Facebook (Se abre en una ventana nueva)
- Haz clic para compartir en Twitter (Se abre en una ventana nueva)
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)
- Haz clic para compartir en Telegram (Se abre en una ventana nueva)
Relacionado
Tecnología
Canvas de OpenAI convierte a ChatGPT en un compañero de trabajo en un proyecto colaborativo
Publicado
Hace 3 díasel
octubre 4, 2024OpenAI ha presentado Canvas, una nueva interfaz para trabajar con ChatGPT de manera colaborativa en proyectos de redacción y programación, similar a Artifacts de Anthropic.
Canvas es una forma de trabajar junto con ChatGPT, ya que no se limita a una conversación en la que el usuario introduce sus peticiones y el ‘chatbot’ genera un resultado en base a ellas. En su lugar, abre una ventana aparte que permite editar los proyectos.
Esta nueva interfaz permite al usuario destacar secciones específicas para que ChatGPT se centre en ellas y editar directamente el texto y el código. También incluye atajos para acciones específicas, como obtener una revisión gramatical, añadir comentarios, acortar código o introducir emojis.
Canvas se ha construido en GPT-4o, lo que convierte a este modelo en “un compañero creativo” con el que colaborar. “El modelo sabe cuándo abrir un lienzo, realizar modificaciones específicas y reescribir por completo. También comprende el contexto más amplio para ofrecer comentarios y sugerencias precisas”, explican desde OpenAI en su blog oficial.
Esta novedad está disponible a nivel global para los usuarios de ChatGPT Plus y Team, y llegará la próxima semana a Enterprise y Edu. OpenIA planea facilitar Canvas de manera generaliza con ChatGPT Free cuando salga de la versión beta.
A finales de agosto, Anthropic lanzó una herramienta similar, Artifacts, un tipo de contenido colaborativo que se muestra en una ventana flotante junto a la conversación con el asistente Claude y que puede compartirse con la comunidad.
Comparte esto:
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)
- Haz clic para compartir en Facebook (Se abre en una ventana nueva)
- Haz clic para compartir en Twitter (Se abre en una ventana nueva)
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)
- Haz clic para compartir en Telegram (Se abre en una ventana nueva)
Relacionado
Trending
-
TecnologíaHace 2 años
Xiaomi lanza en España el Redmi Note 12 Pro + 5G desde 499,99 euros con cámara de 200MP y carga rápida de 120W
-
BoliviaHace 4 años
ROSITA POCHI, JERARQUÍA Y RITUALIDAD GUARANÍ
-
TecnologíaHace 3 años
Huawei reafirma su compromiso con la innovación tecnológica
-
TecnologíaHace 1 año
Samsung y Microsoft crean una solución de autenticación en móviles para empresas basada en ‘hardware’
-
TecnologíaHace 2 años
Microsoft acusa a Sony de dar información falsa a las autoridades de regulación europea sobre la paridad de Call of Duty
-
InternacionalHace 2 años
Un turista logró captar a un curioso primate en el Parque Nacional Kruger de Sudáfrica
-
BoliviaHace 2 años
¿Cuáles son los platos típicos que más piden los bolivianos?
-
DeportesHace 9 meses
Carlos Sainz: “Estoy muy contento por ganar con este Audi tan especial y complicado”