Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

Meta agrega voz y nuevas capacidades de generación de imágenes a su asistente Meta AI en WhatsApp, Instagram y Facebook

Publicado

el

Meta ha presentado nuevas capacidades de Inteligencia Artificial (IA) para su asistente Meta AI, que podrá conversar con los usuarios mediante respuestas por voz a través de Facebook, Messenger, WhatsApp e Instagram DM, así como interaccionar con imágenes, editándolas o generando nuevo contenido.

La tecnológica ha celebrado su evento anual Meta Connect 2024, en el que, además de las novedades de ‘hardware’, ha presentado su nuevo modelo de lenguaje Llama 3.2, el primer modelo de visión de la compañía, con el que agrega comprensión tanto de imágenes como de texto.

Durante el evento Meta ha puesto en valor las capacidades de su asistente Meta AI que, según ha trasladado, es utilizado por más de 400 millones de personas mensualmente. En este sentido, la compañía ha trasladado su intención de hacerlo “más divertido, útil y eficaz”, gracias a las capacidades multimodales de Llama 3.2.

Para ello, tal y como ha anunciado, han implementado una serie de novedades en el asistente Meta AI, entre ellas, la capacidad de interaccionar de forma más natural añadiendo voz. Es decir, Ahora, los usuarios podrán interaccionar con Meta AI a través de Facebook, Messenger, WhatsApp e Instagram DM, y el asistente responderá a través de contestaciones por voz.

En este sentido, el asistente podrá utilizar distintas voces reconocidas, como las de los actores y actrices Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key y Kristen Bell.

Asimismo, Meta ha señalado que están experimentando con el doblaje automático de vídeos y sincronización labial en Reels, con el objetivo de ayudar a los usuarios a visualizar contenido en su idioma preferido, ya sea a través de Instagram o Facebook.

Así, se trata de una función en pruebas para el contenido en inglés y español, que comenzarán a implementar en un pequeño grupo de creadores de contenido en Instagram, con la idea de ampliarlo próximamente a más creadores e idiomas.

INTERACCIÓN CON IMÁGENES

Por otra parte, dado que, ahora, el asistente Meta AI puede procesar información visual, los usuarios podrán preguntar o interaccionar sobre contenido que aparezca en imágenes, como fotografías publicadas en redes sociales. Por ejemplo, el asistente podrá identificar un tipo de flor que aparezca en una imagen o proporcionar la información de una receta de cocina que se muestre en una foto.

Siguiendo esta línea, gracias a la capacidad de procesar información visual Meta ha implementado nuevas opciones para las herramientas de edición de IA. En concreto, los usuarios podrán subir una foto y llevar a cabo ediciones precisas mediante indicaciones. Hasta ahora, Meta AI solo permitía editar imágenes generadas por la IA, sin embargo, con esta nueva opción los usuarios podrán añadir, eliminar o cambiar elementos de sus fotos reales.

Meta AI también puede sugerir pies de foto para las publicaciones y ‘stories’ en Facebook e Instagram. Para ello, bastará con escoger una foto y la IA generará varios subtítulos relacionados con lo que aparezca en la imagen, para que el usuario pueda escoger el que más se ajuste a sus preferencias.

AMPLIANDO IMAGINE DE META AI

La compañía ha señalado igualmente que están ampliando las funciones Imagine de Meta AI, que ahora permitirá generar imágenes de los propios usuarios en espacios concretos o convertidos en otros personajes, como un superhéroe o un astronauta, para que las compartan con otros usuarios.

Finalmente, la tecnológica ha compartido que están añadiendo temas de chat generados por IA para Messenger e Instagram. Igualmente, también están probando a introducir contenido generado por Meta AI en los ‘feeds’ de Facebook e Instagram, con imágenes basadas en los intereses de los usuarios.

Tecnología

Google Lens ahora comprende los vídeos y admite preguntas en voz alta

Publicado

el

Google ha actualizado su herramienta de búsqueda visual Lens para integrar la interacción de voz, que permitirán profundizar sobre lo que se ve a través de la cámara con preguntas en voz alta, una novedad que se complementa con la posibilidad de realizar búsquedas con vídeos.

Google Lens ha ampliado sus capacidades para facilitar la búsqueda de información al usuario sobre la marcha, con la introducción de la interacción por voz, como ha informado la compañía en su blog oficial.

De esta forma, además de tomar una foto y escribir la pregunta, el usuario podrá preguntar en voz alta sobre lo que está viendo a través de la cámara. “Explorar el mundo que te rodea es más natural e intuitivo”, como apunta la compañía.

A esta novedad se le une la incorporación en Lens de la comprensión de vídeos. Esto permite al usuario realizar un vídeo sobre una situación y preguntar sobre los elementos que aparecen en él. “Nuestros sistemas interpretarán el vídeo y tu pregunta conjuntamente para producir una descripción general de IA, junto con recursos útiles de toda la web”, ha explicado Google.

La comprensión de vídeo está disponible a nivel global en la aplicación de Google, para Android e iOS, al igual que las preguntas de voz, aunque en este último caso se limitan por el momento al inglés.

Continue Reading

Tecnología

Canvas de OpenAI convierte a ChatGPT en un compañero de trabajo en un proyecto colaborativo

Publicado

el

OpenAI ha presentado Canvas, una nueva interfaz para trabajar con ChatGPT de manera colaborativa en proyectos de redacción y programación, similar a Artifacts de Anthropic.

Canvas es una forma de trabajar junto con ChatGPT, ya que no se limita a una conversación en la que el usuario introduce sus peticiones y el ‘chatbot’ genera un resultado en base a ellas. En su lugar, abre una ventana aparte que permite editar los proyectos.

Esta nueva interfaz permite al usuario destacar secciones específicas para que ChatGPT se centre en ellas y editar directamente el texto y el código. También incluye atajos para acciones específicas, como obtener una revisión gramatical, añadir comentarios, acortar código o introducir emojis.

Canvas se ha construido en GPT-4o, lo que convierte a este modelo en “un compañero creativo” con el que colaborar. “El modelo sabe cuándo abrir un lienzo, realizar modificaciones específicas y reescribir por completo. También comprende el contexto más amplio para ofrecer comentarios y sugerencias precisas”, explican desde OpenAI en su blog oficial.

Esta novedad está disponible a nivel global para los usuarios de ChatGPT Plus y Team, y llegará la próxima semana a Enterprise y Edu. OpenIA planea facilitar Canvas de manera generaliza con ChatGPT Free cuando salga de la versión beta.

A finales de agosto, Anthropic lanzó una herramienta similar, Artifacts, un tipo de contenido colaborativo que se muestra en una ventana flotante junto a la conversación con el asistente Claude y que puede compartirse con la comunidad.

Continue Reading

Tecnología

Google actualiza Gemini 1.5 Pro para que ofrezca respuestas “mejores y más precisas” en temas complejos y matemáticos

Publicado

el

Google ha actualizado el modelo Gemini 1.5 Pro, que ahora está optimizado para conversaciones, lo que significa que puede ofrecer mejores respuestas y más precisas en cuestiones complejas y problemas matemáticos.

El modelo 1.5 Pro es la versión de tamaño medio del modelo más potente de Google, que ofrece dentro de la suscripción Gemini Advanced. Diseñado para realizar tareas complejas con rapidez, se ha actualizado ahora para optimizar las conversaciones.

Con Gemini 1.5 Pro-002, el modelo mejora su rendimiento en las respuestas, que son “mejores y más precisas”, especialmente en cuestiones relacionadas con problemas matemáticos y el análisis de temas complejos, como explica Google en la página de actualización de Gemini.

Con esta actualización, los usuarios podrán enfrentarse de manera más sencilla a instrucciones detalladas con varios pasos y cálculos matemáticos avanzados cuando conversen con Gemini.

Continue Reading

Trending