Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

Meta agrega voz y nuevas capacidades de generación de imágenes a su asistente Meta AI en WhatsApp, Instagram y Facebook

Publicado

el

Meta ha presentado nuevas capacidades de Inteligencia Artificial (IA) para su asistente Meta AI, que podrá conversar con los usuarios mediante respuestas por voz a través de Facebook, Messenger, WhatsApp e Instagram DM, así como interaccionar con imágenes, editándolas o generando nuevo contenido.

La tecnológica ha celebrado su evento anual Meta Connect 2024, en el que, además de las novedades de ‘hardware’, ha presentado su nuevo modelo de lenguaje Llama 3.2, el primer modelo de visión de la compañía, con el que agrega comprensión tanto de imágenes como de texto.

Durante el evento Meta ha puesto en valor las capacidades de su asistente Meta AI que, según ha trasladado, es utilizado por más de 400 millones de personas mensualmente. En este sentido, la compañía ha trasladado su intención de hacerlo «más divertido, útil y eficaz», gracias a las capacidades multimodales de Llama 3.2.

Para ello, tal y como ha anunciado, han implementado una serie de novedades en el asistente Meta AI, entre ellas, la capacidad de interaccionar de forma más natural añadiendo voz. Es decir, Ahora, los usuarios podrán interaccionar con Meta AI a través de Facebook, Messenger, WhatsApp e Instagram DM, y el asistente responderá a través de contestaciones por voz.

En este sentido, el asistente podrá utilizar distintas voces reconocidas, como las de los actores y actrices Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key y Kristen Bell.

Asimismo, Meta ha señalado que están experimentando con el doblaje automático de vídeos y sincronización labial en Reels, con el objetivo de ayudar a los usuarios a visualizar contenido en su idioma preferido, ya sea a través de Instagram o Facebook.

Así, se trata de una función en pruebas para el contenido en inglés y español, que comenzarán a implementar en un pequeño grupo de creadores de contenido en Instagram, con la idea de ampliarlo próximamente a más creadores e idiomas.

INTERACCIÓN CON IMÁGENES

Por otra parte, dado que, ahora, el asistente Meta AI puede procesar información visual, los usuarios podrán preguntar o interaccionar sobre contenido que aparezca en imágenes, como fotografías publicadas en redes sociales. Por ejemplo, el asistente podrá identificar un tipo de flor que aparezca en una imagen o proporcionar la información de una receta de cocina que se muestre en una foto.

Siguiendo esta línea, gracias a la capacidad de procesar información visual Meta ha implementado nuevas opciones para las herramientas de edición de IA. En concreto, los usuarios podrán subir una foto y llevar a cabo ediciones precisas mediante indicaciones. Hasta ahora, Meta AI solo permitía editar imágenes generadas por la IA, sin embargo, con esta nueva opción los usuarios podrán añadir, eliminar o cambiar elementos de sus fotos reales.

Meta AI también puede sugerir pies de foto para las publicaciones y ‘stories’ en Facebook e Instagram. Para ello, bastará con escoger una foto y la IA generará varios subtítulos relacionados con lo que aparezca en la imagen, para que el usuario pueda escoger el que más se ajuste a sus preferencias.

AMPLIANDO IMAGINE DE META AI

La compañía ha señalado igualmente que están ampliando las funciones Imagine de Meta AI, que ahora permitirá generar imágenes de los propios usuarios en espacios concretos o convertidos en otros personajes, como un superhéroe o un astronauta, para que las compartan con otros usuarios.

Finalmente, la tecnológica ha compartido que están añadiendo temas de chat generados por IA para Messenger e Instagram. Igualmente, también están probando a introducir contenido generado por Meta AI en los ‘feeds’ de Facebook e Instagram, con imágenes basadas en los intereses de los usuarios.

Tecnología

OpenAI avanza en su idea de convertir ChatGPT en un «superasistente» capaz de conocer al usuario y gestionar sus tareas

Publicado

el

OpenAI continúa trabajando para hacer de su ‘chatbot’ impulsado por inteligencia artificial (IA) ChatGPT un «superasistente», que sea capaz de conocer al usuario, entender lo que le importa y ayudar con cualquier tarea de forma «emocionalmente inteligente», de la mano de sus modelos o3 y sus capacidades de razonamiento multimodales.

Actualmente, los usuarios utilizan ChatGPT principalmente para resolver sus preguntas, generar contenido y codificar, entre otras opciones pensadas para aliviar las cargas de trabajo en su día a día. Sin embargo, la compañía liderada por Sam Altman pretende extender su uso más allá, convirtiendo el ‘chatbot’ en «un experto, un consejero, un colaborador o un compañero y analizador» personalizado para los usuarios.

Como ya ha comentado la tecnológica en anteriores ocasiones desde que lanzó su ‘chatbot’ al mercado, la idea es ir avanzando con su producto de IA agregando nuevas tecnologías y capacidades que lo conviertan en lo que denomina como un «superasistente».

En este marco, OpenAI ha confirmado en un documento interno titulado ‘ChatGPT: H1 2025 Strategy’, que data de finales de 2024 y al que ha tenido acceso ahora The Verge, que estos planes para convertir ChatGPT en un superasistente comenzaron en la primera mitad de este año, con el objetivo de ofrecer un producto que conozca al usuario, entienda sus intereses y ayude a mejorar su vida en cualquier aspecto.

Concretamente, la compañía describe a ChatGPT como un superasistente que entiende lo que le importa al usuario y «ayuda en cualquier tarea que pueda hacer una persona emocionalmente inteligente y confiable con un ordenador».

Según los planes de la compañía, se trata de un momento oportuno dado que modelos como o3 «son por fin lo bastante inteligentes para realizar tareas de forma fiable», además de poder utilizar herramientas como el ordenador, que «pueden potenciar las capacidades de actuación de ChatGPT».

Igualmente, OpenAI ha mencionado que disponen de paradigmas de interacción, como la multimodalidad y la interfaz de usuario generativa, que permiten tanto a ChatGPT como a los usuarios «expresarse de la mejor forma posible para cada tarea».

Con todo ello, la compañía también ha definido su idea de superasistente, como «una entidad inteligente con habilidades en forma de ‘T'», esto es, que cuenta con amplias competencias para tareas cotidianas que resultan tediosas y tareas que requieren amplios conocimientos, como la codificación.

De esta manera, se trata de una entidad que actúa de personalizada y que está disponible desde cualquier plataforma, ya sea mediante la web como a través de aplicaciones nativas, ‘smartphones’ o plataformas de terceros como Siri de Apple.

Igualmente, podrá llevar a cabo todo tipo de acciones, desde encontrar una casa, hasta ponerse en contacto con un abogado, planificar vacaciones, gestionar calendarios o enviar correos electrónicos.

ENFRENTAMIENTO CON NAVEGADORES

Por otra parte, OpenAI ha calificado como competidores a las principales empresas en el sector de ‘chatbots’ para el consumidor, como es el caso de Claude de Anrhropic, Gemini de Google, Copilot de Microsoft y Meta AI de Meta. Al respecto, ha sentenciado que aunque son «líderes» del sector, «no pueden descansar».

Para ello, OpenAI busca ofrecer el mejor modelo gratuito, la mejor interfaz de usuario y la marca «más fuerte». Además, también ha subrayado que, al generar un superasistente, se enfrentan a motores de búsqueda, navegadores e incluso, a las interacciones con personas reales.

«Se trata de resolver cada vez más casos de uso e ir atrayendo poco a poco a los usuarios. Por eso no llamamos a nuestro producto motor de búsqueda, navegador o sistema operativo, sino ChatGPT», ha sentenciado.

Con todo, OpenAI ha reflejado que están en el momento óptimo y disponen de lo necesario para avanzar hacia un «superasistente», al contar con «uno de los productos de más rápido crecimiento», un «líder» en investigación tanto a nivel de razonamiento como de capacidades multimodales y de computación, y un equipo de investigación «de primera clase».

Continue Reading

Tecnología

Microsoft edge incorpora el soporte para las acciones de la aplicación en las aplicaciones web progresivas

Publicado

el

Microsoft ha incorporado el soporte para la realización de acciones en las aplicaciones web progresivas (PWA, por sus siglas en inglés) con el navegador edge.

Las PWA son páginas web que ofrecen un comportamiento similar al de las aplicaciones nativas, porque pueden instalarse en el navegador web o en la página de inicio de un dispositivo para ejecutarla de manera directa e independiente.

edge es uno de los navegadores que tiene soporte para las aplicaciones web progresivas, y se encuentran en la Tienda de Microsoft. La actualización versión 137 para Windows introduce, además, el soporte para las acciones de la aplicación, como informan en Windows Report.

Estas acciones ayudan a simplificar la ejecución de determinadas tareas, como traducir una parte de un texto o procesar una imagen, para facilitar la interacción del usuario. Al incorporarlas en las directamente en la PWA, evita tener que cambiar entre aplicaciones.

Continue Reading

Tecnología

Google amplía las funciones de Gemini en Google Drive para que pueda resumir vídeos almacenados

Publicado

el

Google ha ampliado las funciones de Inteligencia Artificial (IA) impulsadas por Gemini en Google Drive, que ahora podrá resumir los vídeos almacenados en su servicio en la nube y responder preguntas acerca del contenido de los mismos.

La tecnológica continúa desarrollando nuevas funciones para Google Drive, por lo que ha lanzado una nueva opción para los archivos en formato de vídeo, que se sumará a las incorporada hace menos de un año, que permiten resumir documentos y archivos PDF que estén guardados en el espacio de Workspace.

En concreto, Google ha ampliado las capacidades de resumen y preguntas de Gemini a los vídeos que estén almacenados en Google Drive, por lo que esta nueva función en formato de ‘chatbot’ conversacional ofrecerá una síntesis del contenido del vídeo y responderá preguntas acerca del mismo.

Según ha detallado la compañía en su web, para activar esta función bastará con acceder a un vídeo almacenado en Drive y pulsar el icono de Gemini, que aparece en la parte superior derecha de la pantalla desde la vista previa superpuesta del servicio de almacenamiento en la nube de Google. Los usuarios también deberán tener habilitados los subtítulos en el vídeo.

Google ha advertido de que, inicialmente, esta función sólo estará disponible en inglés para los usuarios de Google Workspace que hayan contratado las modalidades de Business Standard y Plus, Enterprise Standard y Plus, así como para los que hayan adquirido los complementos Gemini Education o Gemini Education Premium. Asimismo, los usuarios de Google One AI Premium también podrán acceder a esta nueva función.

La implementación completa de este servicio llevará unas semanas, ya que el gigante tecnológico ha concretado que comenzará a partir del 16 de junio.

Continue Reading

Trending