Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

Meta agrega voz y nuevas capacidades de generación de imágenes a su asistente Meta AI en WhatsApp, Instagram y Facebook

Publicado

el

Meta ha presentado nuevas capacidades de Inteligencia Artificial (IA) para su asistente Meta AI, que podrá conversar con los usuarios mediante respuestas por voz a través de Facebook, Messenger, WhatsApp e Instagram DM, así como interaccionar con imágenes, editándolas o generando nuevo contenido.

La tecnológica ha celebrado su evento anual Meta Connect 2024, en el que, además de las novedades de ‘hardware’, ha presentado su nuevo modelo de lenguaje Llama 3.2, el primer modelo de visión de la compañía, con el que agrega comprensión tanto de imágenes como de texto.

Durante el evento Meta ha puesto en valor las capacidades de su asistente Meta AI que, según ha trasladado, es utilizado por más de 400 millones de personas mensualmente. En este sentido, la compañía ha trasladado su intención de hacerlo «más divertido, útil y eficaz», gracias a las capacidades multimodales de Llama 3.2.

Para ello, tal y como ha anunciado, han implementado una serie de novedades en el asistente Meta AI, entre ellas, la capacidad de interaccionar de forma más natural añadiendo voz. Es decir, Ahora, los usuarios podrán interaccionar con Meta AI a través de Facebook, Messenger, WhatsApp e Instagram DM, y el asistente responderá a través de contestaciones por voz.

En este sentido, el asistente podrá utilizar distintas voces reconocidas, como las de los actores y actrices Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key y Kristen Bell.

Asimismo, Meta ha señalado que están experimentando con el doblaje automático de vídeos y sincronización labial en Reels, con el objetivo de ayudar a los usuarios a visualizar contenido en su idioma preferido, ya sea a través de Instagram o Facebook.

Así, se trata de una función en pruebas para el contenido en inglés y español, que comenzarán a implementar en un pequeño grupo de creadores de contenido en Instagram, con la idea de ampliarlo próximamente a más creadores e idiomas.

INTERACCIÓN CON IMÁGENES

Por otra parte, dado que, ahora, el asistente Meta AI puede procesar información visual, los usuarios podrán preguntar o interaccionar sobre contenido que aparezca en imágenes, como fotografías publicadas en redes sociales. Por ejemplo, el asistente podrá identificar un tipo de flor que aparezca en una imagen o proporcionar la información de una receta de cocina que se muestre en una foto.

Siguiendo esta línea, gracias a la capacidad de procesar información visual Meta ha implementado nuevas opciones para las herramientas de edición de IA. En concreto, los usuarios podrán subir una foto y llevar a cabo ediciones precisas mediante indicaciones. Hasta ahora, Meta AI solo permitía editar imágenes generadas por la IA, sin embargo, con esta nueva opción los usuarios podrán añadir, eliminar o cambiar elementos de sus fotos reales.

Meta AI también puede sugerir pies de foto para las publicaciones y ‘stories’ en Facebook e Instagram. Para ello, bastará con escoger una foto y la IA generará varios subtítulos relacionados con lo que aparezca en la imagen, para que el usuario pueda escoger el que más se ajuste a sus preferencias.

AMPLIANDO IMAGINE DE META AI

La compañía ha señalado igualmente que están ampliando las funciones Imagine de Meta AI, que ahora permitirá generar imágenes de los propios usuarios en espacios concretos o convertidos en otros personajes, como un superhéroe o un astronauta, para que las compartan con otros usuarios.

Finalmente, la tecnológica ha compartido que están añadiendo temas de chat generados por IA para Messenger e Instagram. Igualmente, también están probando a introducir contenido generado por Meta AI en los ‘feeds’ de Facebook e Instagram, con imágenes basadas en los intereses de los usuarios.

Tecnología

OpenAI lanza GPT-5.4, su primer modelo con capacidades para operar en ordenadores de forma autónoma

Publicado

el

OpenAI ha presentado su nuevo modelo de inteligencia artificial (IA) actualizado GPT-5.4 que, diseñado para tareas profesionales, es el primero en ofrecer capacidades nativas de uso informático, lo que permite a los agentes llevar a cabo flujos de trabajo en aplicaciones de forma autónoma, es decir, controlar un ordenador.

Para este nuevo modelo, la compañía dirigida por Sam Altman ha integrado «lo mejor» de sus últimos avances en razonamiento, codificación y flujos de trabajo de agente, superando así las capacidades de codificación de GPT-5.3-Codez y mejorando el funcionamiento del modelo en distintas herramientas, entornos de ‘software’ y tareas profesionales.

Concretamente, OpenAI ha presentado GPT-5.4 como su modelo de vanguardia «más potente y eficiente» en el trabajo profesional y, junto a ello, ha lanzado GPT-5.4 Pro para la aplicación de su ‘chatbot’ ChatGPT y la API, con la idea de asegurar «el máximo rendimiento en tareas complejas».

Sin embargo, este modelo destaca especialmente porque, en Codex y la API, es el primero de propósito general lanzado por OpenAI que integra capacidades nativas de uso informático. Esto significa que permite a los agentes operar en ordenadores, así como llevar a cabo flujos de trabajo complejos en todas las aplicaciones, de forma autónoma, sin intervención de los usuarios.

Es decir, que puede controlar el ordenador de forma independiente, para lo que admite hasta un millón de tokens de contexto, facilitando a los agentes planificar, ejecutar y verificar tareas «a largo plazo», como ha explicado la tecnológica en un comunicado en su blog.

Igualmente, la compañía ha matizado que GPT-5.4 también se ha mejorado en lo relacionado a su funcionamiento en grandes ecosistemas de herramientas. Esto se debe a la búsqueda de herramientas, una función que ayuda a los agentes a encontrar y utilizar las herramientas adecuadas para cada acción de forma más eficiente.

GPT-5.4 THINKING

Además de todo ello, también ofrece la versión GPT-4.5 Thinking, que proporciona un plan anticipado del razonamiento que va a llevar a cabo y permite interrumpir el proceso para ajustar su procedimiento a mitad del flujo de trabajo. De esta manera, facilita obtener un resultado final más ajustado a las necesidades sin tener que esperar a que finalice para corregirlo.

Igualmente, la tecnológica ha matizado que la opción Thinking también ha mejorado sus capacidades de investigación en la ‘deep web’, especialmente para consultas específicas, manteniendo a su vez el contexto para preguntas que requieren «un análisis más profundo». Como resultado, ofrece preguntas de mayor calidad, de forma más rápida y más relevantes en base a lo solicitado por el usuario.

Para todas estas capacidades, se ha de tener en cuenta que, como ha subrayado OpenAI, GPT-5.4 es el modelo más eficiente a la hora de utilizar tokens, ya que utiliza una cantidad pequeña para la resolución de problemas, en comparación con GPT-5.2.

OpenAI ha destacado igualmente los avances en fiabilidad para este modelo, que es un 33 por ciento menos propenso a hacer afirmaciones falsas comparado con la versión anterior. Siguiendo esta línea, las respuestas completas tienen un 18 por ciento menos de probabilidad de cometer errores.

Con todo ello, el nuevo GPT-5.4 ya está disponible a través de la suscripción a ChatGPT Plus, Pro y Team. Asimismo, GPT-5.4 y GPT-5.4 Pro también están disponibles a través de la API.

Continue Reading

Tecnología

Xiaomi lanza ‘miclaw’, una IA autónoma que permite ejecutar cualquier tarea en su ecosistema desde el móvil

Publicado

el

Xiaomi ha presentado ‘miclaw’, un sistema de inteligencia artificial (IA) autónoma basado en el modelo MiMo de Xiaomi que puede ejecutar cualquier tipo de tarea dentro del ecosistema de la compañía desde los ‘smartphones’.

Así, la empresa china busca pasar de las «capacidades conversacionales» a las «capacidades de ejecución» dentro del sistema, realizando tareas para ajustarse mejor a las necesidades de cada usuario y adaptándose a sus hábitos.

‘miclaw’ funciona como una aplicación integrada dentro del sistema con acceso a más de 50 herramientas y servicios del sistema de Xiaomi. Además, su motor de razonamiento le permite decidir por sí mismo qué herramientas usar, en qué orden y qué parámetros aplicar para ejecutar la tarea.

Uno de los aspectos que Xiami ha destacado de ‘miclaw’ es su memoria inteligente de tres niveles: retención automática de puntos de decisión clave, compresión dinámica de interacciones redundantes y optimización de caché local de comandos centrales.

«Incluso si ejecuta consecutivamente 20 pasos de operaciones complejas, la IA seguirá recordando tus necesidades iniciales sin tener que explicárselas de nuevo, haciendo que el servicio sea coherente y fluido de principio a fin», ha indicado la compañía en su web.

Los usuarios pueden autorizar a ‘miclaw’ para que éste ejecute tareas en base a las rutinas y hábitos de los usuarios. Por ejemplo, si percibe varios SMS con cargos en la tarjeta de crédito del usuario, ‘miclaw’ puede recopilarlos y hacer un informe de gastos e incluso sugerir métodos de ahorro.

Una de las claves de ‘miclaw’ es su compatibilidad con la plataforma ‘Mijia’ de Xiaomi, lo que permite ejecutar cualquier tarea en los dispositivos del hogar y lo adapta a las circunstancias del usuario. Por ejemplo, si un usuario tiene un evento en el calendario de «reunión importante», ‘miclaw’ activará el modo silencio en el teléfono y pausará la actividad de la aspiradora.

PRIVACIDAD Y DISPONIBILIDAD

Xiaomi ha aclarado que los datos recopilados se almacenan internamente en el dispositivo, mientras que la nube transmite el mensaje durante la etapa de razonamiento, y los datos se cifran durante la transmisión para garantizar la seguridad y privacidad.

La compañía ha lanzado ‘miclaw’ en una beta cerrada limitada a China, a la que solo se puede acceder por invitación en los dispositivos de la serie 17 y en la que han recomendado no utilizar el dispositivo principal para su uso.

Además, esta prueba está enfocada a «entusiastas de la tecnología y a los usuarios habituales de IA que hagan una copia de seguridad de sus datos de antemano».

Continue Reading

Tecnología

Nothing presenta los auriculares Headphone (a): 5 días de autonomía y un diseño desenfadado en cuatro colores

Publicado

el

Nothing ha presentado sus nuevos auriculares Headphone (a), que ofrecen hasta cinco días de autonomía y un diseño desenfadado disponible en cuatro colores.

Estos auriculares son una adición «juguetona y poderosa» a sus catálogo de productos de audio, que llega con un diseño de tipo diadema ‘over-ear’, que cubre completamente la oreja y está disponible en los colores rosa, amarillo, blanco y negro.

Los auriculares están diseñado para que su uso sea cómodo a lo largo del día, y para ello cuentan con almohadillas transpirables que recuerdan la forma de la oreja y un cuerpo que pesa 310 gramos. Pueden utilizarse con sudor y bajo la lluvia, ya que tienen certificación IP52 de resistencia al polvo y al agua.

Nothing ha destacado la duración de su batería, que ofrece hasta 135 horas de escucha sin la tecnología de cancelación de ruido con una sola carga. Esto equivale a un máximo de 5 días de uso estándar, y con la tecnología de carga rápida se pueden obtener cinco horas de reproducción con cinco minutos de carga.

Estos auriculares ofrecen audio de alta resolución con certificado Códec inalámbrico y LDAC, mientras que el controlador de 4mm recubierto de titanio ofrece un sonido «potente y sin distorsiones».

La cancelación de ruido activo tiene tres preajustes (bajo, medio y alto) que reducen más o menos ruido del entorno según la situación en la que se encuentre el usuario, y un modo ‘Transparencia’, permite dejar la entrada de algo de sonido ambiental, para mantenerlo conectado con el entorno.

Para la cancelación de ruido utiliza micrófonos duales de proalimentación y retroalimentación, que funcionan con tecnología de inteligencia artificial para adaptar esta tecnología en tiempo real según el entorno y el ajuste de su auriculares.

Para que las llamadas sean claras, los auriculares cuentan con tres micrófonos que funcionan con un algoritmo entrenado en más de 28 millones de escenarios de ruido, que aísla la voz incluso en los entornos más concurridos.

La experiencia auditiva se complementa con un ecualizador avanzado profesional de ocho bandas que ajusta el sonido con precisión. Y para el control, los auriculares incluyen botones y ruedas táctiles directamente integradas en los auriculares que ayudan a ajustar el sonido, navegar por los contenido y acceder a distintos modos.

Los nuevos Headphone (a) tienen un precio de 159 euros y estarán disponibles a partir del 13 de marzo, aunque es posible reservarlos desde este jueves.

Continue Reading

Trending