Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

Nothing presenta Ear (open), los primeros auriculares inalámbricos estéreo abiertos de la marca

Publicado

el

Nothing ha anunciado el lanzamiento de Ear (open), los primeros auriculares inalámbricos estéreo abiertos de la marca, pensados para ofrecer “comodidad durante todo el día” y “una calidad de sonido excelente”, tal y como promete la compañía. Este nuevo producto se puede reservar desde este martes y saldrá a la venta el próximo 1 de octubre por 149 euros.

Ear (open) cuenta con un sistema de ajuste mediante tres puntos de equilibrio y sus ganchos de silicona aseguran un ajuste cómodo y seguro que se adapta a cualquier forma de oreja. Además, con un peso de 8,1 gramos por auricular y un estuche de sólo 19 mm de grosor, es uno de los dispositivos más delgados de la categoría.

En lo que respecta al sonido, la marca promete “una calidad de audio superior” gracias a su diafragma personalizado patentado, su revestimiento de titanio, su driver ultraligero y su diseño escalonado. “Su estructura ergonómica reduce la distorsión y mejora las bajas frecuencias, mientras que el revestimiento de titanio reproduce con nitidez los agudos”, explica Nothing a través de un comunicado.

Los componentes del driver, casi un 30% más ligeros que los típicos auriculares, potencian las frecuencias medias y altas, mientras que el driver escalonado acerca físicamente el altavoz a la oreja sin comprometer la comodidad. El algoritmo automático de Mejora de Graves optimiza las bajas frecuencias para una experiencia de graves enriquecida.

Asimismo, la tecnología Clear Voice integrada promete llamadas nítidas, incluso en entornos difíciles, gracias a su procesamiento mejorado por IA, que se ha entrenado en más de 28 millones de escenarios de ruido. Por su parte, la conexión dual permite alternar entre dispositivos sin problemas, mientras que el modo de baja latencia garantiza una experiencia de juego optimizada con un mínimo retraso en el audio.

Estos nuevos auriculares cuentan con una batería que promete 8 horas de reproducción con una sola carga y hasta 30 horas con el uso del estuche como batería externa. Además, una carga rápida de 10 minutos proporciona dos horas de reproducción.

Por último, y gracias a su integración con ChatGPT (disponible a través de la aplicación Nothing X), los usuarios pueden acceder a información en tiempo real directamente desde sus auriculares, lo que mejora la experiencia de uso al tiempo que mantienen las manos libres.

Tecnología

Meta Movie Gen ofrece un conjunto de modelos para generación de vídeo y audio para vídeo de alta calidad

Publicado

el

Meta ha presentado un conjunto de modelos fundacionales que recoge bajo el nombre de Meta Movie Gen, con los que ofrece a los creadores herramientas para generar, personalizar y editar vídeos y producir audios, todos de alta calidad y con descripciones de texto.

Meta Movie Gen es la tercera generación de modelos fundacionales de Meta, que la compañía dirige a creadores de contenido y cineastas como una herramienta que ayude a impulsar su creatividad, en lugar de sustituirla.

Los modelos que incluye se han entrenado con conjuntos de datos con licencia y otros disponibles públicamente, para ofrecer cuatro capacidades: generación de vídeo, generación de vídeo personalizada, edición de vídeo precisa y generación de audio.

En lo que respecta a la generación de vídeo, el modelo utiliza un transformador de 30.000 millones de parámetros para producir vídeos de alta calidad de hasta 16 segundos para una velocidad de 16 fotogramas por segundo, a partir de una descripción de texto.

Como indica Meta, el modelo “puede razonar sobre el movimiento de objetos, las interacciones entre sujetos y objetos y el movimiento de la cámara, y puede aprender movimientos plausibles para una amplia variedad de conceptos”, como recoge en su blog oficial.

Los modelos de Meta Movie Gen también generan de vídeos personalizados, a partir de la imagen de una persona y una descripción. A ello se unen la capacidad de editar, con acciones localizadas o más generales, y resultados precisos.

Meta Movie Gen también genera audio. En concreto, utiliza un modelo de 13.000 millones de parámetros que genera vídeo de alta calidad para un vídeo y a partir de una descripción en texto. El resultado tiene una duración de hasta 45 segundos y engloba sonido ambiental, efectos de sonido y música instrumental de fondo. Este modelo también permite generar audio coherente para vídeos de duraciones arbitrarias.

Continue Reading

Tecnología

Google Lens ahora comprende los vídeos y admite preguntas en voz alta

Publicado

el

Google ha actualizado su herramienta de búsqueda visual Lens para integrar la interacción de voz, que permitirán profundizar sobre lo que se ve a través de la cámara con preguntas en voz alta, una novedad que se complementa con la posibilidad de realizar búsquedas con vídeos.

Google Lens ha ampliado sus capacidades para facilitar la búsqueda de información al usuario sobre la marcha, con la introducción de la interacción por voz, como ha informado la compañía en su blog oficial.

De esta forma, además de tomar una foto y escribir la pregunta, el usuario podrá preguntar en voz alta sobre lo que está viendo a través de la cámara. “Explorar el mundo que te rodea es más natural e intuitivo”, como apunta la compañía.

A esta novedad se le une la incorporación en Lens de la comprensión de vídeos. Esto permite al usuario realizar un vídeo sobre una situación y preguntar sobre los elementos que aparecen en él. “Nuestros sistemas interpretarán el vídeo y tu pregunta conjuntamente para producir una descripción general de IA, junto con recursos útiles de toda la web”, ha explicado Google.

La comprensión de vídeo está disponible a nivel global en la aplicación de Google, para Android e iOS, al igual que las preguntas de voz, aunque en este último caso se limitan por el momento al inglés.

Continue Reading

Tecnología

Canvas de OpenAI convierte a ChatGPT en un compañero de trabajo en un proyecto colaborativo

Publicado

el

OpenAI ha presentado Canvas, una nueva interfaz para trabajar con ChatGPT de manera colaborativa en proyectos de redacción y programación, similar a Artifacts de Anthropic.

Canvas es una forma de trabajar junto con ChatGPT, ya que no se limita a una conversación en la que el usuario introduce sus peticiones y el ‘chatbot’ genera un resultado en base a ellas. En su lugar, abre una ventana aparte que permite editar los proyectos.

Esta nueva interfaz permite al usuario destacar secciones específicas para que ChatGPT se centre en ellas y editar directamente el texto y el código. También incluye atajos para acciones específicas, como obtener una revisión gramatical, añadir comentarios, acortar código o introducir emojis.

Canvas se ha construido en GPT-4o, lo que convierte a este modelo en “un compañero creativo” con el que colaborar. “El modelo sabe cuándo abrir un lienzo, realizar modificaciones específicas y reescribir por completo. También comprende el contexto más amplio para ofrecer comentarios y sugerencias precisas”, explican desde OpenAI en su blog oficial.

Esta novedad está disponible a nivel global para los usuarios de ChatGPT Plus y Team, y llegará la próxima semana a Enterprise y Edu. OpenIA planea facilitar Canvas de manera generaliza con ChatGPT Free cuando salga de la versión beta.

A finales de agosto, Anthropic lanzó una herramienta similar, Artifacts, un tipo de contenido colaborativo que se muestra en una ventana flotante junto a la conversación con el asistente Claude y que puede compartirse con la comunidad.

Continue Reading

Trending