Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

Rodea para buscar de Google permite escanear automáticamente códigos de barras y códigos QR

Publicado

el

La función Rodea para buscar de Google ha comenzado a permitir el escaneo automático de códigos de barras y QR que aparezcan en pantalla, de manera que los usuarios puedan acceder a los enlaces o contenidos de estos códigos de forma más sencilla.

Rodea para buscar es una herramienta impulsada por Inteligencia Artificial (IA) que el gigante estadounidense lanzó en enero de este año inicialmente para los ‘smartphones’ Google Pixel, y que tiene la misma finalidad que Google Lens, esto es, la posibilidad de realizar búsquedas a través de imágenes, señalando con un círculo qué es lo que se quiere buscar en Internet.

En este sentido, Google ha actualizado esta función para permitir escanear códigos QR y códigos de barras de forma automática, de manera que los usuarios podrán acceder al contenido ligado a estos códigos de manera más rápida y sencilla, directamente clicando sobre ellos desde la pantalla de su ‘smartphone’.

Tal y como lo ha compartido el analista y experto en Android Mishaal Rahman a través de una publicación en X (antigua Twitter), se trata de una opción que la compañía comenzó a probar a finales de junio de este año y, ahora, ya está disponible para más usuarios.

Así, con esta funcionalidad, además de realizar búsquedas sobre elementos que se muestren en una imagen en pantalla, como una palabra sobre la que se desconoce el significado o un lugar sobre el que se quiere obtener más información, los usuarios también podrán acceder al contenido de enlaces de códigos de barra o QR.

Para ello, bastará con activar la herramienta Rodea para buscar, pulsando de forma prolongada el botón de inicio o la barra de navegación. Tras ello, no será necesario rodear el código QR en cuestión, si no que la función los reconocerá y escaneará de forma automática mostrando el acceso directamente. Finalmente, en caso de que se desee acceder a los enlaces de los códigos mostrados, bastará con clicar en ellos.

Tecnología

Meta Movie Gen ofrece un conjunto de modelos para generación de vídeo y audio para vídeo de alta calidad

Publicado

el

Meta ha presentado un conjunto de modelos fundacionales que recoge bajo el nombre de Meta Movie Gen, con los que ofrece a los creadores herramientas para generar, personalizar y editar vídeos y producir audios, todos de alta calidad y con descripciones de texto.

Meta Movie Gen es la tercera generación de modelos fundacionales de Meta, que la compañía dirige a creadores de contenido y cineastas como una herramienta que ayude a impulsar su creatividad, en lugar de sustituirla.

Los modelos que incluye se han entrenado con conjuntos de datos con licencia y otros disponibles públicamente, para ofrecer cuatro capacidades: generación de vídeo, generación de vídeo personalizada, edición de vídeo precisa y generación de audio.

En lo que respecta a la generación de vídeo, el modelo utiliza un transformador de 30.000 millones de parámetros para producir vídeos de alta calidad de hasta 16 segundos para una velocidad de 16 fotogramas por segundo, a partir de una descripción de texto.

Como indica Meta, el modelo “puede razonar sobre el movimiento de objetos, las interacciones entre sujetos y objetos y el movimiento de la cámara, y puede aprender movimientos plausibles para una amplia variedad de conceptos”, como recoge en su blog oficial.

Los modelos de Meta Movie Gen también generan de vídeos personalizados, a partir de la imagen de una persona y una descripción. A ello se unen la capacidad de editar, con acciones localizadas o más generales, y resultados precisos.

Meta Movie Gen también genera audio. En concreto, utiliza un modelo de 13.000 millones de parámetros que genera vídeo de alta calidad para un vídeo y a partir de una descripción en texto. El resultado tiene una duración de hasta 45 segundos y engloba sonido ambiental, efectos de sonido y música instrumental de fondo. Este modelo también permite generar audio coherente para vídeos de duraciones arbitrarias.

Continue Reading

Tecnología

Google Lens ahora comprende los vídeos y admite preguntas en voz alta

Publicado

el

Google ha actualizado su herramienta de búsqueda visual Lens para integrar la interacción de voz, que permitirán profundizar sobre lo que se ve a través de la cámara con preguntas en voz alta, una novedad que se complementa con la posibilidad de realizar búsquedas con vídeos.

Google Lens ha ampliado sus capacidades para facilitar la búsqueda de información al usuario sobre la marcha, con la introducción de la interacción por voz, como ha informado la compañía en su blog oficial.

De esta forma, además de tomar una foto y escribir la pregunta, el usuario podrá preguntar en voz alta sobre lo que está viendo a través de la cámara. “Explorar el mundo que te rodea es más natural e intuitivo”, como apunta la compañía.

A esta novedad se le une la incorporación en Lens de la comprensión de vídeos. Esto permite al usuario realizar un vídeo sobre una situación y preguntar sobre los elementos que aparecen en él. “Nuestros sistemas interpretarán el vídeo y tu pregunta conjuntamente para producir una descripción general de IA, junto con recursos útiles de toda la web”, ha explicado Google.

La comprensión de vídeo está disponible a nivel global en la aplicación de Google, para Android e iOS, al igual que las preguntas de voz, aunque en este último caso se limitan por el momento al inglés.

Continue Reading

Tecnología

Canvas de OpenAI convierte a ChatGPT en un compañero de trabajo en un proyecto colaborativo

Publicado

el

OpenAI ha presentado Canvas, una nueva interfaz para trabajar con ChatGPT de manera colaborativa en proyectos de redacción y programación, similar a Artifacts de Anthropic.

Canvas es una forma de trabajar junto con ChatGPT, ya que no se limita a una conversación en la que el usuario introduce sus peticiones y el ‘chatbot’ genera un resultado en base a ellas. En su lugar, abre una ventana aparte que permite editar los proyectos.

Esta nueva interfaz permite al usuario destacar secciones específicas para que ChatGPT se centre en ellas y editar directamente el texto y el código. También incluye atajos para acciones específicas, como obtener una revisión gramatical, añadir comentarios, acortar código o introducir emojis.

Canvas se ha construido en GPT-4o, lo que convierte a este modelo en “un compañero creativo” con el que colaborar. “El modelo sabe cuándo abrir un lienzo, realizar modificaciones específicas y reescribir por completo. También comprende el contexto más amplio para ofrecer comentarios y sugerencias precisas”, explican desde OpenAI en su blog oficial.

Esta novedad está disponible a nivel global para los usuarios de ChatGPT Plus y Team, y llegará la próxima semana a Enterprise y Edu. OpenIA planea facilitar Canvas de manera generaliza con ChatGPT Free cuando salga de la versión beta.

A finales de agosto, Anthropic lanzó una herramienta similar, Artifacts, un tipo de contenido colaborativo que se muestra en una ventana flotante junto a la conversación con el asistente Claude y que puede compartirse con la comunidad.

Continue Reading

Trending