Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

Threads prueba una opción para compartir la ubicación en las publicaciones

Publicado

el

Threads está comenzando a probar una nueva función con la que los usuarios podrán compartir su ubicación mediante una etiqueta en las publicaciones de forma similar a Instagram, lo que permitirá mostrar información como, por ejemplo, el nombre de la ciudad, un restaurante o un museo.

La red social de ‘microblogging’ continúa agregando nuevas funciones de cara a mejorar la experiencia de los usuarios en la ‘app’, para lo que planea permitir compartir más información en las publicaciones de cara a fomentar la interacción entre usuarios, en este caso, con etiquetas de ubicación.

Así, Threads ha comenzado a probar una opción para compartir la ubicación en las publicaciones de la red social, de forma similar a como ya se permite en Instagram, lo que facilita mostrar datos y contenido relacionado con ciudades, lugares emblemáticos o locales concretos, como restaurantes.

Tal y como han señalado algunos usuarios, que han tenido acceso a esta nueva función, y han recogido medios como The Verge y Engadget, esta herramienta no comparte la ubicación exacta del usuario en un mapa, si no que permite agregar información aproximada a la ubicación, relacionada con el contenido que se esté publicando y desde dónde se esté compartiendo.

Es decir, al clicar en la opción para añadir una ubicación, la ‘app’ muestra una lista de lugares cercanos en tiempo real entre los que se puede escoger una ubicación para etiquetar. Igualmente, los usuarios pueden introducir el nombre de un lugar manualmente y escoger entre las opciones disponibles.

Asimismo, según detalla Threads en la información de esta función, Meta también utilizará la función de compartir la ubicación para personalizar el contenido y mostrar a los usuarios publicaciones más relacionadas sobre los lugares etiquetados. Sin embargo, se trata de una opción que se puede desactivar en cualquier momento desde los ajustes.

Con todo ello, se ha de tener en cuenta que se trata de una opción en pruebas y, por tanto, solo está disponible para un grupo reducido de usuarios. De hecho, según han detallado desde The Verge, se trata de una función que se ha identificado en la ‘app’ para dispositivos con sistema operativo iOS, sin embargo, no se ha encontrado en la versión para navegadores de escritorio.

Tecnología

Meta Movie Gen ofrece un conjunto de modelos para generación de vídeo y audio para vídeo de alta calidad

Publicado

el

Meta ha presentado un conjunto de modelos fundacionales que recoge bajo el nombre de Meta Movie Gen, con los que ofrece a los creadores herramientas para generar, personalizar y editar vídeos y producir audios, todos de alta calidad y con descripciones de texto.

Meta Movie Gen es la tercera generación de modelos fundacionales de Meta, que la compañía dirige a creadores de contenido y cineastas como una herramienta que ayude a impulsar su creatividad, en lugar de sustituirla.

Los modelos que incluye se han entrenado con conjuntos de datos con licencia y otros disponibles públicamente, para ofrecer cuatro capacidades: generación de vídeo, generación de vídeo personalizada, edición de vídeo precisa y generación de audio.

En lo que respecta a la generación de vídeo, el modelo utiliza un transformador de 30.000 millones de parámetros para producir vídeos de alta calidad de hasta 16 segundos para una velocidad de 16 fotogramas por segundo, a partir de una descripción de texto.

Como indica Meta, el modelo “puede razonar sobre el movimiento de objetos, las interacciones entre sujetos y objetos y el movimiento de la cámara, y puede aprender movimientos plausibles para una amplia variedad de conceptos”, como recoge en su blog oficial.

Los modelos de Meta Movie Gen también generan de vídeos personalizados, a partir de la imagen de una persona y una descripción. A ello se unen la capacidad de editar, con acciones localizadas o más generales, y resultados precisos.

Meta Movie Gen también genera audio. En concreto, utiliza un modelo de 13.000 millones de parámetros que genera vídeo de alta calidad para un vídeo y a partir de una descripción en texto. El resultado tiene una duración de hasta 45 segundos y engloba sonido ambiental, efectos de sonido y música instrumental de fondo. Este modelo también permite generar audio coherente para vídeos de duraciones arbitrarias.

Continue Reading

Tecnología

Google Lens ahora comprende los vídeos y admite preguntas en voz alta

Publicado

el

Google ha actualizado su herramienta de búsqueda visual Lens para integrar la interacción de voz, que permitirán profundizar sobre lo que se ve a través de la cámara con preguntas en voz alta, una novedad que se complementa con la posibilidad de realizar búsquedas con vídeos.

Google Lens ha ampliado sus capacidades para facilitar la búsqueda de información al usuario sobre la marcha, con la introducción de la interacción por voz, como ha informado la compañía en su blog oficial.

De esta forma, además de tomar una foto y escribir la pregunta, el usuario podrá preguntar en voz alta sobre lo que está viendo a través de la cámara. “Explorar el mundo que te rodea es más natural e intuitivo”, como apunta la compañía.

A esta novedad se le une la incorporación en Lens de la comprensión de vídeos. Esto permite al usuario realizar un vídeo sobre una situación y preguntar sobre los elementos que aparecen en él. “Nuestros sistemas interpretarán el vídeo y tu pregunta conjuntamente para producir una descripción general de IA, junto con recursos útiles de toda la web”, ha explicado Google.

La comprensión de vídeo está disponible a nivel global en la aplicación de Google, para Android e iOS, al igual que las preguntas de voz, aunque en este último caso se limitan por el momento al inglés.

Continue Reading

Tecnología

Canvas de OpenAI convierte a ChatGPT en un compañero de trabajo en un proyecto colaborativo

Publicado

el

OpenAI ha presentado Canvas, una nueva interfaz para trabajar con ChatGPT de manera colaborativa en proyectos de redacción y programación, similar a Artifacts de Anthropic.

Canvas es una forma de trabajar junto con ChatGPT, ya que no se limita a una conversación en la que el usuario introduce sus peticiones y el ‘chatbot’ genera un resultado en base a ellas. En su lugar, abre una ventana aparte que permite editar los proyectos.

Esta nueva interfaz permite al usuario destacar secciones específicas para que ChatGPT se centre en ellas y editar directamente el texto y el código. También incluye atajos para acciones específicas, como obtener una revisión gramatical, añadir comentarios, acortar código o introducir emojis.

Canvas se ha construido en GPT-4o, lo que convierte a este modelo en “un compañero creativo” con el que colaborar. “El modelo sabe cuándo abrir un lienzo, realizar modificaciones específicas y reescribir por completo. También comprende el contexto más amplio para ofrecer comentarios y sugerencias precisas”, explican desde OpenAI en su blog oficial.

Esta novedad está disponible a nivel global para los usuarios de ChatGPT Plus y Team, y llegará la próxima semana a Enterprise y Edu. OpenIA planea facilitar Canvas de manera generaliza con ChatGPT Free cuando salga de la versión beta.

A finales de agosto, Anthropic lanzó una herramienta similar, Artifacts, un tipo de contenido colaborativo que se muestra en una ventana flotante junto a la conversación con el asistente Claude y que puede compartirse con la comunidad.

Continue Reading

Trending