Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

WhatsApp para Android ya permite mencionar a otros usuarios en las actualizaciones de estado

Publicado

el

WhatsApp ha comenzado a desplegar una nueva versión de la aplicación para Android que permite a los usuarios mencionar a otros en las actualizaciones de Estado, unas etiquetas que no se muestran en el contenido compartido, sino que solo pueden visualizarlas las personas citadas.

Las actualizaciones de Estado llegaron al servicio que desarrolla Meta en 2017, cuando comenzó a permitir a los usuarios compartir fotografías, vídeos o GIFs, que desde entonces y hasta ahora se muestran en la plataforma durante 24 horas. Una vez concluido ese plazo, desaparecen.

Actualmente, WhatsApp permite añadir en estos contenidos tanto ‘stickers’ como texto, así como editarlos con la herramienta de lápiz con diferentes grosores de trazo. También es posible publicar varios estados a la vez y configurar su privacidad.

En marzo de este año, WABetaInfo advirtió que WhatsApp estaba lanzando una actualización a través del Programa Beta de Google Play para dispositivos Android, que incluía una nueva posibilidad relacionada con los Estados.

En concreto, la versión 2.24.6.19, a la que tuvieron acceso los probadores de la ‘app’, permitía etiquetar a otras personas de forma privada en las actualizaciones de estado. Esta funcionalidad ahora ha comenzado su despliegue global con la versión 2.24.20.3, disponible a través de Google Play Store de Android.

Este portal, que ha accedido a esta opción, ha indicado que WhatsApp ha incorporado un botón para mencionar a otros usuarios, situado en la barra inferior de la interfaz de Estados y representado con el icono de la arroba (‘@’).

Una vez se mencione a un contacto en un contenido, éste recibirá una notificación informándole de que se le ha etiquetado en un contenido efímero. Esto, no obstante, es privado, de manera que otras personas que visualicen dicho vídeo o imagen no podrán ver a quién se ha mencionado, para garantizar que la interacción sea confidencial entre el usuario y su contacto.

WABetaInfo también ha dicho que los contactos mencionados siempre recibirán la actualización de estado, independientementa de la configuración de privacidad del remitente. Incluso si el contacto mencionado no puede ver otras actualizaciones de estado debido a configuraciones de privacidad específicas, sí podrán visualizar esos estados.

Asimismo, al igual que sucede en Instagram, las personas etiquetadas podrán compartir esas actualizaciones de estado con sus propios contactos, para ampliar el alcance del contenido. En este caso, la identidad del creador original permanecerá oculta.

Esta funcionalidad ya está al alcance de algunos probadores beta que instalen la última actualización de WhatsApp para Android. La versión final para el resto de usuarios llegará a dispositivos con este sistema operativo en las próximas semanas.

Tecnología

Meta Movie Gen ofrece un conjunto de modelos para generación de vídeo y audio para vídeo de alta calidad

Publicado

el

Meta ha presentado un conjunto de modelos fundacionales que recoge bajo el nombre de Meta Movie Gen, con los que ofrece a los creadores herramientas para generar, personalizar y editar vídeos y producir audios, todos de alta calidad y con descripciones de texto.

Meta Movie Gen es la tercera generación de modelos fundacionales de Meta, que la compañía dirige a creadores de contenido y cineastas como una herramienta que ayude a impulsar su creatividad, en lugar de sustituirla.

Los modelos que incluye se han entrenado con conjuntos de datos con licencia y otros disponibles públicamente, para ofrecer cuatro capacidades: generación de vídeo, generación de vídeo personalizada, edición de vídeo precisa y generación de audio.

En lo que respecta a la generación de vídeo, el modelo utiliza un transformador de 30.000 millones de parámetros para producir vídeos de alta calidad de hasta 16 segundos para una velocidad de 16 fotogramas por segundo, a partir de una descripción de texto.

Como indica Meta, el modelo “puede razonar sobre el movimiento de objetos, las interacciones entre sujetos y objetos y el movimiento de la cámara, y puede aprender movimientos plausibles para una amplia variedad de conceptos”, como recoge en su blog oficial.

Los modelos de Meta Movie Gen también generan de vídeos personalizados, a partir de la imagen de una persona y una descripción. A ello se unen la capacidad de editar, con acciones localizadas o más generales, y resultados precisos.

Meta Movie Gen también genera audio. En concreto, utiliza un modelo de 13.000 millones de parámetros que genera vídeo de alta calidad para un vídeo y a partir de una descripción en texto. El resultado tiene una duración de hasta 45 segundos y engloba sonido ambiental, efectos de sonido y música instrumental de fondo. Este modelo también permite generar audio coherente para vídeos de duraciones arbitrarias.

Continue Reading

Tecnología

Google Lens ahora comprende los vídeos y admite preguntas en voz alta

Publicado

el

Google ha actualizado su herramienta de búsqueda visual Lens para integrar la interacción de voz, que permitirán profundizar sobre lo que se ve a través de la cámara con preguntas en voz alta, una novedad que se complementa con la posibilidad de realizar búsquedas con vídeos.

Google Lens ha ampliado sus capacidades para facilitar la búsqueda de información al usuario sobre la marcha, con la introducción de la interacción por voz, como ha informado la compañía en su blog oficial.

De esta forma, además de tomar una foto y escribir la pregunta, el usuario podrá preguntar en voz alta sobre lo que está viendo a través de la cámara. “Explorar el mundo que te rodea es más natural e intuitivo”, como apunta la compañía.

A esta novedad se le une la incorporación en Lens de la comprensión de vídeos. Esto permite al usuario realizar un vídeo sobre una situación y preguntar sobre los elementos que aparecen en él. “Nuestros sistemas interpretarán el vídeo y tu pregunta conjuntamente para producir una descripción general de IA, junto con recursos útiles de toda la web”, ha explicado Google.

La comprensión de vídeo está disponible a nivel global en la aplicación de Google, para Android e iOS, al igual que las preguntas de voz, aunque en este último caso se limitan por el momento al inglés.

Continue Reading

Tecnología

Canvas de OpenAI convierte a ChatGPT en un compañero de trabajo en un proyecto colaborativo

Publicado

el

OpenAI ha presentado Canvas, una nueva interfaz para trabajar con ChatGPT de manera colaborativa en proyectos de redacción y programación, similar a Artifacts de Anthropic.

Canvas es una forma de trabajar junto con ChatGPT, ya que no se limita a una conversación en la que el usuario introduce sus peticiones y el ‘chatbot’ genera un resultado en base a ellas. En su lugar, abre una ventana aparte que permite editar los proyectos.

Esta nueva interfaz permite al usuario destacar secciones específicas para que ChatGPT se centre en ellas y editar directamente el texto y el código. También incluye atajos para acciones específicas, como obtener una revisión gramatical, añadir comentarios, acortar código o introducir emojis.

Canvas se ha construido en GPT-4o, lo que convierte a este modelo en “un compañero creativo” con el que colaborar. “El modelo sabe cuándo abrir un lienzo, realizar modificaciones específicas y reescribir por completo. También comprende el contexto más amplio para ofrecer comentarios y sugerencias precisas”, explican desde OpenAI en su blog oficial.

Esta novedad está disponible a nivel global para los usuarios de ChatGPT Plus y Team, y llegará la próxima semana a Enterprise y Edu. OpenIA planea facilitar Canvas de manera generaliza con ChatGPT Free cuando salga de la versión beta.

A finales de agosto, Anthropic lanzó una herramienta similar, Artifacts, un tipo de contenido colaborativo que se muestra en una ventana flotante junto a la conversación con el asistente Claude y que puede compartirse con la comunidad.

Continue Reading

Trending