Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

TwitchCon 2025 reunirá miles de ‘streamers’ en Róterdam los días 31 de mayo y 1 de junio

Publicado

el

Twitch celebrará su convención anual TwitchCon 2025 los días 31 de mayo y 1 de junio en la ciudad de Róterdam (Países Bajos), donde concentrará a miles de ‘streamers’ y llevará a cabo múltiples eventos para dar a conocer las últimas novedades de la plataforma.

El próximo encuentro TwitchCon, que celebrará su décima edición, repetirá ubicación el próximo año en Europa con Róterdam como ciudad anfitriona para esta cita, en la que espectadores y ‘streamers’ podrán “estrechar sus lazos en persona”.

Tal y como ha recordado la compañía, la conferencia TwitchCon reúne año tras año miles de ‘streamers’ de la plataforma, así como a moderadores de canales y espectadores, de manera que puedan encontrarse para compartir temas relacionados con la creatividad de contenido, los videojuegos y otras cuestiones de actualidad.

Así, los miembros de esta comunidad, que cuenta actualmente con más de 105 millones de visitantes únicos al mes, podrán reunirse durante los días 31 de mayo y 1 de junio para poner en común sus puntos de vista del mundo del ‘streaming’, en el que es el evento en vivo “más grande” a nivel global de la plataforma, tal y como ha manifestado el CEO de Twitch, Dan Clancy.

Además de todo ello, la plataforma de contenido en ‘streaming’ también ha adelantado que celebrará otro encuentro TwitchCon en San Diego (California, Estados Unidos), que tendrá lugar del 17 al 19 de octubre de 2025.

Con todo ello, la compañía ha adelantado que los usuarios interesados en asistir podrán comprar las entradas para ambos eventos a principios del próximo año. Aunque ya pueden apuntarse para recibir las últimas noticias y actualizaciones de estos eventos.

Durante la edición de este año, Twitch anunció nuevos programas y funciones para la plataforma, como las emisiones en 4K o la opción de crear nuevas Historias con clips de vídeo, además también presentó su aplicación móvil rediseñada, entre otras novedades.

Tecnología

Meta Movie Gen ofrece un conjunto de modelos para generación de vídeo y audio para vídeo de alta calidad

Publicado

el

Meta ha presentado un conjunto de modelos fundacionales que recoge bajo el nombre de Meta Movie Gen, con los que ofrece a los creadores herramientas para generar, personalizar y editar vídeos y producir audios, todos de alta calidad y con descripciones de texto.

Meta Movie Gen es la tercera generación de modelos fundacionales de Meta, que la compañía dirige a creadores de contenido y cineastas como una herramienta que ayude a impulsar su creatividad, en lugar de sustituirla.

Los modelos que incluye se han entrenado con conjuntos de datos con licencia y otros disponibles públicamente, para ofrecer cuatro capacidades: generación de vídeo, generación de vídeo personalizada, edición de vídeo precisa y generación de audio.

En lo que respecta a la generación de vídeo, el modelo utiliza un transformador de 30.000 millones de parámetros para producir vídeos de alta calidad de hasta 16 segundos para una velocidad de 16 fotogramas por segundo, a partir de una descripción de texto.

Como indica Meta, el modelo “puede razonar sobre el movimiento de objetos, las interacciones entre sujetos y objetos y el movimiento de la cámara, y puede aprender movimientos plausibles para una amplia variedad de conceptos”, como recoge en su blog oficial.

Los modelos de Meta Movie Gen también generan de vídeos personalizados, a partir de la imagen de una persona y una descripción. A ello se unen la capacidad de editar, con acciones localizadas o más generales, y resultados precisos.

Meta Movie Gen también genera audio. En concreto, utiliza un modelo de 13.000 millones de parámetros que genera vídeo de alta calidad para un vídeo y a partir de una descripción en texto. El resultado tiene una duración de hasta 45 segundos y engloba sonido ambiental, efectos de sonido y música instrumental de fondo. Este modelo también permite generar audio coherente para vídeos de duraciones arbitrarias.

Continue Reading

Tecnología

Google Lens ahora comprende los vídeos y admite preguntas en voz alta

Publicado

el

Google ha actualizado su herramienta de búsqueda visual Lens para integrar la interacción de voz, que permitirán profundizar sobre lo que se ve a través de la cámara con preguntas en voz alta, una novedad que se complementa con la posibilidad de realizar búsquedas con vídeos.

Google Lens ha ampliado sus capacidades para facilitar la búsqueda de información al usuario sobre la marcha, con la introducción de la interacción por voz, como ha informado la compañía en su blog oficial.

De esta forma, además de tomar una foto y escribir la pregunta, el usuario podrá preguntar en voz alta sobre lo que está viendo a través de la cámara. “Explorar el mundo que te rodea es más natural e intuitivo”, como apunta la compañía.

A esta novedad se le une la incorporación en Lens de la comprensión de vídeos. Esto permite al usuario realizar un vídeo sobre una situación y preguntar sobre los elementos que aparecen en él. “Nuestros sistemas interpretarán el vídeo y tu pregunta conjuntamente para producir una descripción general de IA, junto con recursos útiles de toda la web”, ha explicado Google.

La comprensión de vídeo está disponible a nivel global en la aplicación de Google, para Android e iOS, al igual que las preguntas de voz, aunque en este último caso se limitan por el momento al inglés.

Continue Reading

Tecnología

Canvas de OpenAI convierte a ChatGPT en un compañero de trabajo en un proyecto colaborativo

Publicado

el

OpenAI ha presentado Canvas, una nueva interfaz para trabajar con ChatGPT de manera colaborativa en proyectos de redacción y programación, similar a Artifacts de Anthropic.

Canvas es una forma de trabajar junto con ChatGPT, ya que no se limita a una conversación en la que el usuario introduce sus peticiones y el ‘chatbot’ genera un resultado en base a ellas. En su lugar, abre una ventana aparte que permite editar los proyectos.

Esta nueva interfaz permite al usuario destacar secciones específicas para que ChatGPT se centre en ellas y editar directamente el texto y el código. También incluye atajos para acciones específicas, como obtener una revisión gramatical, añadir comentarios, acortar código o introducir emojis.

Canvas se ha construido en GPT-4o, lo que convierte a este modelo en “un compañero creativo” con el que colaborar. “El modelo sabe cuándo abrir un lienzo, realizar modificaciones específicas y reescribir por completo. También comprende el contexto más amplio para ofrecer comentarios y sugerencias precisas”, explican desde OpenAI en su blog oficial.

Esta novedad está disponible a nivel global para los usuarios de ChatGPT Plus y Team, y llegará la próxima semana a Enterprise y Edu. OpenIA planea facilitar Canvas de manera generaliza con ChatGPT Free cuando salga de la versión beta.

A finales de agosto, Anthropic lanzó una herramienta similar, Artifacts, un tipo de contenido colaborativo que se muestra en una ventana flotante junto a la conversación con el asistente Claude y que puede compartirse con la comunidad.

Continue Reading

Trending