Connect with us
>
Pozega
4 lip.
30°C
5 lip.
31°C
6 lip.
29°C
7 lip.
30°C
8 lip.
31°C
9 lip.
22°C
10 lip.
23°C
>
Pozega
4 lip.
30°C
5 lip.
31°C
6 lip.
29°C
7 lip.
30°C
8 lip.
31°C
9 lip.
22°C
10 lip.
23°C
Weather for the Following Location: Pozega map, Croatia

Tecnología

Google Fotos indicará cuándo una foto se ha editado mediante IA generativa

Publicado

el

Google Fotos ha tomado nuevas medidas para fomentar la transparencia en sus servicios, con una nueva etiqueta que señalará si una imagen se ha editado con Inteligencia Artificial (IA) generativa y que incluirá en el apartado de información de la misma.

La compañía ya ofrece a sus usuarios funciones como Editor Mágico, que permite mover objetos dentro de una fotografía o bien cambiar su tamaño, y Borrador Mágico, que elimina los objetos no deseados de ellas de forma sencilla.

Google ha reconocido que, a medida que lleva estas herramientas «a más personas» debe hacerlo de forma responsable siguiendo su guía de Principios de IA y que, además de poner estas pautas a disposición de los usuarios, planea añadir información a las propias imágenes «para mejorar aún más la transparencia».

En este sentido, ha recordado que las fotos editadas con sus herramientas -Editor y borrador mágico o Zoom mejorado- ya incluyen metadatos basados en estándares técnicos del Consejo Internacional de Prensa y Telecomunicaciones (IPTC) para indicar que han sido editadas con IA generativa.

De esta manera, a partir de la próxima semana, Google Fotos indicará cuándo se ha editado una foto con la IA de Google directamente en la aplicación; una información que estará visible junto al nombre del archivo, la ubicación y el estado de la copia de seguridad en la aplicación Fotos.

Google ha indicado que además de indicar cuándo se ha editado una imagen mediante IA generativa, usará también los metadatos IPTC para indicar cuándo una imagen está compuesta por elementos de distintas fotos mediante funciones no generativas.

Para terminar, ha matizado que «este trabajo no ha terminado» y que continuará recopilando comentarios, así como evaluando soluciones adicionales para añadir más transparencia a la edición de fotos mediante IA.

Tecnología

OpenAI avanza en su idea de convertir ChatGPT en un «superasistente» capaz de conocer al usuario y gestionar sus tareas

Publicado

el

OpenAI continúa trabajando para hacer de su ‘chatbot’ impulsado por inteligencia artificial (IA) ChatGPT un «superasistente», que sea capaz de conocer al usuario, entender lo que le importa y ayudar con cualquier tarea de forma «emocionalmente inteligente», de la mano de sus modelos o3 y sus capacidades de razonamiento multimodales.

Actualmente, los usuarios utilizan ChatGPT principalmente para resolver sus preguntas, generar contenido y codificar, entre otras opciones pensadas para aliviar las cargas de trabajo en su día a día. Sin embargo, la compañía liderada por Sam Altman pretende extender su uso más allá, convirtiendo el ‘chatbot’ en «un experto, un consejero, un colaborador o un compañero y analizador» personalizado para los usuarios.

Como ya ha comentado la tecnológica en anteriores ocasiones desde que lanzó su ‘chatbot’ al mercado, la idea es ir avanzando con su producto de IA agregando nuevas tecnologías y capacidades que lo conviertan en lo que denomina como un «superasistente».

En este marco, OpenAI ha confirmado en un documento interno titulado ‘ChatGPT: H1 2025 Strategy’, que data de finales de 2024 y al que ha tenido acceso ahora The Verge, que estos planes para convertir ChatGPT en un superasistente comenzaron en la primera mitad de este año, con el objetivo de ofrecer un producto que conozca al usuario, entienda sus intereses y ayude a mejorar su vida en cualquier aspecto.

Concretamente, la compañía describe a ChatGPT como un superasistente que entiende lo que le importa al usuario y «ayuda en cualquier tarea que pueda hacer una persona emocionalmente inteligente y confiable con un ordenador».

Según los planes de la compañía, se trata de un momento oportuno dado que modelos como o3 «son por fin lo bastante inteligentes para realizar tareas de forma fiable», además de poder utilizar herramientas como el ordenador, que «pueden potenciar las capacidades de actuación de ChatGPT».

Igualmente, OpenAI ha mencionado que disponen de paradigmas de interacción, como la multimodalidad y la interfaz de usuario generativa, que permiten tanto a ChatGPT como a los usuarios «expresarse de la mejor forma posible para cada tarea».

Con todo ello, la compañía también ha definido su idea de superasistente, como «una entidad inteligente con habilidades en forma de ‘T'», esto es, que cuenta con amplias competencias para tareas cotidianas que resultan tediosas y tareas que requieren amplios conocimientos, como la codificación.

De esta manera, se trata de una entidad que actúa de personalizada y que está disponible desde cualquier plataforma, ya sea mediante la web como a través de aplicaciones nativas, ‘smartphones’ o plataformas de terceros como Siri de Apple.

Igualmente, podrá llevar a cabo todo tipo de acciones, desde encontrar una casa, hasta ponerse en contacto con un abogado, planificar vacaciones, gestionar calendarios o enviar correos electrónicos.

ENFRENTAMIENTO CON NAVEGADORES

Por otra parte, OpenAI ha calificado como competidores a las principales empresas en el sector de ‘chatbots’ para el consumidor, como es el caso de Claude de Anrhropic, Gemini de Google, Copilot de Microsoft y Meta AI de Meta. Al respecto, ha sentenciado que aunque son «líderes» del sector, «no pueden descansar».

Para ello, OpenAI busca ofrecer el mejor modelo gratuito, la mejor interfaz de usuario y la marca «más fuerte». Además, también ha subrayado que, al generar un superasistente, se enfrentan a motores de búsqueda, navegadores e incluso, a las interacciones con personas reales.

«Se trata de resolver cada vez más casos de uso e ir atrayendo poco a poco a los usuarios. Por eso no llamamos a nuestro producto motor de búsqueda, navegador o sistema operativo, sino ChatGPT», ha sentenciado.

Con todo, OpenAI ha reflejado que están en el momento óptimo y disponen de lo necesario para avanzar hacia un «superasistente», al contar con «uno de los productos de más rápido crecimiento», un «líder» en investigación tanto a nivel de razonamiento como de capacidades multimodales y de computación, y un equipo de investigación «de primera clase».

Continue Reading

Tecnología

Microsoft edge incorpora el soporte para las acciones de la aplicación en las aplicaciones web progresivas

Publicado

el

Microsoft ha incorporado el soporte para la realización de acciones en las aplicaciones web progresivas (PWA, por sus siglas en inglés) con el navegador edge.

Las PWA son páginas web que ofrecen un comportamiento similar al de las aplicaciones nativas, porque pueden instalarse en el navegador web o en la página de inicio de un dispositivo para ejecutarla de manera directa e independiente.

edge es uno de los navegadores que tiene soporte para las aplicaciones web progresivas, y se encuentran en la Tienda de Microsoft. La actualización versión 137 para Windows introduce, además, el soporte para las acciones de la aplicación, como informan en Windows Report.

Estas acciones ayudan a simplificar la ejecución de determinadas tareas, como traducir una parte de un texto o procesar una imagen, para facilitar la interacción del usuario. Al incorporarlas en las directamente en la PWA, evita tener que cambiar entre aplicaciones.

Continue Reading

Tecnología

Google amplía las funciones de Gemini en Google Drive para que pueda resumir vídeos almacenados

Publicado

el

Google ha ampliado las funciones de Inteligencia Artificial (IA) impulsadas por Gemini en Google Drive, que ahora podrá resumir los vídeos almacenados en su servicio en la nube y responder preguntas acerca del contenido de los mismos.

La tecnológica continúa desarrollando nuevas funciones para Google Drive, por lo que ha lanzado una nueva opción para los archivos en formato de vídeo, que se sumará a las incorporada hace menos de un año, que permiten resumir documentos y archivos PDF que estén guardados en el espacio de Workspace.

En concreto, Google ha ampliado las capacidades de resumen y preguntas de Gemini a los vídeos que estén almacenados en Google Drive, por lo que esta nueva función en formato de ‘chatbot’ conversacional ofrecerá una síntesis del contenido del vídeo y responderá preguntas acerca del mismo.

Según ha detallado la compañía en su web, para activar esta función bastará con acceder a un vídeo almacenado en Drive y pulsar el icono de Gemini, que aparece en la parte superior derecha de la pantalla desde la vista previa superpuesta del servicio de almacenamiento en la nube de Google. Los usuarios también deberán tener habilitados los subtítulos en el vídeo.

Google ha advertido de que, inicialmente, esta función sólo estará disponible en inglés para los usuarios de Google Workspace que hayan contratado las modalidades de Business Standard y Plus, Enterprise Standard y Plus, así como para los que hayan adquirido los complementos Gemini Education o Gemini Education Premium. Asimismo, los usuarios de Google One AI Premium también podrán acceder a esta nueva función.

La implementación completa de este servicio llevará unas semanas, ya que el gigante tecnológico ha concretado que comenzará a partir del 16 de junio.

Continue Reading

Trending