Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

OpenAI advierte que el modelo GPT-4o tiene un riesgo «medio» de seguridad y puede generar dependencia emocional

Publicado

el

OpenAI ha advertido que su modelo GPT-4o registra un riesgo «medio» en relación a su capacidad de persuasión -sobre todo, en interacciones de texto- y que puede generar dependencia emocional en los usuarios, debido a sus avances de voz y audio.

La compañía dirigida por Sam Altman lanzó el modelo GPT-4o en el mes de mayo, cuando destacó sus habilidades para aceptar cualquier combinación de texto, audio e imagen y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a un tiempo de respuesta humana.

La tecnológica ha compartido ahora un informe interno denominado ‘Tarjeta de Sistema de su modelo GPT-4o’ (‘GPT-4o System Card’), en el que detalla los resultados de la investigación sobre la seguridad de este modelo de IA generativa. En este estudio se explica que se ha evaluado este modelo «exhaustivamente» para detectar posibles riesgos y, en base a ello, incorporar medidas de seguridad adecuadas, antes de implementarlo en ChatGPT o en la API.

En concreto, la firma ha destacado como resultado de la investigación un riesgo «medio» en las capacidades de persuasión del modelo, así como ha advertido sobre el riesgo de antropomorfización, que puede causar dependencia emocional para los usuarios, al facilitar que depositen su confianza en la IA por tener características similares a las de un humano.

De entre las cuatro categorías generales de riesgo, que comprenden ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión, OpenAI ha detectado dicho nivel de riesgo en esta última. Sobre todo, en el formato de texto del modelo, donde los investigadores han detallado que GPT-4o puede influir en las opiniones de los usuarios.

El estudio también ha puesto sobre la mesa cómo los resultados de GPT-4o pueden influir más en los lectores que un texto escrito propiamente por un humano, incluso, comparándolo con artículos escritos por profesionales.

Por su parte la persuasión en la modalidad de voz fue calificada como de bajo riesgo, tanto para las conversaciones interactivas de múltiples turnos como para los clips de audio más largos.

DEPENDENCIA EMOCIONAL

Otro de los riesgos que detalla OpenAI en el informe es la antropomorfización y, por tanto, dependencia emocional que puede ocasionar GPT-4o. La antropomorfización implica atribuir comportamientos y características similares a los humanos en entidades no humanas, como son los modelos de IA. En el caso de GPT-4o, este riesgo se ve acentuado por las capacidades de audio que ofrece, que facilitan interacciones más parecidas a las humanas con el modelo.

Esta familiaridad y alta fidelidad a la voz y expresiones humanas, puede generar problemas como que los usuarios adquieran una confianza «descalibrada» en las interacciones con el modelo y, por tanto, dependencia emocional. Por ejemplo, los investigadores observaron que GPT-4o utilizaba lenguaje que expresa vínculos compartidos con los usuarios, como «este es nuestro último día juntos».

Si bien estos casos pueden resultar útiles para personas que se encuentren en situaciones de soledad, OpenAI subraya la necesidad de continuar investigando los efectos de estas relaciones entre modelo y usuarios en periodos más prolongados.

De hecho, la tecnológica ha advertido que la socialización similar a la humana con un modelo de IA «puede producir externalidades que afecten las interacciones entre humanos». Un ejemplo de ello, es que los usuarios podrían reducir su necesidad de interacción humana, afectando a las relaciones saludables.

MITIGACIÓN DE RIESGOS DE GPT-4o

El equipo de investigación que firma el estudio, formado por empleados de OpenAI y por evaluadores externos, analizaron cuestiones como la generación de voces no autorizadas, la creación de contenido de audio no permitido, de discurso erótico y violento o las inferencias sin fundamento. Tras ello, implementaron medidas para mitigar estos riesgos.

En lo relativo a la generación de voces no autorizadas, OpenAI hace referencia a la capacidad de generar audio con una voz sintética que imita a la de una persona en concreto y que se basa en un clip de entrada de ejemplo. Esta característica puede facilitar daños como un aumento en el fraude debido a la suplantación de identidad e, incluso, aprovechar esta facilidad para difundir información falsa. No obstante, la tecnológica ha compartido que, tras abordar los riesgos de generación de voz no autorizada, han determinado que el riesgo residual de «es mínimo».

Cabe recordar que OpenAI ya ha tenido problemas con este tipo de acciones, como es el caso de la actriz Scarlett Johansson, quien acusó a la compañía de utilizar una voz muy parecida a la suya para la versión de voz Sky para ChatPGT.

Igualmente, también se ha mitigado el riesgo de identificar al hablante a la hora de interactuar por medio de la voz, de manera que la IA no pueda reconocer a una persona por sus interacciones con la voz, lo que puede resultar en un problema de privacidad.

Siguiendo esta línea, la compañía ha evaluado y contrarrestado los riesgos de las inferencia sin fundamentos y la atribución de rasgos sensibles que llevaba a cabo la IA, lo que puede ocasionar que GPT-4o ofrezca resultados potencialmente sesgados sobre los hablantes.

Lo mismo ha ocurrido con el contenido violento y erótico, que ya identificaron que GPT-4o era susceptible de aceptar órdenes para generarlo. Como resultado, OpenAI ha señalado que ha restringido la generación de este tipo de resultados del modelo.

Con todo ello, como parte del proceso de implementación iterativo, OpenAI ha señalado que continuará monitorizando y actualizando las mitigaciones de acuerdo con el panorama en evolución del modelo GPT-4o.

Tecnología

OpenAI avanza en su idea de convertir ChatGPT en un «superasistente» capaz de conocer al usuario y gestionar sus tareas

Publicado

el

OpenAI continúa trabajando para hacer de su ‘chatbot’ impulsado por inteligencia artificial (IA) ChatGPT un «superasistente», que sea capaz de conocer al usuario, entender lo que le importa y ayudar con cualquier tarea de forma «emocionalmente inteligente», de la mano de sus modelos o3 y sus capacidades de razonamiento multimodales.

Actualmente, los usuarios utilizan ChatGPT principalmente para resolver sus preguntas, generar contenido y codificar, entre otras opciones pensadas para aliviar las cargas de trabajo en su día a día. Sin embargo, la compañía liderada por Sam Altman pretende extender su uso más allá, convirtiendo el ‘chatbot’ en «un experto, un consejero, un colaborador o un compañero y analizador» personalizado para los usuarios.

Como ya ha comentado la tecnológica en anteriores ocasiones desde que lanzó su ‘chatbot’ al mercado, la idea es ir avanzando con su producto de IA agregando nuevas tecnologías y capacidades que lo conviertan en lo que denomina como un «superasistente».

En este marco, OpenAI ha confirmado en un documento interno titulado ‘ChatGPT: H1 2025 Strategy’, que data de finales de 2024 y al que ha tenido acceso ahora The Verge, que estos planes para convertir ChatGPT en un superasistente comenzaron en la primera mitad de este año, con el objetivo de ofrecer un producto que conozca al usuario, entienda sus intereses y ayude a mejorar su vida en cualquier aspecto.

Concretamente, la compañía describe a ChatGPT como un superasistente que entiende lo que le importa al usuario y «ayuda en cualquier tarea que pueda hacer una persona emocionalmente inteligente y confiable con un ordenador».

Según los planes de la compañía, se trata de un momento oportuno dado que modelos como o3 «son por fin lo bastante inteligentes para realizar tareas de forma fiable», además de poder utilizar herramientas como el ordenador, que «pueden potenciar las capacidades de actuación de ChatGPT».

Igualmente, OpenAI ha mencionado que disponen de paradigmas de interacción, como la multimodalidad y la interfaz de usuario generativa, que permiten tanto a ChatGPT como a los usuarios «expresarse de la mejor forma posible para cada tarea».

Con todo ello, la compañía también ha definido su idea de superasistente, como «una entidad inteligente con habilidades en forma de ‘T'», esto es, que cuenta con amplias competencias para tareas cotidianas que resultan tediosas y tareas que requieren amplios conocimientos, como la codificación.

De esta manera, se trata de una entidad que actúa de personalizada y que está disponible desde cualquier plataforma, ya sea mediante la web como a través de aplicaciones nativas, ‘smartphones’ o plataformas de terceros como Siri de Apple.

Igualmente, podrá llevar a cabo todo tipo de acciones, desde encontrar una casa, hasta ponerse en contacto con un abogado, planificar vacaciones, gestionar calendarios o enviar correos electrónicos.

ENFRENTAMIENTO CON NAVEGADORES

Por otra parte, OpenAI ha calificado como competidores a las principales empresas en el sector de ‘chatbots’ para el consumidor, como es el caso de Claude de Anrhropic, Gemini de Google, Copilot de Microsoft y Meta AI de Meta. Al respecto, ha sentenciado que aunque son «líderes» del sector, «no pueden descansar».

Para ello, OpenAI busca ofrecer el mejor modelo gratuito, la mejor interfaz de usuario y la marca «más fuerte». Además, también ha subrayado que, al generar un superasistente, se enfrentan a motores de búsqueda, navegadores e incluso, a las interacciones con personas reales.

«Se trata de resolver cada vez más casos de uso e ir atrayendo poco a poco a los usuarios. Por eso no llamamos a nuestro producto motor de búsqueda, navegador o sistema operativo, sino ChatGPT», ha sentenciado.

Con todo, OpenAI ha reflejado que están en el momento óptimo y disponen de lo necesario para avanzar hacia un «superasistente», al contar con «uno de los productos de más rápido crecimiento», un «líder» en investigación tanto a nivel de razonamiento como de capacidades multimodales y de computación, y un equipo de investigación «de primera clase».

Continue Reading

Tecnología

Microsoft edge incorpora el soporte para las acciones de la aplicación en las aplicaciones web progresivas

Publicado

el

Microsoft ha incorporado el soporte para la realización de acciones en las aplicaciones web progresivas (PWA, por sus siglas en inglés) con el navegador edge.

Las PWA son páginas web que ofrecen un comportamiento similar al de las aplicaciones nativas, porque pueden instalarse en el navegador web o en la página de inicio de un dispositivo para ejecutarla de manera directa e independiente.

edge es uno de los navegadores que tiene soporte para las aplicaciones web progresivas, y se encuentran en la Tienda de Microsoft. La actualización versión 137 para Windows introduce, además, el soporte para las acciones de la aplicación, como informan en Windows Report.

Estas acciones ayudan a simplificar la ejecución de determinadas tareas, como traducir una parte de un texto o procesar una imagen, para facilitar la interacción del usuario. Al incorporarlas en las directamente en la PWA, evita tener que cambiar entre aplicaciones.

Continue Reading

Tecnología

Google amplía las funciones de Gemini en Google Drive para que pueda resumir vídeos almacenados

Publicado

el

Google ha ampliado las funciones de Inteligencia Artificial (IA) impulsadas por Gemini en Google Drive, que ahora podrá resumir los vídeos almacenados en su servicio en la nube y responder preguntas acerca del contenido de los mismos.

La tecnológica continúa desarrollando nuevas funciones para Google Drive, por lo que ha lanzado una nueva opción para los archivos en formato de vídeo, que se sumará a las incorporada hace menos de un año, que permiten resumir documentos y archivos PDF que estén guardados en el espacio de Workspace.

En concreto, Google ha ampliado las capacidades de resumen y preguntas de Gemini a los vídeos que estén almacenados en Google Drive, por lo que esta nueva función en formato de ‘chatbot’ conversacional ofrecerá una síntesis del contenido del vídeo y responderá preguntas acerca del mismo.

Según ha detallado la compañía en su web, para activar esta función bastará con acceder a un vídeo almacenado en Drive y pulsar el icono de Gemini, que aparece en la parte superior derecha de la pantalla desde la vista previa superpuesta del servicio de almacenamiento en la nube de Google. Los usuarios también deberán tener habilitados los subtítulos en el vídeo.

Google ha advertido de que, inicialmente, esta función sólo estará disponible en inglés para los usuarios de Google Workspace que hayan contratado las modalidades de Business Standard y Plus, Enterprise Standard y Plus, así como para los que hayan adquirido los complementos Gemini Education o Gemini Education Premium. Asimismo, los usuarios de Google One AI Premium también podrán acceder a esta nueva función.

La implementación completa de este servicio llevará unas semanas, ya que el gigante tecnológico ha concretado que comenzará a partir del 16 de junio.

Continue Reading

Trending