Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

OpenAI advierte que el modelo GPT-4o tiene un riesgo «medio» de seguridad y puede generar dependencia emocional

Publicado

el

OpenAI ha advertido que su modelo GPT-4o registra un riesgo «medio» en relación a su capacidad de persuasión -sobre todo, en interacciones de texto- y que puede generar dependencia emocional en los usuarios, debido a sus avances de voz y audio.

La compañía dirigida por Sam Altman lanzó el modelo GPT-4o en el mes de mayo, cuando destacó sus habilidades para aceptar cualquier combinación de texto, audio e imagen y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a un tiempo de respuesta humana.

La tecnológica ha compartido ahora un informe interno denominado ‘Tarjeta de Sistema de su modelo GPT-4o’ (‘GPT-4o System Card’), en el que detalla los resultados de la investigación sobre la seguridad de este modelo de IA generativa. En este estudio se explica que se ha evaluado este modelo «exhaustivamente» para detectar posibles riesgos y, en base a ello, incorporar medidas de seguridad adecuadas, antes de implementarlo en ChatGPT o en la API.

En concreto, la firma ha destacado como resultado de la investigación un riesgo «medio» en las capacidades de persuasión del modelo, así como ha advertido sobre el riesgo de antropomorfización, que puede causar dependencia emocional para los usuarios, al facilitar que depositen su confianza en la IA por tener características similares a las de un humano.

De entre las cuatro categorías generales de riesgo, que comprenden ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión, OpenAI ha detectado dicho nivel de riesgo en esta última. Sobre todo, en el formato de texto del modelo, donde los investigadores han detallado que GPT-4o puede influir en las opiniones de los usuarios.

El estudio también ha puesto sobre la mesa cómo los resultados de GPT-4o pueden influir más en los lectores que un texto escrito propiamente por un humano, incluso, comparándolo con artículos escritos por profesionales.

Por su parte la persuasión en la modalidad de voz fue calificada como de bajo riesgo, tanto para las conversaciones interactivas de múltiples turnos como para los clips de audio más largos.

DEPENDENCIA EMOCIONAL

Otro de los riesgos que detalla OpenAI en el informe es la antropomorfización y, por tanto, dependencia emocional que puede ocasionar GPT-4o. La antropomorfización implica atribuir comportamientos y características similares a los humanos en entidades no humanas, como son los modelos de IA. En el caso de GPT-4o, este riesgo se ve acentuado por las capacidades de audio que ofrece, que facilitan interacciones más parecidas a las humanas con el modelo.

Esta familiaridad y alta fidelidad a la voz y expresiones humanas, puede generar problemas como que los usuarios adquieran una confianza «descalibrada» en las interacciones con el modelo y, por tanto, dependencia emocional. Por ejemplo, los investigadores observaron que GPT-4o utilizaba lenguaje que expresa vínculos compartidos con los usuarios, como «este es nuestro último día juntos».

Si bien estos casos pueden resultar útiles para personas que se encuentren en situaciones de soledad, OpenAI subraya la necesidad de continuar investigando los efectos de estas relaciones entre modelo y usuarios en periodos más prolongados.

De hecho, la tecnológica ha advertido que la socialización similar a la humana con un modelo de IA «puede producir externalidades que afecten las interacciones entre humanos». Un ejemplo de ello, es que los usuarios podrían reducir su necesidad de interacción humana, afectando a las relaciones saludables.

MITIGACIÓN DE RIESGOS DE GPT-4o

El equipo de investigación que firma el estudio, formado por empleados de OpenAI y por evaluadores externos, analizaron cuestiones como la generación de voces no autorizadas, la creación de contenido de audio no permitido, de discurso erótico y violento o las inferencias sin fundamento. Tras ello, implementaron medidas para mitigar estos riesgos.

En lo relativo a la generación de voces no autorizadas, OpenAI hace referencia a la capacidad de generar audio con una voz sintética que imita a la de una persona en concreto y que se basa en un clip de entrada de ejemplo. Esta característica puede facilitar daños como un aumento en el fraude debido a la suplantación de identidad e, incluso, aprovechar esta facilidad para difundir información falsa. No obstante, la tecnológica ha compartido que, tras abordar los riesgos de generación de voz no autorizada, han determinado que el riesgo residual de «es mínimo».

Cabe recordar que OpenAI ya ha tenido problemas con este tipo de acciones, como es el caso de la actriz Scarlett Johansson, quien acusó a la compañía de utilizar una voz muy parecida a la suya para la versión de voz Sky para ChatPGT.

Igualmente, también se ha mitigado el riesgo de identificar al hablante a la hora de interactuar por medio de la voz, de manera que la IA no pueda reconocer a una persona por sus interacciones con la voz, lo que puede resultar en un problema de privacidad.

Siguiendo esta línea, la compañía ha evaluado y contrarrestado los riesgos de las inferencia sin fundamentos y la atribución de rasgos sensibles que llevaba a cabo la IA, lo que puede ocasionar que GPT-4o ofrezca resultados potencialmente sesgados sobre los hablantes.

Lo mismo ha ocurrido con el contenido violento y erótico, que ya identificaron que GPT-4o era susceptible de aceptar órdenes para generarlo. Como resultado, OpenAI ha señalado que ha restringido la generación de este tipo de resultados del modelo.

Con todo ello, como parte del proceso de implementación iterativo, OpenAI ha señalado que continuará monitorizando y actualizando las mitigaciones de acuerdo con el panorama en evolución del modelo GPT-4o.

Tecnología

Honor cierra una exitosa edición del MWC, que reconoce su Alpha Plan y le concede más de 50 premios

Publicado

el

Honor ha dejado huella en el Mobile World Congress 2025 con la presentación de la estrategia corporativa Honor Alpha Plan, con la que busca liderar el ecosistema de dispositivos con inteligencia artificial (IA), y la innovación de sus productos, con los que ha conseguido más de 50 premios.

El anuncio de Alpha Plan marca un hito en el camino de Honor hacia la innovación y la excelencia tecnológica. Destaca la necesidad de que la industria colabore para crear un ecosistema abierto y de valor compartido que maximice el potencial humano.

Pero también es una oportunidad para Honor de convertirse en líder, para lo que ha anunciado un plan de inversión de más de 10.000 millones de dólares para el desarrollo de la IA, y se ha comprometido a ofrecer actualizaciones del sistema operativo Android y de seguridad durante siete años para su serie insignia, Honor Magic, comenzando en el mercado europeo.

Estos anuncios han llamado la atención de medios internacionales y especializados en el sector, como CNBC, Bloomberg, Tom’s Guide, Digital Trends y CNET, que, además, han reconocido su innovación con más de 50 premios, entre los que se incluyen Honor Watch 5 Ultra, que TechRadar ha calificado como «el Mejor Reloj Inteligente» del evento, y Honor Pad V9, cuyo diseño y rendimiento han hecho que Tom’s Guide lo equiparara al iPad de Apple.

Honor Earbuds Open recibieron críticas positivas por su diseño abierto y la calidad del sonido, como ha destacado GadgetMatch, y se han convertido en «los Mejores auriculares» de la feria para TechRadar. El portátil Honor MagicBook Pro 14 también ha sobresalido; NotebookCheck destacó su pantalla OLED de colores precisos y la opción de elegir entre dos procesadores Intel.

La firma tecnológica también ha recibido la visita del Rey Felipe VI de España, quien mostró interés por la tecnología de detección de Deepfake y el AI Agent de Honor, el primer asistente personal móvil del mundo basado en una interfaz gráfica (GUI), que puede interactuar de manera fluida con aplicaciones de terceros, y que se alinea con la visión de Honor de crear un ecosistema de IA abierto e inclusivo.

Continue Reading

Tecnología

YouTube alerta de una campaña de phishing que envía un vídeo privado generado por IA con la imagen del CEO

Publicado

el

YouTube ha advertido a los creadores de contenido de una campaña que utiliza la imagen del director ejecutivo del plataforma, Neal Mohan, en un vídeo generado por inteligencia artificial (IA) para estafarlos.

«YouTube y sus empleados nunca intentarán ponerse en contacto contigo ni compartir información a través de un vídeo privado», ha recordado la plataforma en la página de ayuda, ante la amenaza que supone una nueva campaña de ‘phishing’, dirigida contra los creadores de contenido.

Esta campaña utiliza la imagen de Mohan en un vídeo generado por IA para notificar supuestos cambios en el sistema de monetización. Suelen incluir enlaces que pueden llevar a sitios web fraudulentos desde los que se descarga ‘malware’ o roban las credenciales de acceso a las cuentas.

«Muchos estafadores atacan activamente a los creadores e intentan encontrar formas de hacerse pasar por YouTube aprovechando las funciones de la plataforma para vincular a contenido malicioso», apostilla la compañía.

Continue Reading

Tecnología

Una función permite borrar con un solo clic todas las claves guardadas en el Administrador de contraseñas de Google

Publicado

el

Google está desarrollando una nueva funcionalidad para el Administrador de contraseñas de su navegador Chrome, gracias a la cual los usuarios podrán eliminar fácilmente todas las credenciales almacenadas al cambiar a otra aplicación de gestión de claves.

Actualmente, para eliminar las credenciales almacenadas en el Administrador de contraseñas de Google, es necesario hacerlo una por una o borrar por completo todos los datos de navegación en la configuración del navegador. En este caso, de Chrome.

Esto significa que al acabar con las credenciales y claves de acceso e inicio de sesión en sitios web, también han de borrarse los datos de formulario de autocompletado, la configuración del sitio o el historial de navegación, tal y como recuerda Android Authority.

Este medio ha comprobado que Google está desarrollando una nueva función para el Administrador de contraseñas de Google en Android, que permitirá a los usuarios borrar todas las contraseñas guardadas al cambiar a otra aplicación del administrador.

Esta opción, que aparece en el apartado de Configuración del navegador, se indica con el nombre ‘Eliminar todos los datos’ y permitirá a los usuarios eliminar todas las contraseñas guardadas de forma rápida.

Al pulsar el botón, aparecerá un mensaje de confirmación que resalta que, al borrar todos los datos del Administrador de Google, se eliminarán las contraseñas almacenadas, claves de acceso y la lista de sitios y aplicaciones escogidas para que nunca guardaran la información de inicio de sesión. «Cualquier cuenta que hayas creado para un sitio web o una ‘app’ no se eliminará», se añade en esta notificación

Asimismo, este portal especializado ha comprobado que en ese mensaje se mostrará la cantidad de contraseñas y claves de acceso almacenadas y que contará con los botones ‘Cancelar’ para descartar la acción y ‘Eliminar’.

Android Authority ha advertido esta característica en la versión beta 25.09.30 de Google Play Services pero, por el momento, no está disponible para los usuarios finales. La compañía tecnológica planea ponerlo a su disposición en las próximas semanas.

Continue Reading

Trending