Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

OpenAI advierte que el modelo GPT-4o tiene un riesgo «medio» de seguridad y puede generar dependencia emocional

Publicado

el

OpenAI ha advertido que su modelo GPT-4o registra un riesgo «medio» en relación a su capacidad de persuasión -sobre todo, en interacciones de texto- y que puede generar dependencia emocional en los usuarios, debido a sus avances de voz y audio.

La compañía dirigida por Sam Altman lanzó el modelo GPT-4o en el mes de mayo, cuando destacó sus habilidades para aceptar cualquier combinación de texto, audio e imagen y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a un tiempo de respuesta humana.

La tecnológica ha compartido ahora un informe interno denominado ‘Tarjeta de Sistema de su modelo GPT-4o’ (‘GPT-4o System Card’), en el que detalla los resultados de la investigación sobre la seguridad de este modelo de IA generativa. En este estudio se explica que se ha evaluado este modelo «exhaustivamente» para detectar posibles riesgos y, en base a ello, incorporar medidas de seguridad adecuadas, antes de implementarlo en ChatGPT o en la API.

En concreto, la firma ha destacado como resultado de la investigación un riesgo «medio» en las capacidades de persuasión del modelo, así como ha advertido sobre el riesgo de antropomorfización, que puede causar dependencia emocional para los usuarios, al facilitar que depositen su confianza en la IA por tener características similares a las de un humano.

De entre las cuatro categorías generales de riesgo, que comprenden ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión, OpenAI ha detectado dicho nivel de riesgo en esta última. Sobre todo, en el formato de texto del modelo, donde los investigadores han detallado que GPT-4o puede influir en las opiniones de los usuarios.

El estudio también ha puesto sobre la mesa cómo los resultados de GPT-4o pueden influir más en los lectores que un texto escrito propiamente por un humano, incluso, comparándolo con artículos escritos por profesionales.

Por su parte la persuasión en la modalidad de voz fue calificada como de bajo riesgo, tanto para las conversaciones interactivas de múltiples turnos como para los clips de audio más largos.

DEPENDENCIA EMOCIONAL

Otro de los riesgos que detalla OpenAI en el informe es la antropomorfización y, por tanto, dependencia emocional que puede ocasionar GPT-4o. La antropomorfización implica atribuir comportamientos y características similares a los humanos en entidades no humanas, como son los modelos de IA. En el caso de GPT-4o, este riesgo se ve acentuado por las capacidades de audio que ofrece, que facilitan interacciones más parecidas a las humanas con el modelo.

Esta familiaridad y alta fidelidad a la voz y expresiones humanas, puede generar problemas como que los usuarios adquieran una confianza «descalibrada» en las interacciones con el modelo y, por tanto, dependencia emocional. Por ejemplo, los investigadores observaron que GPT-4o utilizaba lenguaje que expresa vínculos compartidos con los usuarios, como «este es nuestro último día juntos».

Si bien estos casos pueden resultar útiles para personas que se encuentren en situaciones de soledad, OpenAI subraya la necesidad de continuar investigando los efectos de estas relaciones entre modelo y usuarios en periodos más prolongados.

De hecho, la tecnológica ha advertido que la socialización similar a la humana con un modelo de IA «puede producir externalidades que afecten las interacciones entre humanos». Un ejemplo de ello, es que los usuarios podrían reducir su necesidad de interacción humana, afectando a las relaciones saludables.

MITIGACIÓN DE RIESGOS DE GPT-4o

El equipo de investigación que firma el estudio, formado por empleados de OpenAI y por evaluadores externos, analizaron cuestiones como la generación de voces no autorizadas, la creación de contenido de audio no permitido, de discurso erótico y violento o las inferencias sin fundamento. Tras ello, implementaron medidas para mitigar estos riesgos.

En lo relativo a la generación de voces no autorizadas, OpenAI hace referencia a la capacidad de generar audio con una voz sintética que imita a la de una persona en concreto y que se basa en un clip de entrada de ejemplo. Esta característica puede facilitar daños como un aumento en el fraude debido a la suplantación de identidad e, incluso, aprovechar esta facilidad para difundir información falsa. No obstante, la tecnológica ha compartido que, tras abordar los riesgos de generación de voz no autorizada, han determinado que el riesgo residual de «es mínimo».

Cabe recordar que OpenAI ya ha tenido problemas con este tipo de acciones, como es el caso de la actriz Scarlett Johansson, quien acusó a la compañía de utilizar una voz muy parecida a la suya para la versión de voz Sky para ChatPGT.

Igualmente, también se ha mitigado el riesgo de identificar al hablante a la hora de interactuar por medio de la voz, de manera que la IA no pueda reconocer a una persona por sus interacciones con la voz, lo que puede resultar en un problema de privacidad.

Siguiendo esta línea, la compañía ha evaluado y contrarrestado los riesgos de las inferencia sin fundamentos y la atribución de rasgos sensibles que llevaba a cabo la IA, lo que puede ocasionar que GPT-4o ofrezca resultados potencialmente sesgados sobre los hablantes.

Lo mismo ha ocurrido con el contenido violento y erótico, que ya identificaron que GPT-4o era susceptible de aceptar órdenes para generarlo. Como resultado, OpenAI ha señalado que ha restringido la generación de este tipo de resultados del modelo.

Con todo ello, como parte del proceso de implementación iterativo, OpenAI ha señalado que continuará monitorizando y actualizando las mitigaciones de acuerdo con el panorama en evolución del modelo GPT-4o.

Tecnología

Los anuncios de WhatsApp no llegarán a los usuarios europeos hasta 2026

Publicado

el

WhatsApp ha trasladado a la Comisión de Protección de Datos (DPC, por sus siglas en inglés) de Irlanda que los anuncios previstos para implementarse en los estados y canales de la red social no se desplegarán para los usuarios europeos hasta el próximo año 2026.

La red social de mensajería propiedad de Meta anunció este lunes que comenzará a introducir anuncios en los estados y los canales, con el objetivo de fomentar conversaciones entre los usuarios y empresas de forma sencilla sobre sus productos o servicios.

Asimismo la compañía especificó que esta función se ha desarrollado «de la manera más privada posible» y que, para mostrar los anuncios en los estados o canales, utilizaría «información limitada» del usuario, como el país, idioma, los canales que sigue y cómo interactúa con ellos.

Sin embargo, WhatsApp ha matizado ahora que sus planes para introducir anuncios no llegarán a la Unión Europea hasta el próximo año 2026, de cara a abordar las preocupaciones respecto a la protección de datos de los usuarios antes de su implementación.

Así lo ha trasladado Meta a la Comisión de Protección de Datos de Irlanda, encargada de asegurar el cumplimiento del Reglamento General de Protección de Datos (RGPD) de la Unión Europea, y ha recogido el medio Politico, que ha matizado que, según el comisario responsable de la DPC, Des Hogan, el nuevo producto «no se lanzará al mercado de la UE hasta 2026» y que ambas organizaciones se reunirán para «abordar cualquier asunto con más detalle».

En concreto, la DPC ha señalado que el modelo publicitario que pretende implementar WhatsApp se analizará y estudiará con otras autoridades de protección de datos para poder reflejar posteriormente «cualquier preocupación como reguladores europeos» en conversaciones con Meta.

Por su parte, un portavoz de WhatsApp ha confirmado que, a pesar de este retraso en la UE, los anuncios se han lanzado como una «actualización global» y se irán implementando de forma gradual para todos los usuarios.

Con todo, se ha de tener en cuenta que, además de analizar el comportamiento de los usuarios con los anuncios de los canales de la red social, en el caso de que se haya optado por añadir WhatsApp al Centro de Cuentas de Meta, la compañía también podrá usar las preferencias de anuncios y la información de todas las cuentas del usuario, incluidos Facebook e Instagram.

En este sentido, aunque los anuncios no se mostrarán en los chats de los usuarios, el tratamiento de los datos personales y el uso de la información de las otras cuentas de Meta relacionadas se ha de analizar para que sea un trato acorde con lo recogido en el RGPD.

Continue Reading

Tecnología

Google actualiza Gemini para integrar la función de Búsqueda de canciones

Publicado

el

Google ha actualizado la ‘app’ de Gemini para integrar la función de Búsqueda de canciones con el fin de que tenga la capacidad de identificar música, sin necesidad de recurrir a otras aplicaciones.

Anteriormente, cuando se le pedía a Gemini que reconociese una canción que estuviese sonando, el ‘chatbot’ afirmaba que no era capaz de realizar esta función y sugería al usuario algunas aplicaciones que pudieran hacerlo.

En cambio, la compañía tecnológica ya ha incorporado esta función a Gemini a través de la integración de la herramientas de Búsqueda de canciones de la empresa, por lo que si un usuario le pregunta «¿qué canción está sonando?», el asistente activará el micrófono para reconocerla, y mostrará el resultado a través de la aplicación, según ha descubierto el portal 9to5Google.

Esta nueva función está disponible para la ‘app’ de Android desde hace unas semanas, según ha apuntado el medio citado, y se necesita estar conectado a internet para acceder a ella.

Continue Reading

Tecnología

Nothing elige Snapdragon 8s Gen 4 para impulsar Phone (3)

Publicado

el

Nothing presentará su próximo ‘smartphone’, Phone (3), el 1 de julio, un equipo que elva a la categoría de buque insignia y que está impulsado por el procesador Snapdragon 8s Gen 4 de Qualcomm.

Phone (3) será el «primer ‘smartphone’ insignia» de la firma tecnológica con sede en Londres, para lo que contará con materiales de primera calidad, importantes mejoras de rendimiento y un renovado, según adelantó durante el evento The Android Show: I/O Edition.

Para cumplir este objetivo, Nothing ha elegido el procesador Snapdragon 8s Gen 4, el más avanzado que ha incorporado la compañía hasta la fecha, como afirma en una nota de prensa.

«Queremos superar de verdad a nuestro anterior flagship, así que, en comparación con Phone (2), será un 36% más rápido en CPU, un 88% más potente en GPU y un 60% más potente en NPU», ha explicado el director ejecutivo, Carl Pei.

Este procesador hará que el ‘smartphone’ funcione «mucho más rápido y fluido», y que ofrezca una «experiencia equilibrada». «La gente utiliza estos dispositivos muchas horas al día, así que para nosotros es clave ofrecer una experiencia completa», ha añadido el directivo.

Con anterioridad, Nothing desveló que Phone (3) no contará con la interfaz Gylph, el distintivo sistema de iluminación de la marca que se encuentra en la parte trasera de sus dispositivos móviles. Pero sí tendrá funciones de ‘software’ y ‘hardware’ nuevas impulsadas por la inteligencia artificial de consumo.

Nothing presentará Phone (3) el próximo 1 de julio junto con Headphone (1), su primer producto en la categoría de auriculares over-ear.

Continue Reading

Trending