Connect with us
11°C
صافي
Weather Data Source: het weer vandaag Amman per uur

Tecnología

OpenAI advierte que el modelo GPT-4o tiene un riesgo «medio» de seguridad y puede generar dependencia emocional

Publicado

el

OpenAI ha advertido que su modelo GPT-4o registra un riesgo «medio» en relación a su capacidad de persuasión -sobre todo, en interacciones de texto- y que puede generar dependencia emocional en los usuarios, debido a sus avances de voz y audio.

La compañía dirigida por Sam Altman lanzó el modelo GPT-4o en el mes de mayo, cuando destacó sus habilidades para aceptar cualquier combinación de texto, audio e imagen y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a un tiempo de respuesta humana.

La tecnológica ha compartido ahora un informe interno denominado ‘Tarjeta de Sistema de su modelo GPT-4o’ (‘GPT-4o System Card’), en el que detalla los resultados de la investigación sobre la seguridad de este modelo de IA generativa. En este estudio se explica que se ha evaluado este modelo «exhaustivamente» para detectar posibles riesgos y, en base a ello, incorporar medidas de seguridad adecuadas, antes de implementarlo en ChatGPT o en la API.

En concreto, la firma ha destacado como resultado de la investigación un riesgo «medio» en las capacidades de persuasión del modelo, así como ha advertido sobre el riesgo de antropomorfización, que puede causar dependencia emocional para los usuarios, al facilitar que depositen su confianza en la IA por tener características similares a las de un humano.

De entre las cuatro categorías generales de riesgo, que comprenden ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión, OpenAI ha detectado dicho nivel de riesgo en esta última. Sobre todo, en el formato de texto del modelo, donde los investigadores han detallado que GPT-4o puede influir en las opiniones de los usuarios.

El estudio también ha puesto sobre la mesa cómo los resultados de GPT-4o pueden influir más en los lectores que un texto escrito propiamente por un humano, incluso, comparándolo con artículos escritos por profesionales.

Por su parte la persuasión en la modalidad de voz fue calificada como de bajo riesgo, tanto para las conversaciones interactivas de múltiples turnos como para los clips de audio más largos.

DEPENDENCIA EMOCIONAL

Otro de los riesgos que detalla OpenAI en el informe es la antropomorfización y, por tanto, dependencia emocional que puede ocasionar GPT-4o. La antropomorfización implica atribuir comportamientos y características similares a los humanos en entidades no humanas, como son los modelos de IA. En el caso de GPT-4o, este riesgo se ve acentuado por las capacidades de audio que ofrece, que facilitan interacciones más parecidas a las humanas con el modelo.

Esta familiaridad y alta fidelidad a la voz y expresiones humanas, puede generar problemas como que los usuarios adquieran una confianza «descalibrada» en las interacciones con el modelo y, por tanto, dependencia emocional. Por ejemplo, los investigadores observaron que GPT-4o utilizaba lenguaje que expresa vínculos compartidos con los usuarios, como «este es nuestro último día juntos».

Si bien estos casos pueden resultar útiles para personas que se encuentren en situaciones de soledad, OpenAI subraya la necesidad de continuar investigando los efectos de estas relaciones entre modelo y usuarios en periodos más prolongados.

De hecho, la tecnológica ha advertido que la socialización similar a la humana con un modelo de IA «puede producir externalidades que afecten las interacciones entre humanos». Un ejemplo de ello, es que los usuarios podrían reducir su necesidad de interacción humana, afectando a las relaciones saludables.

MITIGACIÓN DE RIESGOS DE GPT-4o

El equipo de investigación que firma el estudio, formado por empleados de OpenAI y por evaluadores externos, analizaron cuestiones como la generación de voces no autorizadas, la creación de contenido de audio no permitido, de discurso erótico y violento o las inferencias sin fundamento. Tras ello, implementaron medidas para mitigar estos riesgos.

En lo relativo a la generación de voces no autorizadas, OpenAI hace referencia a la capacidad de generar audio con una voz sintética que imita a la de una persona en concreto y que se basa en un clip de entrada de ejemplo. Esta característica puede facilitar daños como un aumento en el fraude debido a la suplantación de identidad e, incluso, aprovechar esta facilidad para difundir información falsa. No obstante, la tecnológica ha compartido que, tras abordar los riesgos de generación de voz no autorizada, han determinado que el riesgo residual de «es mínimo».

Cabe recordar que OpenAI ya ha tenido problemas con este tipo de acciones, como es el caso de la actriz Scarlett Johansson, quien acusó a la compañía de utilizar una voz muy parecida a la suya para la versión de voz Sky para ChatPGT.

Igualmente, también se ha mitigado el riesgo de identificar al hablante a la hora de interactuar por medio de la voz, de manera que la IA no pueda reconocer a una persona por sus interacciones con la voz, lo que puede resultar en un problema de privacidad.

Siguiendo esta línea, la compañía ha evaluado y contrarrestado los riesgos de las inferencia sin fundamentos y la atribución de rasgos sensibles que llevaba a cabo la IA, lo que puede ocasionar que GPT-4o ofrezca resultados potencialmente sesgados sobre los hablantes.

Lo mismo ha ocurrido con el contenido violento y erótico, que ya identificaron que GPT-4o era susceptible de aceptar órdenes para generarlo. Como resultado, OpenAI ha señalado que ha restringido la generación de este tipo de resultados del modelo.

Con todo ello, como parte del proceso de implementación iterativo, OpenAI ha señalado que continuará monitorizando y actualizando las mitigaciones de acuerdo con el panorama en evolución del modelo GPT-4o.

Tecnología

El asistente NoteBookLM ahora también hace búsquedas en la web

Publicado

el

Google ha incorporado la búsqueda en la web en su asistente de redacción NoteBookLM para que pueda ofrecer fuentes relacionadas con los temas que interesan al usuario.

NotebookLM es una aplicación experimental de notas que utiliza la inteligencia artificial de Gemini para resumir, organizar y crear un borrador de los distintos documentos, archivos y ‘urls’ que ha subido el usuario.

La compañía tecnológica ha incorporado ahora la función ‘Descubrir fuentes’, que habilita la búsqueda web para obtener una colección de fuentes relevantes sobre un tema de interés para el usuario.

El asistente ofrece hasta diez recomendaciones de fuentes, cada una con un resumen que explica su relevancia, de los cientos de posibles fuentes que recopila en segundos, como ha explicado Google en su blog oficial.

Como complemento, Google también ha incorporado el botón ‘Tengo curiosidad’, que «genera fuentes sobre un tema aleatorio».

Continue Reading

Tecnología

Pixel 9a tendrá un asistente para gestionar el voltaje y la velocidad de carga y extender la vida útil de la batería

Publicado

el

El ‘smartphone’ Pixel 9a contará con un asistente para gestionar la batería, que realizará ajustes automáticos sobre el voltaje y la velocidad de carga para que mantenga el buen estado a largo plazo.

Pixel 9a llegará al mercado español el próximo 14 de abril, casi un mes después de que Google lo anunciara oficialmente. Es el integrante más económico de la familia Pixel 9 y ofrece la pantalla más brillante de la serie A hasta la fecha, hasta 30 horas de autonomía y un pequeño cambio en el diseño de la cámara que evita que sobresalga.

Google ha diseñado este dispositivo para que dure, para lo que ofrece siete años de actualizaciones de ‘software’, de seguridad y de ‘Pixel Drops’ -que introducen nuevas funciones-. También cuenta con la certificación IP68, que refleja su resistencia al agua y al polvo.

Para conseguirlo, este ‘smartphone’ contará con una actualización de ‘software’ que introducirá la ‘Asistencia para el estado de la batería’, una herramienta que «ayudará a gestionar automáticamente el estado y el rendimiento de la batería a largo plazo, a medida que envejece», como explica la compañía tecnológica en la página de Ayuda de Pixel 9a.

«Este software ajustará el voltaje máximo de la batería en varias fases que empiezan a los 200 ciclos de carga y continúan gradualmente hasta alcanzar los 1000 ciclos de carga para ayudar a estabilizar el rendimiento y el envejecimiento de la batería», detalla. También ajustará la velocidad de carga en función de la capacidad ajustada.

La herramienta responde al hecho de que las baterías de iones de litio, como la que integra Pixel 9a, tienen un número limitado de ciclos de carga y con el tiempo terminan degradándose, lo que se traduce en una merma en en rendimiento y la duración de este componente.

Google matiza que los ajustes que realiza el asistente para el estado de la batería son automáticos, y que los usuarios no podrán personalizarlos.

Continue Reading

Tecnología

Instagram ya permite acelerar los reels

Publicado

el

Los usuarios de Instagram pueden acelerar la reproducción de los reels, especialmente los más largos, una nueva característicamente que Meta toma directamente en TikTok.

Los vídeos cortos en formato vertical se conocen como ‘reels’ en Instagram, donde pueden tener una duración de hasta tres minutos que, sin embargo, no encaja del todo en la modalidad de consumo rápido de vídeos.

Instagram permite ahora acelerar la reproducción con un nuevo control que hace que sea el doble de rápido, como informan en TechCrunch.

TikTok, la red social que popularizó los vídeos en formato breve y vertical, incluyó hace un par de años los controles de reproducción, que permiten modificar la velocidad de los vídeos, con las opciones 0,5x, 1,5x y 2,0x.

Continue Reading

Trending