Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

OpenAI advierte que el modelo GPT-4o tiene un riesgo «medio» de seguridad y puede generar dependencia emocional

Publicado

el

OpenAI ha advertido que su modelo GPT-4o registra un riesgo «medio» en relación a su capacidad de persuasión -sobre todo, en interacciones de texto- y que puede generar dependencia emocional en los usuarios, debido a sus avances de voz y audio.

La compañía dirigida por Sam Altman lanzó el modelo GPT-4o en el mes de mayo, cuando destacó sus habilidades para aceptar cualquier combinación de texto, audio e imagen y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a un tiempo de respuesta humana.

La tecnológica ha compartido ahora un informe interno denominado ‘Tarjeta de Sistema de su modelo GPT-4o’ (‘GPT-4o System Card’), en el que detalla los resultados de la investigación sobre la seguridad de este modelo de IA generativa. En este estudio se explica que se ha evaluado este modelo «exhaustivamente» para detectar posibles riesgos y, en base a ello, incorporar medidas de seguridad adecuadas, antes de implementarlo en ChatGPT o en la API.

En concreto, la firma ha destacado como resultado de la investigación un riesgo «medio» en las capacidades de persuasión del modelo, así como ha advertido sobre el riesgo de antropomorfización, que puede causar dependencia emocional para los usuarios, al facilitar que depositen su confianza en la IA por tener características similares a las de un humano.

De entre las cuatro categorías generales de riesgo, que comprenden ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión, OpenAI ha detectado dicho nivel de riesgo en esta última. Sobre todo, en el formato de texto del modelo, donde los investigadores han detallado que GPT-4o puede influir en las opiniones de los usuarios.

El estudio también ha puesto sobre la mesa cómo los resultados de GPT-4o pueden influir más en los lectores que un texto escrito propiamente por un humano, incluso, comparándolo con artículos escritos por profesionales.

Por su parte la persuasión en la modalidad de voz fue calificada como de bajo riesgo, tanto para las conversaciones interactivas de múltiples turnos como para los clips de audio más largos.

DEPENDENCIA EMOCIONAL

Otro de los riesgos que detalla OpenAI en el informe es la antropomorfización y, por tanto, dependencia emocional que puede ocasionar GPT-4o. La antropomorfización implica atribuir comportamientos y características similares a los humanos en entidades no humanas, como son los modelos de IA. En el caso de GPT-4o, este riesgo se ve acentuado por las capacidades de audio que ofrece, que facilitan interacciones más parecidas a las humanas con el modelo.

Esta familiaridad y alta fidelidad a la voz y expresiones humanas, puede generar problemas como que los usuarios adquieran una confianza «descalibrada» en las interacciones con el modelo y, por tanto, dependencia emocional. Por ejemplo, los investigadores observaron que GPT-4o utilizaba lenguaje que expresa vínculos compartidos con los usuarios, como «este es nuestro último día juntos».

Si bien estos casos pueden resultar útiles para personas que se encuentren en situaciones de soledad, OpenAI subraya la necesidad de continuar investigando los efectos de estas relaciones entre modelo y usuarios en periodos más prolongados.

De hecho, la tecnológica ha advertido que la socialización similar a la humana con un modelo de IA «puede producir externalidades que afecten las interacciones entre humanos». Un ejemplo de ello, es que los usuarios podrían reducir su necesidad de interacción humana, afectando a las relaciones saludables.

MITIGACIÓN DE RIESGOS DE GPT-4o

El equipo de investigación que firma el estudio, formado por empleados de OpenAI y por evaluadores externos, analizaron cuestiones como la generación de voces no autorizadas, la creación de contenido de audio no permitido, de discurso erótico y violento o las inferencias sin fundamento. Tras ello, implementaron medidas para mitigar estos riesgos.

En lo relativo a la generación de voces no autorizadas, OpenAI hace referencia a la capacidad de generar audio con una voz sintética que imita a la de una persona en concreto y que se basa en un clip de entrada de ejemplo. Esta característica puede facilitar daños como un aumento en el fraude debido a la suplantación de identidad e, incluso, aprovechar esta facilidad para difundir información falsa. No obstante, la tecnológica ha compartido que, tras abordar los riesgos de generación de voz no autorizada, han determinado que el riesgo residual de «es mínimo».

Cabe recordar que OpenAI ya ha tenido problemas con este tipo de acciones, como es el caso de la actriz Scarlett Johansson, quien acusó a la compañía de utilizar una voz muy parecida a la suya para la versión de voz Sky para ChatPGT.

Igualmente, también se ha mitigado el riesgo de identificar al hablante a la hora de interactuar por medio de la voz, de manera que la IA no pueda reconocer a una persona por sus interacciones con la voz, lo que puede resultar en un problema de privacidad.

Siguiendo esta línea, la compañía ha evaluado y contrarrestado los riesgos de las inferencia sin fundamentos y la atribución de rasgos sensibles que llevaba a cabo la IA, lo que puede ocasionar que GPT-4o ofrezca resultados potencialmente sesgados sobre los hablantes.

Lo mismo ha ocurrido con el contenido violento y erótico, que ya identificaron que GPT-4o era susceptible de aceptar órdenes para generarlo. Como resultado, OpenAI ha señalado que ha restringido la generación de este tipo de resultados del modelo.

Con todo ello, como parte del proceso de implementación iterativo, OpenAI ha señalado que continuará monitorizando y actualizando las mitigaciones de acuerdo con el panorama en evolución del modelo GPT-4o.

Tecnología

OpenAI asegura que no hay anuncios en ChatGPT y aclara que se trata de una prueba de la integración de aplicaciones

Publicado

el

OpenAI ha asegurado que no están haciendo pruebas para introducir anuncios en su asistente de inteligencia artificial (IA) ChatGPT, tras la aparición sugerencias de compra directamente desde la conversación con el ‘chatbot’, sino que se trata de una prueba de la integración de aplicaciones, que ya han sido desactivadas hasta mejorar los resultados.

Recientemente, algunos usuarios han mostrado preocupación por la posible implementación de anuncios en la experiencia de chat del asistente de OpenAI, con opciones para comprar productos sugeridos en algunos comercios ‘online’, tal y como mostró el exempleado de xAI Benjamin De Kraker en una publicación en la red social X.

En concreto, incluyó una captura de pantalla donde se puede ver una opción para comprar productos del hogar en el comercio Target, dentro de una conversación con ChatGPT sobre un tema completamente distinto, como es el caso de Windows BitLocker. Todo ello, a través de una cuenta de suscripción a ChatGPT Plus.

De la misma forma, otros usuarios han mencionado una experiencia similar con el ‘chatbot’ en la que se muestra una opción para comprar en Peloton, en este caso, con una suscripción a ChatGPT Pro.

Sin embargo, el director de ChatGPT, Nick Turley, ha aclarado al respecto que no están realizando pruebas para introducir anuncios en el asistente y que, las capturas de pantalla que se han estado compartiendo recientemente «no son reales o no son anuncios», como ha compartido en una publicación en X.

Concretamente, el empleado de OpenAI Daniel McAuley ha explicado que este tipo de experiencias de compra ‘online’ no son un anuncio, sino que son una prueba de la experiencia de integración de aplicaciones anunciada en octubre, de la mano de algunos de sus socios piloto como Devday y Target, y que están trabajando para que «el mecanismo de descubrimiento de aplicaciones sea más orgánico dentro de ChatGPT».

Asimismo, ha detallado que la intención es que las aplicaciones «mejoren la experiencia de usuario cuando sean relevantes para una conversación» y que todavía están trabajando para mejorar esta integración, al tiempo que ha matizado que cualquier empresa puede crear aplicaciones utilizando el SDK para ello y que planean abrir esta opción y el directorio de aplicaciones «pronto».

De la misma forma, el director de investigación de OpenAI, Mark Chen, también respondió a las preocupaciones de los usuarios en otra publicación en X alegando que reconoce que «todo lo que parezca publicidad debe manejarse con cuidado» y que, en este caso, admite no haberlo logrado.

Como resultado, OpenAI ha desactivado este tipo de sugerencias mientras mejoran la precisión del modelo para incorporarlas en la experiencia de conversación. Igualmente, ha adelantado que trabajan para implementar «mejores controles», de manera que los usuarios puedan escoger si reducir este tipo de sugerencias en sus chats o desactivarlas por completo si no les resultan útiles.

Con todo ello, Turley ha asegurado que, en caso de que implementen anuncios, lo harán «con mucho cuidado». «La gente confía en ChatGPT y todo lo que hagamos estará diseñado para respetar esa confianza», ha explicado el directivo.

Continue Reading

Tecnología

Garmin presenta su nuevo comunicador satelital para mensajes de voz, mensajes de texto y fotos

Publicado

el

Garmin ha ampliado su gama de comunicadores satelitales compactos con el nuevo inReach Mini 3 Plus, que permite intercambiar mensajes de voz, mensajes de texto y fotos desde zonas donde no alcanza la cobertura móvil.

inReach Mini 3 Plus es un dispositivo satelital compacto con pantalla a color y altavoz y micrófono integrados, que está diseñado para funcionar en temperaturas extremas y cuenta con un diseño resistente a impactos y una clasificación de resistencia al agua IP67.

Permite a los usuarios mantenerse conectados mientras se aventuran en lugares sin cobertura móvil a través de mensajes de voz de hasta 30 segundos -que pueden transcribirse-, mensajes de texto de hasta 1.600 caracteres y fotos, como informa Garmin en una nota de prensa.

También permite compartir la ubicación en LiveTrack, siempre que el usuario cuente con una suscripción satelital activa de inReach.

Los usuarios también pueden activar un mensaje SOS interactivo al centro Garmin Response en caso de que ocurra una emergencia. Y con hasta 330 horas de autonomía de la batería en modo de seguimiento de 10 minutos, el inReach Mini 3 Plus puede usarse en viajes de varios días.

inReach Mini 3 Plus ya está disponible y tiene un precio de venta sugerido de 499,99 euros.

Continue Reading

Tecnología

Microsoft Teams estrenará autocorrección y gestión multiinquilino desde una misma cuenta en 2026

Publicado

el

Microsoft está desarrollando dos nuevas funciones de productividad para su servicio de Teams, con una nueva opción para autocorrección de texto y la posibilidad de ver y responder a la actividad de varios inquilinos sin necesidad de cambiar de cuenta.

La plataforma de comunicación para organizaciones continúa trabajando para mejorar la experiencia de los usuarios aumentando la productividad y facilitando la comunicación, en concreto, con nuevas funciones que comenzarán a desplegarse durante los próximos meses de enero y febrero.

Así, entre estas novedades, Microsoft Teams comenzará el año 2026 implementando una nueva función de autocorrección en la redacción de Teams, con la que, al escribir un texto, los usuarios verán corregidas automáticamente las palabras que estén mal escritas, eliminando la necesidad de revisar el texto para encontrar errores.

De esta forma lo ha adelantado la compañía a través de la página de Hoja de ruta de Microsoft 365, donde detalla las últimas actualizaciones que están por llegar o se están lanzando para sus aplicaciones de productividad y servicios inteligentes en la nube.

En concreto, esta función de autocorrección, que se identifica con el ID 534487, se ha incluido en el sistema Compose y llegará para la versión de escritorio de Teams y para ordenadores Mac durante el mes de enero, primero como versión preliminar y, posteriormente, se lanzará a todos los usuarios a nivel global.

Por otra parte, Microsoft también implementará una nueva función para facilitar la gestión de notificaciones y mensajes de varios inquilinos en Teams, es decir, las instancias dedicadas a una organización específica en la plataforma.

Esta novedad, reconocida con el ID 534490, permitirá a los usuarios ver y responder a la actividad de varios inquilinos sin necesidad de cambiar de cuenta para cada uno de ellos. Es decir, desde una misma cuenta de Teams, se podrá interactuar con distintos inquilinos, clasificar sus notificaciones y responder a todos los chats.

Esta opción mejora el flujo de trabajo para, por ejemplo, aquellos usuarios que son miembros o invitados de varios inquilinos o instancias, que podrán responder a los mensajes y participar en los chats grupales de todos ellos desde una misma interfaz.

Microsoft ha detallado que esta nueva función para gestionar la actividad de varias cuentas y organizaciones se lanzará a nivel mundial para la versión de escritorio de Teams en febrero.

Continue Reading

Trending