Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

OpenAI advierte que el modelo GPT-4o tiene un riesgo “medio” de seguridad y puede generar dependencia emocional

Publicado

el

OpenAI ha advertido que su modelo GPT-4o registra un riesgo “medio” en relación a su capacidad de persuasión -sobre todo, en interacciones de texto- y que puede generar dependencia emocional en los usuarios, debido a sus avances de voz y audio.

La compañía dirigida por Sam Altman lanzó el modelo GPT-4o en el mes de mayo, cuando destacó sus habilidades para aceptar cualquier combinación de texto, audio e imagen y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a un tiempo de respuesta humana.

La tecnológica ha compartido ahora un informe interno denominado ‘Tarjeta de Sistema de su modelo GPT-4o’ (‘GPT-4o System Card’), en el que detalla los resultados de la investigación sobre la seguridad de este modelo de IA generativa. En este estudio se explica que se ha evaluado este modelo “exhaustivamente” para detectar posibles riesgos y, en base a ello, incorporar medidas de seguridad adecuadas, antes de implementarlo en ChatGPT o en la API.

En concreto, la firma ha destacado como resultado de la investigación un riesgo “medio” en las capacidades de persuasión del modelo, así como ha advertido sobre el riesgo de antropomorfización, que puede causar dependencia emocional para los usuarios, al facilitar que depositen su confianza en la IA por tener características similares a las de un humano.

De entre las cuatro categorías generales de riesgo, que comprenden ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión, OpenAI ha detectado dicho nivel de riesgo en esta última. Sobre todo, en el formato de texto del modelo, donde los investigadores han detallado que GPT-4o puede influir en las opiniones de los usuarios.

El estudio también ha puesto sobre la mesa cómo los resultados de GPT-4o pueden influir más en los lectores que un texto escrito propiamente por un humano, incluso, comparándolo con artículos escritos por profesionales.

Por su parte la persuasión en la modalidad de voz fue calificada como de bajo riesgo, tanto para las conversaciones interactivas de múltiples turnos como para los clips de audio más largos.

DEPENDENCIA EMOCIONAL

Otro de los riesgos que detalla OpenAI en el informe es la antropomorfización y, por tanto, dependencia emocional que puede ocasionar GPT-4o. La antropomorfización implica atribuir comportamientos y características similares a los humanos en entidades no humanas, como son los modelos de IA. En el caso de GPT-4o, este riesgo se ve acentuado por las capacidades de audio que ofrece, que facilitan interacciones más parecidas a las humanas con el modelo.

Esta familiaridad y alta fidelidad a la voz y expresiones humanas, puede generar problemas como que los usuarios adquieran una confianza “descalibrada” en las interacciones con el modelo y, por tanto, dependencia emocional. Por ejemplo, los investigadores observaron que GPT-4o utilizaba lenguaje que expresa vínculos compartidos con los usuarios, como “este es nuestro último día juntos”.

Si bien estos casos pueden resultar útiles para personas que se encuentren en situaciones de soledad, OpenAI subraya la necesidad de continuar investigando los efectos de estas relaciones entre modelo y usuarios en periodos más prolongados.

De hecho, la tecnológica ha advertido que la socialización similar a la humana con un modelo de IA “puede producir externalidades que afecten las interacciones entre humanos”. Un ejemplo de ello, es que los usuarios podrían reducir su necesidad de interacción humana, afectando a las relaciones saludables.

MITIGACIÓN DE RIESGOS DE GPT-4o

El equipo de investigación que firma el estudio, formado por empleados de OpenAI y por evaluadores externos, analizaron cuestiones como la generación de voces no autorizadas, la creación de contenido de audio no permitido, de discurso erótico y violento o las inferencias sin fundamento. Tras ello, implementaron medidas para mitigar estos riesgos.

En lo relativo a la generación de voces no autorizadas, OpenAI hace referencia a la capacidad de generar audio con una voz sintética que imita a la de una persona en concreto y que se basa en un clip de entrada de ejemplo. Esta característica puede facilitar daños como un aumento en el fraude debido a la suplantación de identidad e, incluso, aprovechar esta facilidad para difundir información falsa. No obstante, la tecnológica ha compartido que, tras abordar los riesgos de generación de voz no autorizada, han determinado que el riesgo residual de “es mínimo”.

Cabe recordar que OpenAI ya ha tenido problemas con este tipo de acciones, como es el caso de la actriz Scarlett Johansson, quien acusó a la compañía de utilizar una voz muy parecida a la suya para la versión de voz Sky para ChatPGT.

Igualmente, también se ha mitigado el riesgo de identificar al hablante a la hora de interactuar por medio de la voz, de manera que la IA no pueda reconocer a una persona por sus interacciones con la voz, lo que puede resultar en un problema de privacidad.

Siguiendo esta línea, la compañía ha evaluado y contrarrestado los riesgos de las inferencia sin fundamentos y la atribución de rasgos sensibles que llevaba a cabo la IA, lo que puede ocasionar que GPT-4o ofrezca resultados potencialmente sesgados sobre los hablantes.

Lo mismo ha ocurrido con el contenido violento y erótico, que ya identificaron que GPT-4o era susceptible de aceptar órdenes para generarlo. Como resultado, OpenAI ha señalado que ha restringido la generación de este tipo de resultados del modelo.

Con todo ello, como parte del proceso de implementación iterativo, OpenAI ha señalado que continuará monitorizando y actualizando las mitigaciones de acuerdo con el panorama en evolución del modelo GPT-4o.

Tecnología

Apple planea usar pantallas de Samsung para abaratar la futura versión económica de Vision Pro, según The Elec

Publicado

el

Apple planea utilizar un panel con tecnología W-OLED+CF fabricados por Samsung para el que será el modelo más económico de su dispositivo de realidad mixta (RM), Apple Vision Pro, reemplazando así la pantalla OLEDoS de Sony que actualmente utiliza, lo que le permitirá ofrecerla a menor precio.

Los de Cupertino lanzaron Apple Vision Pro en febrero de este año, un dispositivo destinado al trabajo y al ocio, que salió a un precio que partía de los 3.499 dólares (3.251 euros) y que tiene acceso a un millón de aplicaciones procedentes de iOS y iPadOS.

Si bien entonces justificó que su elevado precio estaba justificado por la tecnología de alta gama que integra el dispositivo, así como a su costoso proceso de fabricación, antes de presentarlo oficialmente Apple ya tenía planes de ofrecer una versión más económica.

Este otro modelo, conocido internamente como N107, se estaba preparando para acercar esta tecnología a más usuarios con un precio que oscilaría entre los 1.500 y los 2.500 dólares (entre 1.394 y 2.323 euros al cambio actual).

Para abaratar este dispositivo, que planea lanzar a finales de 2025, Apple dejaría de utilizar el panel OLEDoS de Sony para ofrecer otra tecnología en su lugar. También ha optado por usar un chip de iPhone en lugar de utilizar uno de Mac, tal y como adelantó el periodista de Bloomberg Mark Gurman.

Apple está barajando ahora dos opciones para ahorrar costes de fabricación. La primera consiste en usar paneles White OLED with Color Filter (W-OLED+CF), que desarrolla la unidad especializada en pantallas Samsung Display. Se trata de un panel de vidrio con OLED que emplea un filtro de color rojo, verde y azul (RGB) sobre él para reflejar los colores.

En términos de resolución, este panel ofrecerá 1500 píxeles por pulgada (ppp), en lugar de los 3391 ppp que actualmente tiene la única versión de Apple Vision Pro, según ha podido conocer recientemente The Elec.

Este medio también ha indicado que la compañía tiene preferencia por fabricar directamente el filtro de color sobre la tecnología de encapsulación de película delgada (TFE, por sus siglas en inglés) que recubre el panel y que le permitiría conseguir un dispositivo más delgado.

Continue Reading

Tecnología

Google agrega la extensión Utilities en Gemini para Android, con capacidad para controlar el dispositivo y sus ‘apps’

Publicado

el

Google ha comenzado a implementar la nueva extensión de Utilities en su aplicación de Gemini para ‘smartphones’ Android, con la que podrá controlar el dispositivo y sus aplicaciones para llevar a cabo funciones de asistencia, como administrar las alarmas y temporizadores, realizar fotografías o abrir determinadas ‘apps’.

La aplicación de Gemini para ‘smartphones’ Android llegó a Europa y, en concreto, a España, en junio de este año, ofreciendo a los usuarios la posibilidad de interactuar con el ‘chatbot’ de IA generativa de Google desde el móvil y en español.

Ahora, Google ha anunciado el lanzamiento de la nueva extensión para la ‘app’ de Gemini, Utilities, y que incluye la capacidad “controlar el dispositivo Android y sus aplicaciones” de cara a realizar de forma independiente algunas tareas de asistencia.

Según ha señalado la tecnológica en un comunicado en su página de soporte, la extensión de Utilities permitirá que la IA de Gemini ejecute acciones como administrar las alarmas y temporizadores del dispositivo. Además, también podrá abrir determinadas aplicaciones y controlar cuestiones como la reproducción de música.

De esta forma, los usuarios podrán solicitar que el asistente impulsado por la IA de Gemini realice ciertas acciones en el ‘smartphone’ de forma automática, sin necesidad de configurarlas por sí mismos. Además, esta extensión permite llevar a cabo las solicitudes tanto por indicaciones escritas como mediante comandos por voz, ya que se activará al decir “Hey Google”.

En concreto, la compañía ha especificado que con la extensión Utilities, Gemini puede configurar alarmas y administrar temporizadores en la aplicación de reloj. Igualmente, también es capaz de abrir sitios web, aplicaciones instaladas y configuraciones de dichas aplicaciones.

De la misma forma se le podrá pedir que ejecute acciones como una fotografía con un temporizador de 10 segundos, que aumente el brillo de la pantalla o que reinicie el ‘smartphone’. También podrá ofrecer información del dispositivo como el nivel de batería o de volumen.

Siguiendo esta línea, los usuarios pueden solicitar que lleve a cabo varias acciones a la vez, por ejemplo, bajar el volumen de las notificaciones y activar el ahorro de energía de la batería. Asimismo, mediante esta extensión Gemini también podrá buscar entre las capturas de pantalla de la aplicación Pixel Screenshots para ofrecer información incluida en dichas imágenes.

Además de todo ello, Gemini tendrá la capacidad de llevar a cabo algunas tareas, incluso con la pantalla del ‘smartphone’ bloqueada. Por ejemplo, podrá establecer y silenciar alarmas y temporizadores, activar y desactivar el Flash, el Bluetooth o la función de ahorro de batería, entre otras funciones.

Se ha de tener en cuenta que, tal y como ha especificado Google, la extensión solo estará disponible cuando la actividad de aplicaciones de Gemini esté activada. Además, la compañía también ha incidido en que la ‘app’ no podrá acceder a ningún contenido personal en otros servicios sin el previo permiso de los usuarios.

Con todo ello, Google ha comenzado a implementar la extensión de Utilities para dispositivos Android de forma gradual. No obstante, por el momento, solo ofrece asistencia con solicitudes en inglés.

Continue Reading

Tecnología

WhatsApp prueba en iOS y Android la herramienta para buscar imágenes en la web y comprobar su autenticidad

Publicado

el

WhatsApp ha comenzado a probar la capacidad de buscar en la web las imágenes compartidas en los chats, de manera que los usuarios puedan comprobar su origen y autenticidad, con la última versión beta de la ‘app’ para iOS y Android.

Los usuarios recurren habitualmente a la plataforma de mensajería instantánea propiedad de Meta para compartir imágenes con múltiples personas, en algunas ocasiones, incluyendo contenido que puede estar alterado o mostrar información incorrecta si se saca de contexto.

De cara a evitar la desinformación mediante el envío de imágenes, WhatsApp ha estado desarrollando recientemente una función con la que los usuarios pueden buscar en la web las imágenes que reciben en los chats, para comprobar su origen y autenticidad, independientemente de cuántas veces se hayan compartido o con qué frecuencia.

Ahora, la compañía ha comenzado a probar esta opción de búsqueda de imágenes en la web con la última versión beta de la ‘app’ para dispositivos iOS (24.22.10.79) y Android (2.24.23.13), una herramienta para identificar de forma sencilla si una imagen ha sido manipulada, sacada de contexto o utilizada de manera engañosa.

Tal y como ha compartido el portal especializado WaBetaInfo, que ha tenido acceso a la beta de esta función, para buscar una imagen desde WhatsApp en la web, los usuarios deberán abrir el menú de opciones de la imagen y seleccionar la opción ‘Buscar en la web’. Tras ello, se iniciará un proceso de búsqueda a través de Google, y se abrirá automáticamente una página en el navegador para mostrar resultados de imágenes similares o, incluso, la fuente de la imagen que se esté buscando en cuestión.

Con ello, los usuarios pueden obtener acceso rápido al contexto de la imagen obteniendo información de la web directamente desde la ‘app’, por lo que no necesitarán descargar la imagen en el dispositivo para realizar una búsqueda por sí mismos posteriormente.

Se ha de tener en cuenta que, al buscar una imagen, esta se compartirá con Google. No obstante, WhatsApp no comparte ni procesa los datos de la imagen en ningún momento, por lo que solo Google tendrá acceso a la imagen para fines de búsqueda y la información se mantendrá privada en la red social.

Con todo ello, los usuarios ya pueden comenzar a probar esta función de búsqueda con las últimas versiones beta de la ‘app’ para iOS y Android, ya disponibles en la App Store y Google Play Store, respectivamente.

Continue Reading

Trending