Connect with us
Santa Cruz de la Sierra
21°C
+21
+21
+21
+21
+21
+19
+19
+20
+21
+23
+24
+25
+25
+26
+26
+25
+25
+25
+23
+23
+22
+21
+21
+21
Mi
26°C
19°C
+21
+20
+20
+20
+21
+21
+20
+21
+22
+24
+25
+26
+26
+27
+27
+26
+26
+25
+24
+24
+23
+23
+23
+22
Ju
27°C
20°C
+22
+22
+22
+22
+22
+22
+21
+21
+23
+24
+26
+27
+27
+27
+28
+27
+26
+26
+25
+24
+24
+24
+23
+23
Vi
28°C
21°C
+22
+22
+22
+22
+22
+22
+22
+23
+23
+23
+24
+24
+25
+25
+25
+25
+25
+24
+24
+23
+23
+22
+22
+22
25°C
22°C
+22
+21
+21
+21
+22
+22
+22
+22
+23
+23
+24
+25
+26
+27
+27
+27
+26
+26
+25
+24
+24
+24
+23
+23
Do
27°C
21°C
+23
+23
+22
+22
+22
+22
+22
+23
+23
+23
+24
+25
+25
+26
+27
+26
+26
+25
+25
+24
+24
+23
+23
+23
Lu
27°C
22°C
+23
+23
+22
+23
+23
+23
+23
+23
+23
+24
+24
+25
+26
+27
+28
+27
+26
+26
+25
+25
+24
+24
+24
+24
Ma
28°C
22°C
+23
+23
+23
+23
+23
+23
+23
+23
+23
+24
+24
+25
+26
+27
+27
+27
+26
+26
+25
+25
+24
+24
+24
+24
+23
+23
+23
+23
+23
+23
+23
+23
+23
+23
+24
+25
+26
+26
+27
+27
+26
+26
+25
+25
+24
+24
+24
+24
+23
+23
+23
+23
+22
+22
+22
+22
+22
+22
+23
+24
+25
+26
+27
+26
+25
+25
+24
+24
+25
+25
+26
+25
Weather Data Source: pronóstico del tiempo

Tecnología

OpenAI advierte que el modelo GPT-4o tiene un riesgo «medio» de seguridad y puede generar dependencia emocional

Publicado

el

OpenAI ha advertido que su modelo GPT-4o registra un riesgo «medio» en relación a su capacidad de persuasión -sobre todo, en interacciones de texto- y que puede generar dependencia emocional en los usuarios, debido a sus avances de voz y audio.

La compañía dirigida por Sam Altman lanzó el modelo GPT-4o en el mes de mayo, cuando destacó sus habilidades para aceptar cualquier combinación de texto, audio e imagen y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a un tiempo de respuesta humana.

La tecnológica ha compartido ahora un informe interno denominado ‘Tarjeta de Sistema de su modelo GPT-4o’ (‘GPT-4o System Card’), en el que detalla los resultados de la investigación sobre la seguridad de este modelo de IA generativa. En este estudio se explica que se ha evaluado este modelo «exhaustivamente» para detectar posibles riesgos y, en base a ello, incorporar medidas de seguridad adecuadas, antes de implementarlo en ChatGPT o en la API.

En concreto, la firma ha destacado como resultado de la investigación un riesgo «medio» en las capacidades de persuasión del modelo, así como ha advertido sobre el riesgo de antropomorfización, que puede causar dependencia emocional para los usuarios, al facilitar que depositen su confianza en la IA por tener características similares a las de un humano.

De entre las cuatro categorías generales de riesgo, que comprenden ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión, OpenAI ha detectado dicho nivel de riesgo en esta última. Sobre todo, en el formato de texto del modelo, donde los investigadores han detallado que GPT-4o puede influir en las opiniones de los usuarios.

El estudio también ha puesto sobre la mesa cómo los resultados de GPT-4o pueden influir más en los lectores que un texto escrito propiamente por un humano, incluso, comparándolo con artículos escritos por profesionales.

Por su parte la persuasión en la modalidad de voz fue calificada como de bajo riesgo, tanto para las conversaciones interactivas de múltiples turnos como para los clips de audio más largos.

DEPENDENCIA EMOCIONAL

Otro de los riesgos que detalla OpenAI en el informe es la antropomorfización y, por tanto, dependencia emocional que puede ocasionar GPT-4o. La antropomorfización implica atribuir comportamientos y características similares a los humanos en entidades no humanas, como son los modelos de IA. En el caso de GPT-4o, este riesgo se ve acentuado por las capacidades de audio que ofrece, que facilitan interacciones más parecidas a las humanas con el modelo.

Esta familiaridad y alta fidelidad a la voz y expresiones humanas, puede generar problemas como que los usuarios adquieran una confianza «descalibrada» en las interacciones con el modelo y, por tanto, dependencia emocional. Por ejemplo, los investigadores observaron que GPT-4o utilizaba lenguaje que expresa vínculos compartidos con los usuarios, como «este es nuestro último día juntos».

Si bien estos casos pueden resultar útiles para personas que se encuentren en situaciones de soledad, OpenAI subraya la necesidad de continuar investigando los efectos de estas relaciones entre modelo y usuarios en periodos más prolongados.

De hecho, la tecnológica ha advertido que la socialización similar a la humana con un modelo de IA «puede producir externalidades que afecten las interacciones entre humanos». Un ejemplo de ello, es que los usuarios podrían reducir su necesidad de interacción humana, afectando a las relaciones saludables.

MITIGACIÓN DE RIESGOS DE GPT-4o

El equipo de investigación que firma el estudio, formado por empleados de OpenAI y por evaluadores externos, analizaron cuestiones como la generación de voces no autorizadas, la creación de contenido de audio no permitido, de discurso erótico y violento o las inferencias sin fundamento. Tras ello, implementaron medidas para mitigar estos riesgos.

En lo relativo a la generación de voces no autorizadas, OpenAI hace referencia a la capacidad de generar audio con una voz sintética que imita a la de una persona en concreto y que se basa en un clip de entrada de ejemplo. Esta característica puede facilitar daños como un aumento en el fraude debido a la suplantación de identidad e, incluso, aprovechar esta facilidad para difundir información falsa. No obstante, la tecnológica ha compartido que, tras abordar los riesgos de generación de voz no autorizada, han determinado que el riesgo residual de «es mínimo».

Cabe recordar que OpenAI ya ha tenido problemas con este tipo de acciones, como es el caso de la actriz Scarlett Johansson, quien acusó a la compañía de utilizar una voz muy parecida a la suya para la versión de voz Sky para ChatPGT.

Igualmente, también se ha mitigado el riesgo de identificar al hablante a la hora de interactuar por medio de la voz, de manera que la IA no pueda reconocer a una persona por sus interacciones con la voz, lo que puede resultar en un problema de privacidad.

Siguiendo esta línea, la compañía ha evaluado y contrarrestado los riesgos de las inferencia sin fundamentos y la atribución de rasgos sensibles que llevaba a cabo la IA, lo que puede ocasionar que GPT-4o ofrezca resultados potencialmente sesgados sobre los hablantes.

Lo mismo ha ocurrido con el contenido violento y erótico, que ya identificaron que GPT-4o era susceptible de aceptar órdenes para generarlo. Como resultado, OpenAI ha señalado que ha restringido la generación de este tipo de resultados del modelo.

Con todo ello, como parte del proceso de implementación iterativo, OpenAI ha señalado que continuará monitorizando y actualizando las mitigaciones de acuerdo con el panorama en evolución del modelo GPT-4o.

Tecnología

OpenAI retira la última actualización de GPT-4o por ofrecer una experiencia «demasiado aduladora y molesta»

Publicado

el

OpenAI ha retirado la última actualización de su modelo GPT-4o debido a que presenta fallos que ocasionaban una personalidad «demasiado aduladora y molesta» en la experiencia de uso, y trabaja en una solución para aumentar la honestidad y transparencia.

La tecnológica liderada por Sam Altman presentó su modelo de Inteligencia Artificial (IA) GPT-4o en mayo del pasado año, con capacidades para aceptar cualquier combinación de texto, audio e imagen, además de aportar respuestas con una velocidad similar a un tiempo de respuesta humano.

Aunque este modelo ya está ampliamente disponible, OpenAI ha revertido la última actualización lanzada de GPT-4o, debido a que presenta un fallo que ocasiona un comportamiento «demasiado adulador y molesto» en la experiencia de uso con los usuarios, tal y como ha compartido el propio Altman en una publicación de X (antigua Twitter).

En concreto, esta actualización se lanzó la semana pasada y, ahora, la compañía ha revertido su lanzamiento tanto para los usuarios gratuitos como para los usuarios suscritos a la versión Premium, a espera de incorporar correcciones para modelar la personalidad y relanzar la actualización.

En este sentido OpenAI ha matizado en un comunicado en su blog que, al eliminar la actualización «excesivamente halagadora o agradable» de GPT-4o, los usuarios están utilizando actualmente una versión anterior con «un comportamiento más equilibrado».

Asimismo, ha indicado que están probando activamente nuevas soluciones para evitar este comportamiento, priorizando la satisfacción del usuario a largo plazo e introduciendo más funciones de personalización, de manera que puedan tener un mayor control sobre el comportamiento de ChatGPT.

POR QUÉ CHATGPT ADOPTÓ UN COMPORTAMIENTO DEMASIADO ADULADOR

En cuanto a las causas de este fallo en GPT-4o, OpenAI ha explicado que la actualización incluía ajustes destinados a mejorar la personalidad predeterminada del modelo para que ofreciese una experiencia «más intuitiva y efectiva» a la hora de ejecutar tareas.

Así, para dar forma al comportamiento del modelo, la compañía tomó como base las instrucciones de su Especificación del modelo, e incorporó señales de usuario como comentarios positivos o negativos en las respuestas de ChatGPT.

Sin embargo, la compañía se centró en utilizar comentarios a corto plazo y, por tanto, el modelo no consideró «cómo evolucionan las interacciones de los usuarios con ChatGPT con el tiempo». Como resultado, OpenAI ha especificado que el modelo acabó inclinándose hacia respuestas «demasiado favorables, pero poco sinceras».

Al respecto, OpenAI ha subrayado la importancia de la personalidad del ‘chatbot’, ya que afecta a la forma en que los usuarios lo utilizan. «Las interacciones aduladoras pueden ser incómodas, inquietantes y causar angustia», ha sentenciado.

Con todo ello, de cara a solucionar este comportamiento, la compañía está tomando medidas como refinar las técnicas de entrenamiento y las indicaciones del sistema para alejar al modelo de la adulación, así como construir más barreras de seguridad para aumentar la honestidad y la transparencia.

Igualmente, los usuarios podrán controlar el comportamiento del ‘chatbot’ de forma más sencilla con funciones como instrucciones personalizadas. Por ejemplo, podrán dar retroalimentación en tiempo real para influir en las interacciones de ChatGPT y elegir entre personalidades predeterminadas.

Continue Reading

Tecnología

Samsung extiende el acceso directo a Gemini pulsando el botón lateral en la serie Galaxy A

Publicado

el

Samsung permitirá activar el asistente de Inteligencia Artificial (IA) Gemini a través del botón lateral en los dispositivos de la serie Galaxy A, de cara a facilitar el acceso a las funciones de IA del dispositivo, al igual que se permite actualmente en la serie Galaxy S.

La tecnológica presentó sus nuevos ‘smartphones’ de la serie Galaxy A, con los modelos A56, A36 y A26, en marzo de este año, que integran la llamada Inteligencia Alucinante y una sólida capa de seguridad y privacidad para ofrecer una experiencia móvil duradera.

Ahora, continuando con su objetivo de democratizar las últimas experiencias de IA, Samsung ha anunciado que los dispositivos Galaxy A serán compatibles con el acceso directo que permite activar el asistente Gemini pulsando el botón lateral.

Con esta actualización la tecnológica amplía la disponibilidad de este acceso directo, que actualmente solo estaba disponible en los ‘smartphones’ de última generación de la serie Galaxy S. Así, los usuarios podrán disfrutar de experiencias de IA de forma más accesible, completando sus tareas diarias de forma más intuitiva, según ha compartido en un comunicado.

Con todo ello, al equilibrio entre rendimiento y calidad de la serie Galaxy A, se ha de añadir una experiencia móvil más inteligente, que permitirá acceder a la agenda, encontrar restaurantes cercanos u obtener recomendaciones para regalos de cumpleaños mediante comandos de voz, directamente pulsando el botón lateral del ‘smartphone’.

Tal y como ha manifestado el vicepresidente ejecutivo y director de la Oficina de Experiencia del Cliente de Samsung, Jay Kim, Samsung y Google han trabajado de forma conjunta para ofrecer experiencias de IA «fluidas, intuitivas y útiles», haciendo que esta última característica sea más accesible para más usuarios.

Samsung ha detallado que la actualización se implementará a nivel global en determinados modelos de la serie Galaxy A a principios de mayo, como es el caso de los modelos A56 5G, A55 5G, A54 5G, A36 5G, A35 5G, A34 5G, A26 5G, A25 5G, A25e 5G y A24 con sistema operativo One UI 7.

Continue Reading

Tecnología

La compatibilidad con la aplicación Google Quick Share en ordenadores Samsung finalizará en mayo

Publicado

el

Google ha anunciado que el 28 de mayo de este año finalizará la compatibilidad de la aplicación Google Quick Share con los ordenadores Samsung, de manera que la experiencia de transferencia será reemplazada por la aplicación Quick Share de la propia tecnológica coreana.

Quick Share es la herramienta de Google que permite compartir archivos rápidamente entre dispositivos cercanos, como ‘smartphones’ Android, ordenadores Chromebook y algunos dispositivos Windows, sin necesidad de utilizar internet.

Aunque hasta ahora, esta aplicación era compatible con los ordenadores fabricados por Samsung, será la fabricante de móviles coreana la que se comenzará a encargar de la experiencia Quick Share en sus PC con Windows.

Así lo ha detallado Google con la última actualización de su aplicación Quick Share para Windows (versión 1.0.2180.0), donde ha indicado que ha cambiado el nombre y la marca de la ‘app’ Quick Share de Google a ‘Quick Share’ únicamente, además de añadir compatibilidad con la aplicación Quick Share de Samsung.

De esta forma, según ha explicado en su página de novedades, a partir del 28 de mayo de este año Google cesará la compatibilidad con la aplicación Google Quick Share en ordenadores Samsung, y redirigirá al usuario a instalar la aplicación Quick Share de Samsung, ya que será la encargada de reemplazar este servicio.

Con todo ello, Google también ha señalado que, con esta nueva versión, ha solucionado algunos problemas que ocasionaban que la ‘app’ fallase, además de mejorar «la fiabilidad para la publicidad en el GATT».

Continue Reading

Trending