Connect with us
Santa Cruz de la Sierra
18°C
+18
+18
+17
+16
+16
+16
+15
+15
+15
+15
+16
+16
+16
+17
+18
+18
+17
+17
+17
+17
+17
+17
+17
+17
Lu
18°C
15°C
+16
+16
+16
+16
+15
+15
+14
+14
+14
+15
+16
+17
+18
+20
+20
+21
+21
+20
+19
+18
+18
+17
+17
+16
Ma
21°C
14°C
+16
+16
+15
+15
+16
+15
+15
+15
+16
+17
+20
+21
+23
+24
+25
+24
+24
+23
+23
+22
+21
+21
+21
+21
Mi
25°C
15°C
+20
+20
+20
+20
+20
+20
+21
+21
+21
+22
+23
+25
+26
+27
+28
+28
+27
+27
+26
+25
+25
+25
+24
+24
Ju
28°C
20°C
+24
+24
+23
+23
+23
+23
+23
+24
+24
+25
+26
+27
+27
+28
+29
+29
+28
+27
+27
+26
+25
+25
+25
+25
Vi
29°C
23°C
+24
+24
+24
+24
+24
+24
+24
+24
+23
+24
+25
+26
+27
+28
+29
+28
+28
+27
+26
+26
+25
+24
+24
+23
29°C
23°C
+23
+22
+22
+22
+21
+21
+21
+21
+21
+22
+23
+24
+24
+25
+26
+26
+25
+25
+24
+24
+23
+23
+22
+22
Do
26°C
21°C
+21
+21
+20
+20
+20
+20
+20
+20
+20
+22
+23
+25
+27
+29
+31
+30
+29
+28
+27
+26
+25
+25
+24
+24
+23
+23
+22
+22
+22
+23
+23
+23
+23
+25
+26
+27
+29
+30
+32
+31
+30
+29
+28
+27
+26
+26
+25
+25
+24
+23
+23
+23
+23
+23
+23
+23
+25
+26
+28
+28
+31
+32
+34
+33
+31
+31
+29
+28
+27
+28
+26
+27
Weather Data Source: pronóstico del tiempo

Tecnología

OpenAI advierte que el modelo GPT-4o tiene un riesgo «medio» de seguridad y puede generar dependencia emocional

Publicado

el

OpenAI ha advertido que su modelo GPT-4o registra un riesgo «medio» en relación a su capacidad de persuasión -sobre todo, en interacciones de texto- y que puede generar dependencia emocional en los usuarios, debido a sus avances de voz y audio.

La compañía dirigida por Sam Altman lanzó el modelo GPT-4o en el mes de mayo, cuando destacó sus habilidades para aceptar cualquier combinación de texto, audio e imagen y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a un tiempo de respuesta humana.

La tecnológica ha compartido ahora un informe interno denominado ‘Tarjeta de Sistema de su modelo GPT-4o’ (‘GPT-4o System Card’), en el que detalla los resultados de la investigación sobre la seguridad de este modelo de IA generativa. En este estudio se explica que se ha evaluado este modelo «exhaustivamente» para detectar posibles riesgos y, en base a ello, incorporar medidas de seguridad adecuadas, antes de implementarlo en ChatGPT o en la API.

En concreto, la firma ha destacado como resultado de la investigación un riesgo «medio» en las capacidades de persuasión del modelo, así como ha advertido sobre el riesgo de antropomorfización, que puede causar dependencia emocional para los usuarios, al facilitar que depositen su confianza en la IA por tener características similares a las de un humano.

De entre las cuatro categorías generales de riesgo, que comprenden ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión, OpenAI ha detectado dicho nivel de riesgo en esta última. Sobre todo, en el formato de texto del modelo, donde los investigadores han detallado que GPT-4o puede influir en las opiniones de los usuarios.

El estudio también ha puesto sobre la mesa cómo los resultados de GPT-4o pueden influir más en los lectores que un texto escrito propiamente por un humano, incluso, comparándolo con artículos escritos por profesionales.

Por su parte la persuasión en la modalidad de voz fue calificada como de bajo riesgo, tanto para las conversaciones interactivas de múltiples turnos como para los clips de audio más largos.

DEPENDENCIA EMOCIONAL

Otro de los riesgos que detalla OpenAI en el informe es la antropomorfización y, por tanto, dependencia emocional que puede ocasionar GPT-4o. La antropomorfización implica atribuir comportamientos y características similares a los humanos en entidades no humanas, como son los modelos de IA. En el caso de GPT-4o, este riesgo se ve acentuado por las capacidades de audio que ofrece, que facilitan interacciones más parecidas a las humanas con el modelo.

Esta familiaridad y alta fidelidad a la voz y expresiones humanas, puede generar problemas como que los usuarios adquieran una confianza «descalibrada» en las interacciones con el modelo y, por tanto, dependencia emocional. Por ejemplo, los investigadores observaron que GPT-4o utilizaba lenguaje que expresa vínculos compartidos con los usuarios, como «este es nuestro último día juntos».

Si bien estos casos pueden resultar útiles para personas que se encuentren en situaciones de soledad, OpenAI subraya la necesidad de continuar investigando los efectos de estas relaciones entre modelo y usuarios en periodos más prolongados.

De hecho, la tecnológica ha advertido que la socialización similar a la humana con un modelo de IA «puede producir externalidades que afecten las interacciones entre humanos». Un ejemplo de ello, es que los usuarios podrían reducir su necesidad de interacción humana, afectando a las relaciones saludables.

MITIGACIÓN DE RIESGOS DE GPT-4o

El equipo de investigación que firma el estudio, formado por empleados de OpenAI y por evaluadores externos, analizaron cuestiones como la generación de voces no autorizadas, la creación de contenido de audio no permitido, de discurso erótico y violento o las inferencias sin fundamento. Tras ello, implementaron medidas para mitigar estos riesgos.

En lo relativo a la generación de voces no autorizadas, OpenAI hace referencia a la capacidad de generar audio con una voz sintética que imita a la de una persona en concreto y que se basa en un clip de entrada de ejemplo. Esta característica puede facilitar daños como un aumento en el fraude debido a la suplantación de identidad e, incluso, aprovechar esta facilidad para difundir información falsa. No obstante, la tecnológica ha compartido que, tras abordar los riesgos de generación de voz no autorizada, han determinado que el riesgo residual de «es mínimo».

Cabe recordar que OpenAI ya ha tenido problemas con este tipo de acciones, como es el caso de la actriz Scarlett Johansson, quien acusó a la compañía de utilizar una voz muy parecida a la suya para la versión de voz Sky para ChatPGT.

Igualmente, también se ha mitigado el riesgo de identificar al hablante a la hora de interactuar por medio de la voz, de manera que la IA no pueda reconocer a una persona por sus interacciones con la voz, lo que puede resultar en un problema de privacidad.

Siguiendo esta línea, la compañía ha evaluado y contrarrestado los riesgos de las inferencia sin fundamentos y la atribución de rasgos sensibles que llevaba a cabo la IA, lo que puede ocasionar que GPT-4o ofrezca resultados potencialmente sesgados sobre los hablantes.

Lo mismo ha ocurrido con el contenido violento y erótico, que ya identificaron que GPT-4o era susceptible de aceptar órdenes para generarlo. Como resultado, OpenAI ha señalado que ha restringido la generación de este tipo de resultados del modelo.

Con todo ello, como parte del proceso de implementación iterativo, OpenAI ha señalado que continuará monitorizando y actualizando las mitigaciones de acuerdo con el panorama en evolución del modelo GPT-4o.

Tecnología

Brave y AdGuard bloquean la herramienta Recall de Windows para asegurar la privacidad de los usuarios

Publicado

el

El navegador Brave y el bloqueador de anuncios AdGuard han decidido bloquear la herramienta de «memoria fotográfica» Windows Recall con el objetivo de asegurar la privacidad de los usuarios impidiendo las capturas de pantalla en segundo plano.

Anunciada en mayo del pasado año como una de las funciones impulsadas por inteligencia artificial (IA), que estaría disponible para los ordenadores Copilot+ de Microsoft, Recall es una herramienta que lleva a cabo capturas de pantalla de manera periódica en segundo plano para crear una «memoria fotográfica», con la que el usuario puede desplazarse a través de una línea cronológica para encontrar el contenido que ha buscado anteriormente en cualquier aplicación, documento o sitio web.

Aunque Microsoft tenía previsto lanzar Recall en junio de 2024, junto con los Copilot+, la función generó desconfianza entre los usuarios, ya que podía poner en riesgo su información privada y que, en un primer momento, las capturas no se almacenaban de forma cifrada.

Como resultado, la tecnológica canceló la llegada de Recall en varias ocasiones para incorporar medidas de privacidad y seguridad, como la obligatoriedad de utilizar Windows Hello y la posibilidad de desactivar Recall del sistema operativo. Finalmente, lanzó una vista previa de la herramienta en abril, que se espera que llegue al Espacio Económico Europeo a finales de este año.

En este marco y a pesar de las mejoras en seguridad, el navegador basado en privacidad Brave ha anunciado que desactivará por defecto esta herramienta para los usuarios de Windows 11, pero ofrecerá la opción de volver a activarla para quienes lo crean conveniente, tal y como ha recogido en una publicación en su página web.

Esto se debe a que, según ha explicado, la función aún se encuentra en una versión preliminar y se desconoce cómo será exactamente cuándo Microsoft la lance para todos los usuarios de Windows 11. Asimismo, ha detallado que considera que el anuncio inicial de Recall fue «poco convincente y no inspira confianza».

Así, como medida preventiva, el navegador bloqueará de manera predeterminada las acciones de Recall indicándole al sistema operativo del dispositivo que cada ventana «es de navegación privada», ya que para este tipo de navegación la herramienta no guarda las instantáneas.

Por su parte, el bloqueador de anuncios AdGuard ha anunciado que tomará la misma decisión y activará una nueva función para desactivar Recall en el apartado de Configuración, ya que «la sola idea de las capturas de pantalla en segundo plano es inquietante».

La compañía ha comentado que los métodos de autenticación añadidos a Recall, a través de Windows Hello, así como el filtrado de datos confidenciales, no son suficientes y que «dejar las puertas traseras abiertas y esperar que todo funcione como está previsto o que Microsoft siempre actúe de buena fe, no es una estrategia de privacidad sólida», tal y como ha explicado en una publicación en su página web.

SIGNAL EMPRENDIÓ EL MISMO CAMINO EN MAYO

Con todo ello, Brave ha manifestado que se han inspirado en el bloqueo llevado a cabo por la red social Signal el pasado mes de mayo, que anunció que impediría los intentos del ordenador de realizar capturas de pantalla de los mensajes de los usuarios, ante la llegada de la nueva función de Microsoft en Windows 11.

La compañía argumentó que, aunque Microsoft realizó varios ajustes en el último año en respuesta al primer anuncio que suscitó las dudas entre los usuarios, la versión renovada de Recall que publicó en abril «aún pone en riesgo el contenido que se muestra en aplicaciones que protegen la privacidad».

A pesar de ello, Signal reconoció que al impedir capturas de pantalla, los programas de accesibilidad como lectores de pantalla o herramientas de ampliación para personas con discapacidad visual podían verse afectadas.

Continue Reading

Tecnología

Microsoft prepara la llegada de GPT-5, prevista para agosto, con un nuevo ‘Modo inteligente’ en Copilot

Publicado

el

Microsoft trabaja en la llegada del próximo modelo de inteligencia artificial (IA) GPT-5 de OpenAI, que está previsto para el próximo mes de agosto, y que implementará en su asistente Copilot mediante un nuevo ‘Modo Inteligente’.

El siguiente modelo de lenguaje de gran tamaño (LLM) de la compañía dirigida por Sam Altman, GPT-5, se lanzará durante este verano, tal y como confirmó en junio el propio Altman, y aprovechará los avances en razonamiento y los hechos en multimodalidad de las dos principales series de modelos de la tecnológica, GPT y o.

Concretamente, está previsto que OpenAI lance GPT-5 a principios del próximo mes de agosto, según adelantaron recientemente fuentes internas de la compañía en declaraciones a The Verge y, frente a su inminente llegada, Microsoft prepara su integración en el asistente Copilot, con un nuevo ‘Modo Inteligente’.

Así lo ha compartido el analista Alexéi Shabanov en una publicación en su web, donde ha detallado que, tras analizar el código de Copilot, ha identificado una nueva opción de ‘Modo Inteligente’ que se basa en las capacidades de GPT-5 para «pensar con rapidez o profundidad».

En concreto, este nuevo modo, se une a las opciones ya disponibles en Copilot de Respuesta Rápida, Pensar Más a Fondo o Investigación Profunda. Asimismo, incluye una etiqueta que hace referencia al uso de GPT-5, junto a una descripción que detalla que es capaz de pensar de forma rápida o profunda.

De esta manera, se confirma la capacidad del modelo de unificar tanto las características de la serie de modelos de razonamiento como las capacidades de la serie GPT. Además, según el analista, el Modo Inteligente de Copilot gestionará automáticamente la forma de ejecutar su respuesta, en base a las necesidades de las solicitudes de los usuarios. Es decir, escogerá entre ofrecer una respuesta rápida o una respuesta razonada.

Con todo, el ‘Modo Inteligente’ basado en GPT-5 para Copilot está en desarrollo y se mantiene oculto para los usuarios en el código base del asistente. Por tanto, se espera que esté disponible tras el lanzamiento oficial de GPT-5.

Continue Reading

Tecnología

GitHub lanza la versión preliminar de GitHub Spark, su herramienta para crear aplicaciones de IA con lenguaje natural

Publicado

el

GitHub ha lanzado la versión preliminar de GitHub Spark, su herramienta impulsada por Inteligencia Artificial (IA) que permite a los desarrolladores crear aplicaciones personalizadas describiendo sus características a través de lenguaje natural, sin necesidad de utilizar código.

La herramienta fue presentada por la plataforma en octubre del año pasado, en el marco de su conferencia anual para desarrolladores GitHub Universe 2024, destinada a facilitar la creación de ‘apps’ personalizadas y funcionales.

Ahora GitHub, que pertenece a Microsoft, ha lanzado la versión preliminar de GitHub Spark, con el fin de ayudar a crear aplicaciones inteligentes a través de lenguaje natural, utilizando como base el modelo Claude Sonnet 4 de Anthropic para procesar las solicitudes de los usuarios y transformarlas en código funcional, tal y como ha recogido la compañía en una publicación en su blog.

Así, los desarrolladores podrán describir sus ideas de aplicaciones para que Spark las haga realidad al completo, con capacidades ‘frontend’ y ‘backend’, es decir, que permite crear tanto la parte visual de la aplicación, como su lógica interna y manejo de datos.

Además, GitHub ha asegurado que no requiere una configuración previa, así como tampoco el uso datos ni la inferencia de grandes modelos de lenguaje (LLM), alojamiento o implementaciones. La autenticación de GitHub también estará incluida.

Siguiendo esta línea, los desarrolladores podrán añadir funciones inteligentes impulsadas por modelos de otras compañías como OpenAI, Meta o DeepSeek sin necesidad de administrar claves API, según ha apuntado la plataforma, que también ha señalado que la aplicación se podrá publicar «con un solo clic».

La plataforma ofrece igualmente un repositorio con GitHubs Actions y Dependabot integrados, y los desarrolladores podrán abrir espacios de código directamente desde Spark para iterar con el modo de agente de Copilot, así como asignar un problema al agente de codificación Copilot.

Así, Spark ya está disponible en versión preliminar pública para los usuarios de Copilot Pro+, y próximamente se implementará para clientes adicionales, según ha advertido GitHub.

Continue Reading

Trending