Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

Apple detalla los modelos que impulsan Apple Intelligence

Publicado

el

Apple ha compartido los detalles de dos de los modelos que impulsan su sistema de inteligencia artificial (IA) Apple Intelligence, el del servidor y el del dispositivo, con la vista puesta en su despliegue en los próximos meses.

Apple Intelligence, el sistema de capacidades impulsadas por IA destinadas a ofrecer una experiencia personal, privada e integrada en los servicios de los dispositivos de Apple, tiene en su base varios modelos fundacionales, que son los que permiten que realice las tareas en el día a día de las personas.

Aunque presentó la integración de la IA en sus dispositivos en junio, en el marco de su conferencia anual de desarrolladores, Apple ha detallado ahora en un documento técnico dos de esos modelos fundacionales y los principios por los que se guía para desarrollar una inteligencia artificial responsable.

Los dos modelos que ha detallado son, por un lado, el que se ejecuta en el propio dispositivo y presenta un tamaño de 3.000 millones de parámetros de lenguaje, y por otro, el que funciona en el servidor y ha sido diseñado para realizar tareas específicas «de manera precisa y responsable». A ellos se les unen otros como uno específico de programación y un modelo de difusión para habilitar la expresión creativa en servicios como la ‘app’ Mensajes.

Se trata de modelos construidos con una arquitectura Transformer y en los que la compañía ha centrado sus esfuerzos en la fase de preentrenamiento, haciendo hincapié en la eficiencia y la calidad de los datos más que en su cantidad, procedentes de contenidos licenciados de editores, de bases curadas y disponibles de forma pública o de código abierto e información pública en internet recogida por su indexador Applebot.

En su documento técnico, Apple asegura que han seguido «una estricta política de datos que garantiza que no se incluyen datos de usuarios de Apple, además de realizar una revisión legal rigurosa de cada componente del corpus de capacitación».

El entrenamiento ha sido diferente en cada uno de los modelos detallados: mientras que en el modelo de servidor esta fase se ha realizado desde cero con 6,3 billones de tokens y utilizando 8.192 chips TPUv4, en el modelo en local se ha apostado por las técnicas de destilación de conocimientos y poda estructural para mejorar el rendimiento y la eficiencia y utilizado 2.048 chips TPUv5p.

En la fase del postentrenamiento han optado por aplicar métodos que permitieran mejorar el seguimiento de instrucciones de uso general y la capacidad de conversación mediante el ajuste fino supervisado y el aprendizaje de refuerzo a partir de retroalimentación humana.

«Nuestros modelos se crearon con el propósito de ayudar a los usuarios a realizar actividades cotidianas en sus productos Apple, basados en los valores fundamentales de Apple y arraigados en nuestros principios de IA responsable en cada etapa», dice la compañía.

UN SISTEMA PARA ENTENDER LAS NECESIDADES DE LOS USUARIOS

Durante la presentación de Apple Intelligence, la compañía dijo que puede comprender las acciones entre las aplicaciones, el lenguaje, así como crear imágenes o emojis personalizados con diferentes estilos, y aprende de la información que tiene de los usuarios y su contexto para comprender las necesidades de los usuarios.

Entonces, el vicepresidente sénior de Ingeniería de Software, Craigh Federighi, insistió en que todo este proceso se lleva a cabo de forma privada y se procesa de manera local, desde el mismo dispositivo, de modo que estos datos solo son accesibles para sus propietarios.

De manera complementaría, crearon Private Cloud Compute, que permite a Apple Intelligence escalar su capacidad computacional; si la potencia del dispositivo no es suficiente, lleva el procesamiento de la información a una nube privada, enviando únicamente la información relevante para ejecutar la tarea. Estos datos no se guardan ni son accesibles para la propia marca, aseguró.

El sistema de IA se ha introducido ahora en las betas de iOS 18.1 e iPadOS 18.1, dirigidas a iPhone 15 Pro, iPhone 15 Pro Max y iPad con chips de la familia Apple Silicon, donde ya prueba algunas de las funciones que impulsa, como la herramienta de escritura inteligente en Mail y Notas, los resúmenes de transcripciones y nuevas características para Fotos.

Tecnología

OpenAI avanza en su idea de convertir ChatGPT en un «superasistente» capaz de conocer al usuario y gestionar sus tareas

Publicado

el

OpenAI continúa trabajando para hacer de su ‘chatbot’ impulsado por inteligencia artificial (IA) ChatGPT un «superasistente», que sea capaz de conocer al usuario, entender lo que le importa y ayudar con cualquier tarea de forma «emocionalmente inteligente», de la mano de sus modelos o3 y sus capacidades de razonamiento multimodales.

Actualmente, los usuarios utilizan ChatGPT principalmente para resolver sus preguntas, generar contenido y codificar, entre otras opciones pensadas para aliviar las cargas de trabajo en su día a día. Sin embargo, la compañía liderada por Sam Altman pretende extender su uso más allá, convirtiendo el ‘chatbot’ en «un experto, un consejero, un colaborador o un compañero y analizador» personalizado para los usuarios.

Como ya ha comentado la tecnológica en anteriores ocasiones desde que lanzó su ‘chatbot’ al mercado, la idea es ir avanzando con su producto de IA agregando nuevas tecnologías y capacidades que lo conviertan en lo que denomina como un «superasistente».

En este marco, OpenAI ha confirmado en un documento interno titulado ‘ChatGPT: H1 2025 Strategy’, que data de finales de 2024 y al que ha tenido acceso ahora The Verge, que estos planes para convertir ChatGPT en un superasistente comenzaron en la primera mitad de este año, con el objetivo de ofrecer un producto que conozca al usuario, entienda sus intereses y ayude a mejorar su vida en cualquier aspecto.

Concretamente, la compañía describe a ChatGPT como un superasistente que entiende lo que le importa al usuario y «ayuda en cualquier tarea que pueda hacer una persona emocionalmente inteligente y confiable con un ordenador».

Según los planes de la compañía, se trata de un momento oportuno dado que modelos como o3 «son por fin lo bastante inteligentes para realizar tareas de forma fiable», además de poder utilizar herramientas como el ordenador, que «pueden potenciar las capacidades de actuación de ChatGPT».

Igualmente, OpenAI ha mencionado que disponen de paradigmas de interacción, como la multimodalidad y la interfaz de usuario generativa, que permiten tanto a ChatGPT como a los usuarios «expresarse de la mejor forma posible para cada tarea».

Con todo ello, la compañía también ha definido su idea de superasistente, como «una entidad inteligente con habilidades en forma de ‘T'», esto es, que cuenta con amplias competencias para tareas cotidianas que resultan tediosas y tareas que requieren amplios conocimientos, como la codificación.

De esta manera, se trata de una entidad que actúa de personalizada y que está disponible desde cualquier plataforma, ya sea mediante la web como a través de aplicaciones nativas, ‘smartphones’ o plataformas de terceros como Siri de Apple.

Igualmente, podrá llevar a cabo todo tipo de acciones, desde encontrar una casa, hasta ponerse en contacto con un abogado, planificar vacaciones, gestionar calendarios o enviar correos electrónicos.

ENFRENTAMIENTO CON NAVEGADORES

Por otra parte, OpenAI ha calificado como competidores a las principales empresas en el sector de ‘chatbots’ para el consumidor, como es el caso de Claude de Anrhropic, Gemini de Google, Copilot de Microsoft y Meta AI de Meta. Al respecto, ha sentenciado que aunque son «líderes» del sector, «no pueden descansar».

Para ello, OpenAI busca ofrecer el mejor modelo gratuito, la mejor interfaz de usuario y la marca «más fuerte». Además, también ha subrayado que, al generar un superasistente, se enfrentan a motores de búsqueda, navegadores e incluso, a las interacciones con personas reales.

«Se trata de resolver cada vez más casos de uso e ir atrayendo poco a poco a los usuarios. Por eso no llamamos a nuestro producto motor de búsqueda, navegador o sistema operativo, sino ChatGPT», ha sentenciado.

Con todo, OpenAI ha reflejado que están en el momento óptimo y disponen de lo necesario para avanzar hacia un «superasistente», al contar con «uno de los productos de más rápido crecimiento», un «líder» en investigación tanto a nivel de razonamiento como de capacidades multimodales y de computación, y un equipo de investigación «de primera clase».

Continue Reading

Tecnología

Microsoft edge incorpora el soporte para las acciones de la aplicación en las aplicaciones web progresivas

Publicado

el

Microsoft ha incorporado el soporte para la realización de acciones en las aplicaciones web progresivas (PWA, por sus siglas en inglés) con el navegador edge.

Las PWA son páginas web que ofrecen un comportamiento similar al de las aplicaciones nativas, porque pueden instalarse en el navegador web o en la página de inicio de un dispositivo para ejecutarla de manera directa e independiente.

edge es uno de los navegadores que tiene soporte para las aplicaciones web progresivas, y se encuentran en la Tienda de Microsoft. La actualización versión 137 para Windows introduce, además, el soporte para las acciones de la aplicación, como informan en Windows Report.

Estas acciones ayudan a simplificar la ejecución de determinadas tareas, como traducir una parte de un texto o procesar una imagen, para facilitar la interacción del usuario. Al incorporarlas en las directamente en la PWA, evita tener que cambiar entre aplicaciones.

Continue Reading

Tecnología

Google amplía las funciones de Gemini en Google Drive para que pueda resumir vídeos almacenados

Publicado

el

Google ha ampliado las funciones de Inteligencia Artificial (IA) impulsadas por Gemini en Google Drive, que ahora podrá resumir los vídeos almacenados en su servicio en la nube y responder preguntas acerca del contenido de los mismos.

La tecnológica continúa desarrollando nuevas funciones para Google Drive, por lo que ha lanzado una nueva opción para los archivos en formato de vídeo, que se sumará a las incorporada hace menos de un año, que permiten resumir documentos y archivos PDF que estén guardados en el espacio de Workspace.

En concreto, Google ha ampliado las capacidades de resumen y preguntas de Gemini a los vídeos que estén almacenados en Google Drive, por lo que esta nueva función en formato de ‘chatbot’ conversacional ofrecerá una síntesis del contenido del vídeo y responderá preguntas acerca del mismo.

Según ha detallado la compañía en su web, para activar esta función bastará con acceder a un vídeo almacenado en Drive y pulsar el icono de Gemini, que aparece en la parte superior derecha de la pantalla desde la vista previa superpuesta del servicio de almacenamiento en la nube de Google. Los usuarios también deberán tener habilitados los subtítulos en el vídeo.

Google ha advertido de que, inicialmente, esta función sólo estará disponible en inglés para los usuarios de Google Workspace que hayan contratado las modalidades de Business Standard y Plus, Enterprise Standard y Plus, así como para los que hayan adquirido los complementos Gemini Education o Gemini Education Premium. Asimismo, los usuarios de Google One AI Premium también podrán acceder a esta nueva función.

La implementación completa de este servicio llevará unas semanas, ya que el gigante tecnológico ha concretado que comenzará a partir del 16 de junio.

Continue Reading

Trending