Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

Apple detalla los modelos que impulsan Apple Intelligence

Publicado

el

Apple ha compartido los detalles de dos de los modelos que impulsan su sistema de inteligencia artificial (IA) Apple Intelligence, el del servidor y el del dispositivo, con la vista puesta en su despliegue en los próximos meses.

Apple Intelligence, el sistema de capacidades impulsadas por IA destinadas a ofrecer una experiencia personal, privada e integrada en los servicios de los dispositivos de Apple, tiene en su base varios modelos fundacionales, que son los que permiten que realice las tareas en el día a día de las personas.

Aunque presentó la integración de la IA en sus dispositivos en junio, en el marco de su conferencia anual de desarrolladores, Apple ha detallado ahora en un documento técnico dos de esos modelos fundacionales y los principios por los que se guía para desarrollar una inteligencia artificial responsable.

Los dos modelos que ha detallado son, por un lado, el que se ejecuta en el propio dispositivo y presenta un tamaño de 3.000 millones de parámetros de lenguaje, y por otro, el que funciona en el servidor y ha sido diseñado para realizar tareas específicas “de manera precisa y responsable”. A ellos se les unen otros como uno específico de programación y un modelo de difusión para habilitar la expresión creativa en servicios como la ‘app’ Mensajes.

Se trata de modelos construidos con una arquitectura Transformer y en los que la compañía ha centrado sus esfuerzos en la fase de preentrenamiento, haciendo hincapié en la eficiencia y la calidad de los datos más que en su cantidad, procedentes de contenidos licenciados de editores, de bases curadas y disponibles de forma pública o de código abierto e información pública en internet recogida por su indexador Applebot.

En su documento técnico, Apple asegura que han seguido “una estricta política de datos que garantiza que no se incluyen datos de usuarios de Apple, además de realizar una revisión legal rigurosa de cada componente del corpus de capacitación”.

El entrenamiento ha sido diferente en cada uno de los modelos detallados: mientras que en el modelo de servidor esta fase se ha realizado desde cero con 6,3 billones de tokens y utilizando 8.192 chips TPUv4, en el modelo en local se ha apostado por las técnicas de destilación de conocimientos y poda estructural para mejorar el rendimiento y la eficiencia y utilizado 2.048 chips TPUv5p.

En la fase del postentrenamiento han optado por aplicar métodos que permitieran mejorar el seguimiento de instrucciones de uso general y la capacidad de conversación mediante el ajuste fino supervisado y el aprendizaje de refuerzo a partir de retroalimentación humana.

“Nuestros modelos se crearon con el propósito de ayudar a los usuarios a realizar actividades cotidianas en sus productos Apple, basados en los valores fundamentales de Apple y arraigados en nuestros principios de IA responsable en cada etapa”, dice la compañía.

UN SISTEMA PARA ENTENDER LAS NECESIDADES DE LOS USUARIOS

Durante la presentación de Apple Intelligence, la compañía dijo que puede comprender las acciones entre las aplicaciones, el lenguaje, así como crear imágenes o emojis personalizados con diferentes estilos, y aprende de la información que tiene de los usuarios y su contexto para comprender las necesidades de los usuarios.

Entonces, el vicepresidente sénior de Ingeniería de Software, Craigh Federighi, insistió en que todo este proceso se lleva a cabo de forma privada y se procesa de manera local, desde el mismo dispositivo, de modo que estos datos solo son accesibles para sus propietarios.

De manera complementaría, crearon Private Cloud Compute, que permite a Apple Intelligence escalar su capacidad computacional; si la potencia del dispositivo no es suficiente, lleva el procesamiento de la información a una nube privada, enviando únicamente la información relevante para ejecutar la tarea. Estos datos no se guardan ni son accesibles para la propia marca, aseguró.

El sistema de IA se ha introducido ahora en las betas de iOS 18.1 e iPadOS 18.1, dirigidas a iPhone 15 Pro, iPhone 15 Pro Max y iPad con chips de la familia Apple Silicon, donde ya prueba algunas de las funciones que impulsa, como la herramienta de escritura inteligente en Mail y Notas, los resúmenes de transcripciones y nuevas características para Fotos.

Tecnología

Meta agrega alta definición de imagen, mejoras en el sonido y fondos de IA en las videollamadas de Messenger

Publicado

el

Meta ha implementado mejoras para las videollamadas de Messenger, que ofrecerán imagen con resolución HD y sonido de mayor calidad gracias a la supresión de ruido, así como la posibilidad de crear nuevos fondos de llamada mediante la Inteligencia Artificial (IA) de Meta AI.

La compañía liderada por Mark Zuckerberg ha señalado que los usuarios suman más de 7 mil millones de minutos diarios en llamadas a través de Facebook y Messenger y, de cara a mejorar la experiencia en este servicio y continuar poniendo en contacto a las personas, ha anunciado nuevas funciones para la imagen y el audio.

En concreto, Meta ha agregado calidad de imagen HD para las videollamadas, lo que mejora la visualización de las personas a través de la pantalla. La función de alta definición estará activada de forma predeterminada para las videollamadas realizadas a través de conexión WiFi.

Sin embargo, para habilitar la alta definición en las videollamadas con datos, los usuarios deberán activar previamente la función en la configuración de llamadas, pulsando la opción ‘Datos móviles para video en alta definición’, tal y como ha compartido Meta en un comunicado en su blog.

Siguiendo esta línea, en cuanto al sonido, la tecnológica también ha añadido funciones de supresión de ruido de fondo y aislamiento de voz, de manera que los usuarios puedan hacer llamadas más claras y con mayor nitidez durante las conversaciones. Así, estas funciones también se pueden habilitar a través de la configuración de llamadas en Messenger.

Por otra parte, Meta ha implementado una nueva herramienta para utilizar fondos generados por IA en las videollamadas de Messenger. Según ha explicado, estos fondos se podrán crear según las indicaciones de los usuarios, a través de la IA del asistente Meta AI.

De esta forma, los usuarios podrán personalizar el fondo a su gusto durante las videollamadas, ya sea creando imágenes que expresen cómo se sienten o simplemente generando un fondo llamativo. Para crear estos fondos de IA personalizados, bastará con tocar el icono de efectos situado en la barra lateral de la videollamada y, tras ello, pulsar en ‘Fondos’.

NUEVAS FUNCIONES PARA MENSAJES Y LLAMADAS

Además de todo ello, Meta también ha anunciado que los usuarios podrán dejar mensajes de voz de audio o vídeo cuando no obtengan respuesta a sus videollamadas, a modo contestador. Para ello, se deberá pulsar el botón de ‘Grabar mensaje’ que aparece tras finalizar la llamada sin respuesta.

Continuando con las novedades, la compañía ha agregado una nueva opción de manos libres para usuarios con dispositivo iOS, con la que se podrá solicitar a Siri que ayude a hacer llamadas y enviar mensajes, mediante comandos de voz. Según ha ejemplificado Meta, los usuarios podrán solicitar a Siri cuestiones como “Envía un mensaje a Cassandra en Messenger” y luego dictar el mensaje para enviarlo.

Continue Reading

Tecnología

Las transcripciones de los mensajes de voz llegan a WhatsApp

Publicado

el

WhatsApp está incorporando en su servicio una nueva funcionalidad que permite transcribir los mensajes de voz en diferentes idiomas y mantiene el cifrado de extremo a extremo, que ya es habitual en la plataforma de comunicación instantánea que desarrolla Meta.

Meta reconoce que, aunque las notas de voz sirven para que los usuarios puedan conectarse de forma más personal con amigos y familiares, en ocasiones no es fácil escucharlas por ser demasiado largas o por recibirlas en situaciones en las que hay mucho ruido.

Por ello, ha desarrollado una característica que permite transcribir los mensajes de voz personales en el propio dispositivo, una característica que mantendrá la protección del cifrado de extremo a extremo, lo que significa que nadie puede verlos, escucharlos o leerlos.

Esta funcionalidad se puede utilizar en el apartado de ‘Chats’, dentro de los ‘Ajustes’ de configuración y después de activar el botón ‘Transcripciones de mensajes de voz’. Asimismo, es necesario mantener el mensaje de voz presionado para que aparezca la opción ‘Transcribir’.

Las transcripciones se implementarán en todo el mundo durante las próximas semanas, tanto en iOS como en Android y en diferentes idiomas. En la versión de WhatsApp para el sistema operativo de Google estará disponible en inglés, portugués, español y ruso.

Por su parte, iOS 16 también los admitirá, junto al italiano, el japonés. el coreano, el chino, el turco y el árabe. Para iOS 17 y versiones posteriores se espera la llegada del danés, el finés, el hebreo, el noruego, el neerlandés, el sueco, el tailandés y el malayo.

Continue Reading

Tecnología

Gemini para Google Workspace ya está disponible en español

Publicado

el

Google Cloud ha ampliado el soporte lingüístico del asistente de inteligencia artificial generativa Gemini para Google Workspace a siete nuevos idiomas, incluyendo el español.

A partir de esta semana, Gemini admitirá los siguientes nuevos idiomas en el panel lateral de Google Docs, Sheets, Drive y Gmail: español, alemán, italiano, japonés, coreano, portugués y francés, como ha informado Google en un comunicado.

Con esta expansión, Gemini para Workspace pasa a estar disponible en la lengua materna de más de mil millones de personas, que pueden usar este asiste para escribir contenidos para redes sociales en Docs, resumir una serie de archivos en Drive o poner al día su bandeja de entrada de Gmail.

Google también ha confirmado que, en los próximos meses, estos nuevos idiomas de Gemini se añadirán también al panel lateral de Presentaciones.

Continue Reading

Trending