Tecnología

Google DeepMind persigue el desarrollo responsable de la IA con equipos multidisciplinares y principios compartidos

Published

on

Google DeepMind ha subrayado su compromiso para mantener un enfoque de construcción de la Inteligencia Artificial (IA) “responsable”, con una estrategia basada en pilares como el método científico, el trabajo con equipos multidisciplinares y la creación de principios compartidos en la empresa.

La regularización de la IA es una de las preocupaciones más persistentes en el panorama tecnológico actual, con el objetivo de garantizar la seguridad en cuanto a sus múltiples posibles casos de uso y funciones.

En este sentido, Google DeepMind, la compañía de desarrollo de IA del gigante tecnológico, incorporó a Lila Ibrahim como la primera directora de Operaciones de DeepMind en 2018, con el objetivo de desarrollar una IA de manera responsable.

Así lo ha detallado, Ibrahim en declaraciones remitidas por TNW, donde ha sentenciado que “los riesgos nuevos y emergentes, como el sesgo, la seguridad y la desigualdad, deben tomarse muy enserio”. También ha destacado que se ha de asegurar que se está haciendo “todo lo posible para maximizar los resultados beneficiosos” para la sociedad.

Para ello, en Google DeepMind se ha diseñado una estrategia basada en cuatro pilares, que van desde el uso del método científico a la elaboración de principios compartidos de la empresa, para guiar el desarrollo de la IA de una forma segura.

Así, en primer lugar, Ibrahim ha explicado que, para descubrir los componentes básicos de la IA avanzada, en Google DeepMind utilizan el método científico. Es decir, construyen hipótesis sobre el funcionamiento de la IA y prueban estas teorías obteniendo resultados “a través del escrutinio de la revisión por pares”.

En concreto en DeepMind utilizan el método científico porque, según ha explicado la directiva, es el enfoque “correcto” para investigar la IA porque “la hoja de ruta para construir la IA aún no está clara”, por lo que se trata de un trabajo de ensayo-error y de continuas comprobaciones.

Por otra parte, Ibrahim ha detallado que la empresa de desarrollo de IA trabaja con equipos multidisciplinares. Esto es, el uso de varios sistemas y procesos llevados a cabo por profesionales para guiar la investigación de IA.

Tal y como ha ejemplificado la directora de Operaciones, estos equipos multidisciplinares se conforman con especialistas en distintas áreas, ya sea investigadores de aprendizaje automático, profesionales en aspectos de ética, en seguridad, en ingeniería, o expertos en política. De esta forma, se puede obtener una visión desde todos los ángulos de los usos de la IA y su funcionamiento.

Además, los miembros de estos equipos multidisciplinares se reúnen de forma regular y ponen en común sus ideas para expandir los beneficios de la tecnología, así como para añadir cambios en los métodos o aspectos de la investigación. También proponen proyectos en los que consideren que se necesitan más consultas externas.

Según Ibrahim, el uso de equipos multidisciplinares ofrece “un conjunto único de perspectivas”, algo que es “un componente crucial para construir un futuro seguro, ético e inclusivo habilitado para la IA que nos beneficie a todos”.

Otro de los pilares fundamentales en los que se basa el trabajo de Google DeepMind son los principios compartidos que ha creado la empresa para guiar su desarrollo de la IA.

Estos principios compartidos, definen el compromiso que tiene la compañía para mitigar los posibles riesgos de la IA. Entre otras cosas, detalla aquellos objetivos en los que la empresa no implementará sus recursos, como es el desarrollo de tecnologías nocivas, el desarrollo de armas, la tecnología de vigilancia o las violaciones del derecho internacional o de los derechos humanos.

Por otra parte, también dentro de estos principios compartidos, Google DeepMind detalla su compromiso de avanzar en el desarrollo de sus tecnologías para lograr un amplio beneficio social, así como trabajar para llegar a alcanzar la excelencia científica e integridad en su labor. Igualmente, se aboga por la defensa de la seguridad y la ética en la IA, además de compartir los avances científicos de manera responsable y promover la diversidad, equidad e inclusión.

Finalmente, Ibrahim ha explicado que el cuarto pilar en el que se apoya el trabajo de Google DeepMind es la consulta continua a expertos externos a la empresa.

En este sentido, ha señalado que una de las preocupaciones de la compañía es el refuerzo de los sesgos en la IA, como elque afecta a grupos marginados, a razón del sexo o la raza. Esto se debe a que estos grupos tienden a estar poco representados en los conjuntos de datos con los que se entrena la IA y en los equipos que crean estas bases de datos.

En base a todo ello, Google DeepMind trabaja con expertos en cuestiones relativas al sesgo, la persuasión, la bioseguridad y el despliegue responsable de modelos de IA. Igualmente, la compañía tiene en cuenta las opiniones de distintas comunidades para comprender mejor el impacto de tecnologías como la IA en estas comunidades.

“Esta retroalimentación nos permite refinar y volver a entrenar nuestros modelos para que sean apropiados para una gama más amplia de audiencias”, ha sentenciado Ibrahim al respecto.

You must be logged in to post a comment Login

Leave a Reply

Cancelar la respuesta

Trending

Salir de la versión móvil