Las implicaciones sociales de la IA (y, sobre todo, de su mal funcionamiento) son numerosas. Los algoritmos mal diseñados o entrenados con datos poco diversos pueden generar todo tipo de situaciones perniciosas: discriminación laboral a mujeres, desaparición de la privacidad, denegación de préstamos a minorías o propagación de pseudociencias.
Muchas de esas externalidades negativas de la IA sobre lo social tienen a su vez causas sociales (como los prejuicios). Por ello, muchas son las voces que reivindican el papel que pueden desempeñar los científicos sociales a la hora de desarrollar esta tecnología.
Por ejemplo el emprendedor social Will Byrne, fundador de Groundwsell, afirmaba que
"Actualmente la IA es un campo enrarecido, exclusivo de tecnólogos y matemáticos. Los equipos con trasfondos más diversos plantearán por naturaleza las preguntas, iluminarán los puntos ciegos, comprobarán las suposiciones para garantizar que sus herramientas se basen en un espectro amplio de perspectivas".
¿Qué opina OpenAI?
"Si queremos entrenar a la IA para que haga lo que los humanos quieren, antes debemos estudiar a los humanos [...] y resolver muchas incertidumbres relacionadas con la psicología de la racionalidad humana", sostiene un artículo publicado recientemente por Geoffrey Irving y Amanda Askell, investigadores de OpenAI.
"Necesitamos científicos sociales con experiencia en cognición humana, comportamiento y ética, y en el diseño cuidadoso de experimentos rigurosos".
"Dado que las preguntas que debemos responder son interdisciplinarias [...] creemos que se pueden recurrir a muchos campos de la ciencia social, incluyendo psicología experimental, ciencia cognitiva, economía, ciencia política y psicología social, así como campos adyacentes como neurociencia y el derecho".
"Las respuestas humanas a las preguntas sobre sus valores pueden ser poco confiables. Los seres humanos tienen un conocimiento y una capacidad de razonamiento limitados, y exhiben una variedad de sesgos cognitivos y creencias éticas que resultan ser inconsistentes en la reflexión".
Todavía en medio de la polémica desatada por su IA redactora de fakes news, esta entidad sin ánimo de lucro (fundada por Elon Musk y respaldada por Peter Thiel) ha tenido tiempo para reivindicar la colaboración cercana entre científicos sociales y expertos en computación.
AI safety needs social scientists (and we're hiring!): https://t.co/WQajMyVTOZ pic.twitter.com/agAFS3be2U
— OpenAI (@OpenAI) 19 de febrero de 2019
De hecho, en OpenAI están convencidos de la necesidad de contar con los científicos sociales para garantizar que el diseño de las inteligencias artificiales sea el adecuado para interactuar de manera fiable con nosotros.
Recientemente, de hecho, organizaron un taller en el Centro de Estudios Avanzados en Ciencias del Comportamiento de la Universidad de Stanford, y ya han hecho públicos sus planes para contratar científicos sociales que trabajen en esta clase de problemas a tiempo completo.
El problema de la alineación de valores
Uno de los 23 'Principios de Asilomar' elaborados por el Future of Life Institute con el fin de evitar que la IA se vuelva contra nosotros es el llamado "Alineación de valores", y se describe en estos términos:
"Los sistemas de IA altamente autónomos deberían ser diseñados para que sus metas y comportamientos puedan alinearse con los valores humanos a lo largo de sus operaciones".
Según OpenAI, lograr esto es una tarea que se subdivide en otras tres:
- Contar con una definición satisfactoria de los valores humanos.
- Recopilar datos sobre valores humanos, de manera compatible con su definición.
- Encontrar algoritmos de aprendizaje automático fiables que puedan aprender y generalizar a partir de estos datos.
En su artículo, Irving y Askell afirman que afrontamos incertidumbres significativas con respecto a estos tres aspectos. Los valores humanos (entendidos como nuestro conjunto completo de preferencias detalladas, no como objetivos abstractos y generales) son demasiado complejos como para definirlos con reglas simples.
Y añaden que, si bien esta alineación ya es un problema hoy en día (por la falta de coincidencia entre valores humanos y las fuentes de datos más usadas, como los clics), se hace más difícil a medida que los sistemas de aprendizaje automático se vuelven más inteligentes e intervienen en tareas más importantes.
La oferta de trabajo para científicos sociales publicada por OpenAI entra más en detalle sobre el papel que se le reservaría a este sector en el desarrollo de la IA:
Se le asignará la tarea de explorar el lado humano de los algoritmos de seguridad de IA que intentan aprender haciendo preguntas a los humanos. Eventualmente, estos algoritmos involucrarán tanto a humanos como a inteligencias artificiales, pero creemos que podemos obtener conocimiento temprano al modelar los algoritmos sólo con humanos.
Ver 3 comentarios