La inteligencia artificial podría salvar nuestro mundo. O condenarlo, claro. Seguidores y detractores de esta tecnología están librando una batalla en la que los prodigios que se prometen contrastan con las distopias más o menos exageradas en las que la humanidad acaba o bien arrasada por las máquinas o bien aburrida y deprimida porque los robots le han robado todos los trabajos que había.
El potencial de la inteligencia artificial es enorme, y los avances que hemos visto en los últimos meses y años confirman que estamos ante la que podría ser la gran revolución de nuestro tiempo. Los algoritmos podrían dominarlo todo y hacer que vivamos en un mundo mejor, pero hay quien opina que hay que ponerle freno a esos algoritmos... y hacerlo ya.
Que los algoritmos decidan no es buena idea (de momento)
Una de las razones es lógica: los algoritmos están aún en pañales, y muchas veces se comportan de maneras que no habíamos anticipado y con resultados que como poco son insatisfactorios. El sistema automatizado de de edición de contenidos de Facebook censuró una de las fotos más célebres de la historia, la titulada 'The terror of war', de Nick Ut, y tapó a la niña desnuda protagonista de la foto considerando que esta era una violación de la tradicional política contra los desnudos de niños.

Facebook tuvo que dar marcha atrás y republicar la foto original sin censura tras críticas muy fuertes que llegaron incluso de la Primera Ministra de Noruega, Erna Solverg, que llegó a indicar que al modificar esas imágenes Facebook estaba "redactando nuestra historia compartida". El problema es que ese era solo un pequeño ejemplo que de un error que sí se detectó, pero existen muchos más que no se detectan o que si lo hacen no tienen tanta relevancia pública (pero sí personal) como el de la célebre fotografía ganadora de un Premio Pulitzer.
Kate Crawford, investigadora en el campo del aprendizaje automático, precisamente advertía de ese peligro en una reflexión en la que calificaba a este descubrimiento como la punta de un iceberg gigante, uno en el que las decisiones automatizadas o semiautomatizadas no se detectan, y su impacto puede ser brutal.
La culpa no es de los algoritmos, sino nuestra
El problema es que estamos dándole un poder de decisión a la inteligencia artificial que ésta no debería tener. De repente estos algoritmos deciden quién debe ser contratado, quién se lleva la promoción, o incluso nos avisan de qué niño acabará siendo un criminal a los 18 años. Y cuando otros algoritmos tratan de revelar quién cometerá actos delictivos, resulta que nos encontramos con algoritmos racistas.

La cosa se complica cuando comprobamos que la culpa de esa realidad que nos presentan los algoritmos no es de ellos. Es nuestra, algo que dejamos claro hace unos meses en Magnet, cuando hablábamos del célebre caso de los "tres chicos blancos" y "tres chicos negros" que uno podía buscar con el buscador de imágenes de Google. En el primer caso se mostraba un trío de jóvenes sanos y deportistas. En el segundo, se mostraban fotografías de arrestos de jóvenes negros en Estados Unidos. Google era racista, determinó el estudio realizado por unos estudiantes de Virginia.
En Google tienen un problema real con temas tan delicados como el racismo o el machismo. Lo hemos visto con los casos de peinados poco profesionales para ir a trabajar (solo salían mujeres de raza negra) y peinados muy profesionales (mujeres de raza blanca), pero también con hombres futbolistas (con los resultados que uno esperaría) o mujeres futbolistas (las primeras imágenes eran más de modelos vestidas de futbolistas que de jugadoras reales) y con un estudio que dejaba claro que el mercado laboral era más favorable para hombres que para mujeres. Por no hablar de la polémica con Google Fotos y los gorilas.
Como afirmaba nuestra compañera Esther Miguel Trula, un algoritmo es un eco de los estereotipos de nuestra mente, más que una herramienta que muestre cómo es el mundo real. Google es racista porque internet es racista, afirmaban en Wired al hablar de otro de los servicios "racistas" de Google, Google Maps. Por cierto, parece que nos estamos cebando con Google, pero Snapchat tuvo una crisis muy reciente al respecto, y algo antes Microsoft también cayó en ese error: ¿Os acordáis de Tay?
El debate sobre si las computadoras pueden ser o no racistas es absurdo, porque los que somos racistas somos los seres humanos, que creamos los algoritmos que hacen funcionar el buscador de Google, el motor de recomendaciones de compras de Amazon o el de canciones de Spotify.

Es evidente que ninguna de las empresas que ofrecen esas empresas tienen intención de ser racistas o machistas, por ejemplo, pero estos algoritmos se alimentan tanto de los datos que les proporcionamos como de los criterios con los que han sido programados. La computadora simplemente hace lo que le hemos dicho que haga. Al menos por el momento, diría Elon Musk.
Esta amenaza presente y real que presentan estos sistemas ha hecho que algunos expertos se hayan unido para tratar de debatir sobre la cuestión. En el simposio AI Now organizado por la Casa Blanca se evaluó el impacto económico y social de la inteligencia artificial en los próximos 10 años y se llegó a una conclusión incómoda: "no hay métodos aprobados para evaluar los efectos humanos y el impacto longitudinal de la Inteligencia Artificial que se está aplicando a sistemas sociales".
Puede que esos algoritmos acaben siendo mucho mejores en la toma de decisiones que los seres humanos, pero eso no quiere decir que esas decisiones y procesos no tengan que ser supervisados. Y deberían serlo más que nunca ahora, cuando esta tecnología está demostrando que los aciertos pueden ser tan sorprendentes como los errores.
El filtro burbuja
Otro de los efectos colaterales de ese uso indiscriminado de la inteligencia artificial para la toma de decisiones es el que afecta a nuestros propios gustos y nuestra percepción de la realidad: Google News y Facebook perfilan lo que leemos y vemos en internet a diario, y esos algoritmos, como muchos otros, crean el llamado filtro burbuja. Eli Pariser hablaba de ello en TED2011:
El ejemplo más claro podría ser el de servicios como Spotify: el algoritmo que utilizamos para escuchar música toma en cuenta nuestras preferencias musicales a partir de las búsquedas que realizamos y las canciones que escuchamos. A partir de ahí es capaz de sugerirnos temas y artistas de ese perfil, pero el problema es, como afirmaba Tim O'Reilly, que "nos alimenta con más de lo que queremos escuchar, en lugar de exponernos a otros puntos de vista".
El problema se hace patente en los medios de comunicación que hacen (hacemos) uso de algoritmos de otros servicios para tratar de detectar los temas más interesantes en cada momento (descubrimos temas siguiendo medios y cuentas relevantes de Facebook o Twitter, entre otros). Ese interés, no obstante, está condicionado por algoritmos sobre los que nosotros no tenemos control alguno: las historias de las que hablamos son las más virales, las que están generando debate e interés entre los usuarios, pero... ¿por qué esas y no otras? La larga cola actúa, y el acto del descubrimiento se vuelve más complejo.

Cedemos una vez más a la comodidad y a lo fácil que nos lo ponen servicios como Facebook o Twitter, en los que sí tenemos cierto poder de decisión (a quién seguir) pero a partir de las cuales solo podemos contemplar una parte (muy pequeña) de nuestra realidad. Y una además condicionada por criterios propios que vuelven a envolvernos en esa burbuja.
Esta realidad demostró serlo una vez más en otro de los grandes fenómenos mediáticos de los últimos tiempos: Netflix. En el libro 'The Netflix Effect' dos investigadores explicaron cómo los sistemas de recomendación personal tienden a "dirigir al usuario hacia ese contenido, por lo que meten al usuario en el gueto de una categoría prescrita con contenido clasificado demográficamente". Son los algoritmos piña: nos unen y reafirman más en nuestros gustos y criterios, pero es probable que también nos condicionen a la hora de aceptar los gustos y criterios de otros.
Auditar el algoritmo es la clave para confiar en él
¿Qué hacer para protegernos de ello? El secreto está en poder estudiar esos algoritmos. Comprenderlos. Es más: auditarlos. O'Reilly proponía un conjunto de cuatro reglas para lograr saber si podíamos o no fiarnos de un algoritmo:

- Sus creadores han aclarado el resultado que buscan, y es posible que observadores externos verifiquen ese resultado.
- El éxito es medible.
- Los objetivos de los creadores del algoritmo están alineados con los objetivos de los consumidores del algoritmo.
- ¿Permite el algoritmo llevar a sus creadores y usuarios a una mejor toma de decisiones a largo plazo?
La aplicación de esas reglas permite explicar el punto en el que nos encontramos, por ejemplo, con los prometedores coches autónomos. Las dos primeras reglas se cumplen, pero la cosa se complica con la tercera y la cuarta regla: no hay una alineación de la industria con los coches autónomos porque hay demasiados intereses creados alrededor de ese segmento.
Millones de puestos de trabajo estarían en juego, así que para muchos "mantener al ser humano en el bucle" es algo crucial para poder seguir subsistiendo. No tenemos coches autónomos no tanto porque los algoritmos no estén preparados (están cerca de estarlo), sino porque su implantación tiene efectos colaterales imposibles de cuantificar. Al menos, de momento.
Para O'Reilly todo se reduce al hecho de que "hay un algoritmo maestro que domina nuestra sociedad", y éste no es uno en el que se haga un uso excepcional del aprendizaje automático. No. Es el pilar básico de las empresas modernas: que la única obligación de un negocio es para con sus accionistas. Hasta que eso no cambie, veamos más allá y nos fiemos de los "otros" algoritmos, no avanzaremos. Pero para hacerlo, claro, tendremos que estar muy atentos a lo que estos hacen y también a lo que dejan de hacer.
En Xataka | Los académicos nos dicen la verdad sobre el estado del hype de la Inteligencia Artificial
Ver 15 comentarios
15 comentarios
sarpullido
Agarremos el problema por los cuernos y solucionemoslo...
Primero aceptamos lo de algoritmo para que no te lleves es scatergoris...
-Queremos que sea un algoritmo acertado, pero que a la vez no nos restrija a nuevos descubrimientos.
ÑEEEEEEEEEEEEEC contradicción.
- Queremos algoritmos eficientes en maquinas que no fallen, pero que no nos quiten el trabajo.
ÑEEEEEEEEEEEEEC contradicción.
- Queremos que el sistema sea lo suficientemente inteligente para tomar decisiones acertadas, pero a la vez queremos que cualquiera pueda analizar las tomas de decisiones en auditorias.
ÑEEEEEEEEEEEEEC contradicción.
- Sus creadores han aclarado el resultado que buscan, y es posible que observadores externos verifiquen ese resultado.
- El éxito es medible.
- Los objetivos de los creadores del algoritmo están alineados con los objetivos de los consumidores del algoritmo.
- ¿Permite el algoritmo llevar a sus creadores y usuarios a una mejor toma de decisiones a largo plazo?
ÑEEEEEEEEEEEEEC imposible en su esencia máxima, esto solo seria posible con sistemas expertos, no con redes neuronales, y por tanto imposible a niveles razonables de "inteligencia". El problema es exactamente el mismo que el de la humanidad, ciertas cosas solo se solucionan con educacion, no con analisis y repercusion traumatica.
Digamoslo claro, lo que hay es MIEDO, MIEDO Y MAS MIEDO, todo lo que se esta pidiendo a una IA para que nos sintamos agusto con ella son requisitos que ningun humano cumpliria, y señores, esa es la propia esencia de la inteligencia, asi funciona, lo tomas o lo dejas.
Por otra parte la cuantificacion de los errores me parece herratica..., que es peor, censurar la imagen de la niña del bombardeo con napalm, o el que decidio que aquel ataque era razonable, toda la cadena de mandos que de uno a otro aprobaron ese ataque, todos aquellos que estan involucrados en su ejecucion, el que se gana la vida fotografiando criaturas a las que han arrancado la piel con fuego y en general todos los que han pagado un periodico para consumir esa clase de barbaridades...
Bienvenidos al mundo, si la IA va a ser dantesca, horripilante, tremenda y va a tomar decisiones horribles, traumaticas e incluso inhumanas..., justo en ese momento podremos decir que por fin hemos conseguido una IA a nuestra imagen y semejanza.
vacho
Simple! No vivas todo el tiempo en las redes sociales y buscadores. Ten criterio, elige tus herramientas y como distribuyes el tiempo en ellas.
Land-of-Mordor
El algoritmo no deja de ser una operación matemática-lógica más o menos complicada especificada por un humano y que trabaja con una serie de datos. Esos datos los proporcionamos nosotros con nuestras búsquedas y nuestras preferencias en la red. Pero la culpa de los resultados racistas, discriminatorios, etc, de los motores de búsqueda es del algoritmo, que quede claro...la capacidad del ser humano de buscar culpables que no sean el propio ser humano no deja de sorprenderme.
yakul
Me gusta el rediseño en negro. ademas, soy yo o ha cambiado la tipografia? mejor, es mas clara para leer, en mi opinion.
Los ultimos cambios web, con un feed de noticias importantes principal y grande y el resto debajo, el tema en negro y la tipografia me parecen grandes aciertos.
Tengo ganas de ver esos cambios en las otras secciones de weblogs. Saludos!
PD. sigue sin gustarme demasiado la barra lateral como menu... pero como tampoco sabria decir que formato me gustaria, no lo voy a criticar. tampoco es que no me guste, asi es util.
ZellDich
Poneros como queráis, la inteligencia artificial llegara, y si quitara los trabajos existentes, el primer error es pensar que el trabajo es necesario existiendo la posibilidad de un resultado final sin intermediarios, los primeros robots serán carísimos y los empresarios pensaran que no compensa inversión con resultado, pero con el tiempo y el abaratamiento de los componentes de las máquinas, compensará y llegaremos a la conclusión de tener que evolucionar y pasar a una segunda fase en nuestro estilo de vida económico y político.
Seamos realistas, ya ni los videojuegos se comprueban lo suficiente antes de salir a mercado como para comprobar algoritmos más complejos en todas sus definiciones, económicamente el mercado no lo permite, asi que sera como siempre a base de error, y seguramente algún error será terrible, pero se solucionara y la gente lo aceptara, y se mejorará el algoritmo, estoy pensando como ejemplo en el coche autónomo, alguna posible decisión incorrecta a la hora de decidir. Pero pensarlo bien, hasta ahora la mayoría de las máquinas de repetición no poseen desplazamiento, en cuanto el coche autónomo entre en acción esto cambiará, tractores sin conductores, aspiradoras mas inteligentes que lo que existe ahora "que solo se pegan y dan vueltas pudiendo incluso caerse por escaleras", una carretilla que se desplace sola, llevar cajas de un lado a otro de forma autónoma para que estén ordenadas, en fin un nuevo sinfín de posibilidades que concede el poder desplazarse con sensores y cámaras que hasta este momento no se ha producido.
jorgecrce
Creía por la foto y el título que en el artículo ibais a mencionar a Stanislav Petrov.
whisper5
Un artículo realmente interesante sobre temas relacionados con la inteligencia artificial que sí nos afectan, no las especulaciones sobre 'Terminators'.
El problema que tenemos con las técnicas de inteligencia artificial utilizadas es que son demasiados complejas, no para entenderlas, porque las hemos creado nosotros, pero sí para conocer por qué, dada una determinada entrada de datos, se produce un determinado resultado.
La palabra algoritmo la utilizamos mucho pero no transmite realmente la naturaleza de lo que hay detrás, y esto es importante porque explica los problemas y retos que nos plantea la inteligencia artificial. Por ejemplo, un algoritmo para calcular una póliza de seguro para un coche puede tener muchas condiciones lógicas y cálculos numéricos, pero se puede seguir y entender: toma una cantidad, aplícale un porcentaje, súmale otra cantidad, si el resultado es mayor que otra cantidad sigue el cálculo por aquí, etc. No sólo se puede entender sino que en caso de obtener un resultado final que nos sorprenda, se puede seguir toda la secuencia de operaciones del algoritmo y explicar por qué se ha obtenido ese resultado y si se trata de un error o no.
Los algoritmos utilizados en inteligencia artificial actualmente utilizan modelos matemáticos muy complejos que no son asequibles a nuestra mente. Nosotros nos movemos en un espacio tridimensional (más el tiempo), pero estos algoritmos pueden trabajan en espacios de cientos de miles de dimensiones. Al final se tienen matrices de millones de números y se realicen operaciones con ellas que se van ajustando hasta que se obtienen resultados interesantes, pero en muchas ocasiones no se comprende por qué funcionan y mucho menos se sabe por qué han dado un determinado resultado. Estamos habituados a que los algoritmos tradicionales se traduzcan en programas informáticos, escritos en un lenguaje de programación concreto que las personas podemos leer, estudiar y comprender. En los algoritmos de inteligencia artificial no existe un programa informático más allá de las operaciones matriciales que se hacen con unos números.
Recomiendo una charla en 'ted.com' de Zeynep Tufekci titulada 'Machine intelligence makes human morals more important'.
Usuario desactivado
Si llamamos inteligencia a algoritmos que simplemente toman decisiones en base a unos parámetros establecidos (más o menos complejos) mal vamos, sobre todo cuando esos parámetros se obtienen de espiarnos masivamente, eso no deja de ser un "If this then that"... Si encima damos por válidas esas decisiones porque somos demasiado vagos (y a este paso demasiado ignorantes) para tomarlas por nosotros mismos, dice muy poco de nosotros como especie "inteligente". Esto de la IA para mí es una burbuja, por lo pronto no he visto nada que me haga creer en un ente artificial realmente inteligente a corto medio largo plazo.
esiguall
Y por qué no ir hacia una utopía en la que ningún ser humano trabaje pero cobre X dinero al mes en función de sus estudios y conocimientos, y sin necesidad de hacer ningún trabajo de 8 horas, vivir libres haciendo lo que queramos, ya las máquinas se ocupan de producir.
Total, por pedir...
nedveros
os estais rayando la cabeza tan solo pensad que un algoritmo es creado por una persona,la inteligencia artificial solo son un numero limitado de opciones que han sido programadas por un programador todo es lo mismo el algoritmo no es racista el racista es el programador.es estupido pensar eso las matemáticas no son homofobas.si pensáis en la inteligencia artificial como un terminator se ve que sabéis poco del tema XD