En los últimos tiempo parece estar consolidándose una corriente de desconfianza hacia las grandes tecnológicas que, cada vez más, logra traducirse en decisiones políticas. Diversos temas polémicos, desde las amenazas a la privacidad a las fake news, pasando por el control de expresiones de odio, han influido en este sentido en los últimos años.
Este verano, sin ir más lejos, un tribunal de Delaware obligaba a Facebook a divulgar entre sus accionistas la información sobre cómo se procesan, monetizan y almacenan los datos personales de sus usuarios; poco después, varios senadores estadounidenses presentaban un proyecto de ley para obligar a las tecnológicas a revelar a sus usuarios el valor neto de us datos personales.
Levantando el velo de los algoritmos
Ahora, Australia ha ido un paso más allá creando el primer organismo público del mundo especializado en vigilar los algoritmos usados por esta clase de empresas en el ámbito publicitario.
La decisión del gobierno australiano, que establece un significativo precedente para el resto de países, llega tras una recomendación realizada en este sentido en un informe de la Comisión Australiana de la Competencia y el Consumidor (ACCC).
Josh Frydenber, el jefe de la Oficina del Tesoro de Australia, declaró al respecto que estas compañías se encuentran entre "las más poderosas y valiosas del mundo", por lo que debían empezar "a rendir cuentas y a ser más transparentes" en lo relativo a sus actividades.
Y eso, para Frydenberg, pasa por "levantar el velo" de los algoritmos usados por estas compañías para monetizar la información de que disponen sobre los usuarios.
Las recomendaciones de la ACCC pasarán serán sometidas ahora a un proceso de consulta pública de 12 semanas. De acuerdo con Reuters, Facebook y Google afirmaron que colaborarían con el Gobierno durante el proceso de consulta, aunque anteriormente habían rechazado la necesidad de un cambio en la regulación (según estas compañías, la ACCC ha subestimado el nivel de competencia en el sector de la publicidad online).
Entre otras recomendaciones del informe, la ACCC promueve la aprobación de una ley de privacidad actualizada para otorgar a los usuarios el derecho a borrar todo dato personal que estas empresas almacenen online:
"No podemos dejar estas cuestiones en manos de entidades comerciales con gran poder en el mercado, es necesario que gobiernos y reguladores se pongan al día".
Vía | Reuters
Ver 1 comentario
1 comentario
whisper5
No tiene sentido hablar de "supervisar algoritmos".
Estoy de acuerdo en que necesitamos más transparencia y más control sobre los datos que se recopilan y los datos que se conservan sobre los usuarios, y esto debería hacerse por ley. Pero no tiene sentido supervisar los algoritmos.
Estamos hablando de "machine learning" (aprendizaje automático), donde los algoritmos no dan información sobre las decisiones tomadas.
En la informática clásica, los algoritmos consisten en una receta de operaciones. Si tenemos, por ejemplo, un programa para calcular la declaración de la renta, podemos seguirlo paso a paso y conocer exactamente por qué el importe final de la declaración es el que ha salido como resultado, y conocer las razones concretas de que tenga el valor que tiene y la influencia de los parámetros de entrada en el resultado. Un algoritmo así se puede supervisar.
La informática de las grandes tecnológicas que se comenta en el artículo es "machine learning", y mayormente "deep learning". El algoritmo es simplemente un conjunto de operaciones matriciales que nada nos dice sobre la relación entre entradas y salidas. Por eso se habla de "caja negra". Se está investigando para que dejen de ser cajas negras, pero todavía estamos muy lejos de poder explicar por qué un sistema de inteligencia artificial ha dado una respuesta concreta.
La transparencia no está en "supervisar algoritmos", algo inútil, sino en conocer qué datos recopilan, cómo lo hacen, para qué los usan, cómo comercian con ellos, cómo podemos controlarlos los usuarios y cómo podemos obligarles a que los eliminen.
Qué el organismo australiano se centre en supervisar algoritmos no es bueno, y no sé si es peor que no sepa de qué habla, o que lo sepa y sea una cortina de humo para ocultar que no se quiere exigir a las tecnológicas lo verdaderamente necesario.