Eso que nos enseñaban las películas de ciencia ficción sobre conectarnos a una máquina y controlar un dispositivo con la mente ha dejado de ser ciencia ficción. Compañías como Neuralink ya han conseguido desarrollar una interfaz humano-máquina capaz de hacer esto y, si bien está en una etapa temprana y lejos de ser perfecta, está aquí. Y eso pone un debate sobre la mesa: ¿qué pasará con nuestra información neuronal? ¿A qué partes de nuestra información puede acceder una empresa como Neuralink? ¿Qué puede y qué no puede hacer con ella?
Proteger esta información, probablemente la más personal, es de vital importancia y el Estado de California (Estados Unidos) ha dado un pequeño-gran paso adelante para conseguirlo.
CCPA. Esas son las siglas de California Consumer Privacy Act, una ley que entró en vigor el pasado 1 de enero y que se ha comparado con el RGPD europeo. Aunque ha generado mucha confusión al respecto debido a la definición de “información personal”, esta ley aplica a toda empresa que haga negocios en California y cumpla uno de estos tres requisitos: tenga ingresos por valor de 25 millones de dólares anuales; compra, reciba o venda información personal de 100.000 o más consumidores; o la mitad de sus ingresos anuales provengan de la venta de información personal.
Y ahora, datos neuronales. Esta nueva ley es, realmente, una enmienda (SB 1123) de la CCPA. Fue aprobada el pasado sábado por el gobernador Gavin Newsom (California) y, básicamente, añade el término “neural data” (información neuronal) a la definición de “información personal sensible” en la ley. Según explica el senador Josh Becker, que ha sido el impulsor de la misma,
“Algunos ejemplos de información personal sensible son: tu número de la seguridad social, la información de tu cuenta financiera, tus datos precisos de geolocalización o tus datos biométricos, pero no los neurodatos. El proyecto de ley SB 1223 define los neurodatos como información personal sensible y aplica las mismas protecciones limitadas al uso de sus neurodatos que a cualquier otra información personal sensible”.
Si nos ceñimos a la definición de “datos biométricos” que propone la ley, esta nueva enmienda equipara la información neuronal a:
[…] imágenes del iris, la retina, las huellas dactilares, la cara, la mano, la palma de la mano, patrones venosos y grabaciones de voz, a partir de las cuales puede extraerse una plantilla identificadora, como una huella facial, una plantilla de puntos característicos o una huella vocal, así como patrones o ritmos de pulsación de teclas, patrones o ritmos de marcha y datos sobre el sueño, la salud o el ejercicio que contengan información identificadora”.
No solo Neuralink. Aunque esta nueva enmienda tiene un impacto importante para empresas especializadas en interfaces humano-máquina como Neuralink, va bastante más allá. Afectará, por ejemplo, a aquellas aplicaciones que usan información biométrica para detectar el estrés y ayudarnos a gestionarlo, por ejemplo. Esa información es personal y esta ley también lo contempla. A partir de ahora, los usuarios podrán limitar qué información neuronal se recoge, eliminarla de los servicios, requerirla, corregirla y solicitar a las empresas que no la vendan.
La ley, por cierto, no es pionera. En el Estado de Colorado también se aprobó una ley parecida hace apenas unos meses y la The Neurorights Foundation, un grupo que aboga y promueve la protección de la información neuronal, está trabajando con otros estados para lanzar leyes similares.
Y hablando de la Neuroright Foundation… El pasado mes de abril, esta fundación publicó los resultados de una investigación (PDF) de lo más interesante. Analizaron las políticas de 30 empresas neurotech con dispositivos a la venta centrándose en cinco aspectos: acceso a la información, recopilación y almacenamiento de datos, intercambio de datos, derechos de los usuarios y seguridad de los datos seguridad de los datos.
Las conclusiones fueron que la información que recibe el usuario es insuficiente, que tienen un “control significativo sobre la recopilación, el almacenamiento, la retención y la reutilización de los datos neuronales” y que al menos la mitad podían compartir la información con terceros. Según detalla el informe: “esto suscita serias preocupaciones dada la extrema sensibilidad de los datos neuronales, preocupaciones que no harán sino intensificarse en los próximos años a medida que aumente la capacidad de descodificación de los datos neuronales”.
A vueltas con el sistema nervioso periférico. La definición de “información neuronal” (PDF) que propone la enmienda es aquella que “se genera midiendo la actividad del sistema nervioso central o periférico de un consumidor, y que no se infiere de información no neuronal”. Para TechNet, una organización que agrupa a las empresas tecnológicas como Meta, Apple, Amazon, Antrhopic o Google, entre otras, esto es un error. TechNet se opuso a esta enmienda (PDF) argumentando que:
“[…] regular la actividad del SNP sería demasiado amplio y abarcaría casi cualquier tecnología que registre algo sobre el comportamiento humano, porque todo el comportamiento humano observable externamente es resultado de la actividad del SNP. Cada vez que hablamos, nos movemos o realizamos cualquier otra acción, el sistema nervioso central envía señales al SNP, que a su vez provoca la acción, por ejemplo, estimulando los músculos. Esto significa que cualquier medición del comportamiento humano observable externamente podría considerarse una «medición de la actividad» del SNP”.
Aunque el término “sistema nervioso periférico” se ha conservado, Jared Genser, consejero general de la Neurorights Foundation, ha explicado a The New York Times que el borrador final “estipulaba que la información inferida a través de datos no neuronales no estaría cubierta por la ley”. Es decir, que información como la frecuencia cardíaca o la glucosa, por ejemplo, quedaría fuera de la ley.
La neuroprivacidad. Aunque, en principio, todavía queda para que los dispositivos neuronales sean masivos, si es que algún día llegan a serlos, el debate sobre la neuroprivacidad lleva tiempo sobre la mesa. Cierto es que avances como Neuralink abren todo un abanico de posibilidades en lo relacionado con las dolencias y el deterioro del sistema nervioso. Es un fin loable, pero no podemos olvidar que hablamos de procesamiento de datos muy privados que pueden ser usados para otros fines.
Imagen | Anna Shvets
En Xataka | Larry Ellison cree que el "Gran Hermano" y la videovigilancia masiva con IA llegarán pronto. Y lo ve bien
Ver 3 comentarios