Protección de datos
Una sociedad es más que la suma de sus individuos
Sea Facebook, Siri o Alexa, cuando se trata de tecnología artificial el debate público suele lamentar la falta de protección de la privacidad. Sin embargo, los sistemas inteligentes están menos interesados en los datos individuales que en la generalización y estandarización de los contextos de vida, que ellos mismos automatizan.
Zoom y Skype, las redes sociales, los relojes inteligentes pero también los celulares, los bancos o las aseguradoras utilizan sistemas algorítmicos complejos, que corrientemente también denominamos sistemas de “inteligencia artificial”. Para poder funcionar bien, esos sistemas recogen algunos datos de entre una cantidad mucho mayor: así funcionan, por ejemplo, proveedores como Spotify, el buscador de Google, Instagram, Siri o Alexa.
A partir de esos datos pueden sacarse determinadas conclusiones que, dado el caso, pueden ir mucho más allá del gusto musical o los hábitos de búsqueda. Por ejemplo, si alguien oye música que es popular en la comunidad LGTBQI+, ¿puede conjeturarse algo sobre su orientación sexual? ¿Y cuán segura es esa suposición? ¿Y qué sucede con el trasfondo cultural de la persona que oye black music, R&B o música en determinado idioma?
Muchos de los datos reunidos, que a primera vista parecen irrelevantes, pueden resultar sensibles en otro contexto, razón por la cual en la prensa y en el debate público ya se lamenta el fin de la esfera privada. Sin embargo, a menudo se olvida que estas infraestructuras no están interesadas en los datos de personas concretas, de individuos. Aunque recojan datos personales y los usen –por ejemplo cuando Spotify ofrece una selección musical hecha para una persona–, los datos concretos, personales, son irrelevantes para el sistema como un todo.
Un puré de datos matemáticos
El concepto de “Inteligencia Artificial” se refiere a sistemas socio-tecnológicos en los que resulta difícil separar lo humano de lo maquínico. Esto sistemas se basan en hipótesis, apoyadas en decisiones humanas, sobre el mundo y el hombre, sobre sus metas e intenciones. Lo mismo se aplica al procesamiento de datos necesario para generar hipótesis. Los datos sobre personas, así, se traducen a piezas de un rompecabezas de datos. Las fórmulas matemáticas que procesan los datos integran todo en un puré: los individuos se convierten en promedios y perfiles estadísticos, individuos-casilla finamente granulados, pero “genéricos”.
Para ilustrarlo con una imagen: el ojo fija la atención no en el árbol particular (el individuo) sino en el bosque (la sociedad) en cuanto tal. Pero la ambivalencia y la ambigüedad de la vida humana no pueden traducirse por completo en datos y algoritmos. De todos modos, esas infraestructuras no están hechas para esa tarea sino que más bien, como señala el jurista británico Michael Veale, están orientadas a configurar la vida de los hombres. Esos sistemas se aplican para automatizar ciertos procesos, lo que significa que para procesos en los que en modalidad manual había, si cabe, diferentes posibilidades y vías, ahora se establecen estándares que ya no permiten esa flexibilidad. Comenzando por la decisión de qué se convierte en dato y qué no: decidir, por ejemplo, qué vale como dato y en qué formato es decidir qué verá el sistema y qué no existirá para el sistema porque no será convertido en dato. Así, a través de los estándares, de los formatos de datos y las decisiones sobre la conversión en dato, etc. de los sistemas, se dicta de qué modo serán posibles el acceso, la participación y las interacciones dentro de un servicio.
Precisamente aquí se evidencia el problema fundamental de la regulación de estos sistemas: los derechos fundamentales son derechos individuales; toda la sistematización jurídica de los derechos fundamentales y las leyes sencillas, concretas, parten del individuo. Dicho de otro modo: en el caso de los derechos fundamentales, el sistema jurídico alemán sólo reconoce a los árboles, no al bosque. Con las herramientas jurídicas actuales se regula a las tecnologías como si el bosque pudiera ser controlado mediante normas para los árboles particulares.
Reconocer delitos en el enjambre
Un buen ejemplo de esta discordancia entre el sistema jurídico y los sistemas de IA que operan actualmente son los sistemas de policía predictiva. Estos identifican modelos de conducta para distintas categorías de crímenes, con el objetivo de impedir crímenes semejantes usando esa información. Como estas tecnologías responden a una infraestructura y en la protección de datos sólo se regulan derechos individuales, algunos de los programas utilizados en Alemania escapan a la regulación jurídica actual. En algunas partes de Alemania, por ejemplo, la policía regional usa el software Precobs, que predice dentro de un lapso de tiempo y parámetros geográficos determinados los robos cometidos con determinado modus operandi, usando datos anónimos sobre el tipo de crimen, sobre el desarrollo temporal así como datos geográficos. Las autoridades correspondientes encargadas de la protección de datos han permitido el uso del software ya que no se procesan datos vinculados a personas y así el software no cae en su incumbencia.
El software Precobs se usa, entre otros, en Baden-Württemberg y Nordrhein-Westfalen para prevenir los robos.
| Foto (detalle): © picture alliance / Zoonar / Robert Kneschke
Ahora bien, el sistema plantea algunos interrogantes: si en algunos barrios de la ciudad de pronto se observa mayor presencia policial, ¿los habitantes se sienten más seguros? ¿O eso lleva a un masivo desplazamiento de aquellos moradores que pueden costearse una casa en otro barrio? Estas cuestiones no se reflejan en el plano jurídico. Las investigaciones muestran que justamente la presencia de policías en los partidos de fútbol aumenta la disposición a la agresión de los hinchas violentos. Por eso se despliegan policías vestidos de civil.
La pregunta sobre el efecto social de programas como Precobs no se consideró en el plano político ni estaba prevista en el plano jurídico. En lo jurídico, la atención se fijó exclusivamente en determinar si con ese software se vulneraban o no derechos individuales (vinculados a la protección de datos). Así queda evidenciado que la estabilidad social de una ciudad entera no puede comprenderse solamente con herramientas de policía productiva por un lado y regulaciones individuales por otro. En consecuencias, se la pasa por alto de modo sistemático.
Considerar los valores sociales
Los sistemas sociotécnicos como la policía predictiva muestran que en una sociedad individualista la comunidad no se ve como un todo. Pero una sociedad es más que la suma de sus individuos y necesita no sólo derechos individuales, sino que más bien debe compensar estos con valores sociales. Eso es lo que debe tenerse en cuenta cada vez que se abordan los sistemas algorítmicos y lo que han descuidado las democracias. Es nuestra tarea para el futuro.