Proteção de dados  Uma sociedade é mais do que a soma de seus indivíduos

E se os apps se tornarem nossos novos arquitetos urbanos? Por que precisamos com urgência modificar a regulamentação dos aplicativos digitais.
E se os apps se tornarem nossos novos arquitetos urbanos? Por que precisamos com urgência modificar a regulamentação dos aplicativos digitais. Foto (detalhe): © picture alliance/Goldman

Não importa se o assunto é Facebook, Siri ou Alexa – quando se fala de tecnologia de inteligência artificial, surgem com frequência reclamações sobre uma proteção deficitária da privacidade. No entanto, os sistemas inteligentes estão menos interessados em dados individuais do que na padronização e generalização dos contextos de vidas que automatizam.

Zoom e Skype, redes sociais e relógios inteligentes – mas também smartphones, bancos e companhias de seguros – usam sistemas algorítmicos complexos que comumente chamamos de sistemas de “inteligência artificial”. Para que possam funcionar bem, alguns deles coletam realmente muitos dados – isso se aplica, por exemplo, a servidores como Spotify, às máquinas de busca do Google, ao Instagram, à Siri ou à Alexa.
 
A partir desses dados, é possível tirar determinadas conclusões que muitas vezes vão muito além das preferências musicais ou dos hábitos de pesquisa dos usuários. Por exemplo: Se uma pessoa ouve uma música que é popular na comunidade LGTBQI+, é possível fazer suposições sobre sua orientação sexual a partir disso? Quão certa é essa suposição? E o que dizer do histórico cultural de uma pessoa que ouve black music, R&B ou canções em uma determinada língua?
 
Muitos dos dados coletados que parecem irrelevantes à primeira vista podem se tornar sensíveis em um contexto particular – razão pela qual o fim da privacidade vem sendo lamentado pela mídia e pelo público em geral. No entanto, muitas vezes se esquece que essas infraestruturas em si geralmente não estão interessadas no indivíduo específico que está por trás dos dados. Mesmo quando reúnem e usam dados pessoais – por exemplo, quando o Spotify oferece uma seleção de músicas personalizadas a alguém –, os dados pessoais concretos são irrelevantes para o sistema como um todo.

caldo de dados MATEMáTICos

O conceito de “inteligência artificial” remete a sistemas sociotecnológicos nos quais é difícil distinguir o humano do mecânico. Esses sistemas se baseiam em suposições sobre o mundo e o ser humano, bem como sobre suas metas e propósitos,
 
desenvolvidas a partir de decisões tipicamente humanas. O mesmo pode-se dizer sobre o processamento necessário para tanto, em forma de dados. Ou seja, os dados sobre as pessoas são traduzidos em pecinhas de dados que funcionam como partes de um quebra-cabeça. As fórmulas matemáticas utilizadas para processar os dados são amalgamadas em um caldo – os indivíduos sendo transformados em médias e perfis estatísticos, pessoas finamente granulares mas “genéricas”, que cabem em gavetas.
Para ilustrar a questão através de uma imagem: a atenção não está em uma única árvore na floresta (o indivíduo), mas na própria floresta como um todo (a sociedade). A ambivalência e a ambiguidade da vida humana, por outro lado, não podem ser totalmente traduzidas em dados e algoritmos. Essas infraestruturas também não se voltam para isso – elas se dedicam muito mais a moldar a vida das pessoas, como observou Michael Veale, pesquisador britânico especializado em Direito. Esses sistemas são utilizados para automatizar determinados processos. Isso significa que, em processos nos quais uma abordagem manual permitiria possivelmente diversas possibilidades e caminhos, se estabelecem padrões que impedem qualquer flexibilidade. A começar pela decisão sobre o que vai ser transformado em dado e o que não vai: definir o que é considerado dado e em qual formato isso se dá é uma decisão sobre o que vai ser visto pelo sistema e aquilo que não existe no sistema, ou seja, aquilo que não foi transformado em dado. Através dos padrões, dos formatos de dados e das decisões sobre transformação em dados, define-se de que forma vão se dar o acesso, a participação e as interações dentro de uma prestação de serviço.

E é exatamente aí que fica evidente o problema básico da regulamentação desses sistemas: os direitos fundamentais e a proteção de dados são direitos individuais. Todo o sistema de direitos fundamentais e a lei simples concretizadora partem do indivíduo. Em outras palavras: no caso dos direitos fundamentais, o sistema legal alemão reconhece árvores, mas não uma floresta. As tecnologias são reguladas com os instrumentos legais atuais, como se fosse possível controlar a floresta através da regulação de cada árvore.

IDENTIFicaNDO CRIMES no ENXAME

Um bom exemplo dessa incongruência entre o sistema legal e os sistemas de inteligência artificial em operação são os sistemas de policiamento preditivo. Esses sistemas identificam padrões de comportamento para diferentes categorias de crime e, a partir dessas informações, tentam evitar delitos semelhantes. Como essas tecnologias correspondem a uma infraestrutura, enquanto apenas os direitos individuais são regulados pela proteção de dados, alguns dos programas utilizados na Alemanha escapam da regulamentação legal vigente.

O software Precobs é usado em estados como Baden-Württemberg e Renânia do Norte-Vestfália, com a intenção de prevenir arrombamentos.  O software Precobs é usado em estados como Baden-Württemberg e Renânia do Norte-Vestfália, com a intenção de prevenir arrombamentos.  | Foto (detalhe): © picture alliance / Zoonar / Robert Kneschke Nesse contexto, o sistema levanta algumas questões: quando, de repente, se faz notar uma presença policial mais intensa em determinados bairros, isso contribui para que a população se sinta mais segura? Ou isso leva, ao contrário, a um êxodo em massa de moradores, ou seja, de todos aqueles que podem pagar moradia em outra região da cidade? Essas questões não são definidas em termos legais. Pesquisas mostram que a presença de policiais em partidas de futebol aumenta a propensão dos hooligans à violência. Por isso, são destacados policiais com roupas civis nessas ocasiões.
 
O efeito social de programas como o Precobs não foi considerado em termos políticos, nem previsto juridicamente. Do ponto de vista legal, a atenção se voltou exclusivamente para a questão sobre se os direitos individuais estariam sendo violados pelo software ou não. Aqui se torna evidente que a estabilidade social de uma cidade inteira não pode ser mapeada antecipadamente por um lado com ferramentas de policiamento preditivo nem, em segundo lugar, com regulamentações individuais. Por isso ela é deixada com frequência de lado.

consideraNDO valores sociais

Sistemas sociotécnicos como o policiamento preditivo mostram como a comunidade não é vista como um todo em uma sociedade individualista. Uma sociedade é mais do que a soma de seus indivíduos. Ela precisa de algo além de meros direitos individuais – mais do que isso, ela precisa equilibrar esses direitos com valores sociais. Isso deve ser sempre levado em conta na consideração de sistemas algorítmicos. As democracias negligenciaram a abordagem desse ultimo aspecto. Esse é nosso dever de casa para o futuro.

Leia mais…

Failed to retrieve recommended articles. Please try again.