Swati Srivastava é um teórico político que, com o apoio de uma bolsa do NEH, está a explorar o papel da inteligência artificial nos sistemas políticos contemporâneos. Trata-se de um tema vasto e muitas vezes complicado, em parte porque o alcance da inteligência artificial, ou IA, é muito maior do que as pessoas imaginam.
A IA está profundamente enredada no nosso modo de vida. Molda o entretenimento a que estamos expostos, como namoramos e com quem, o aparelho de segurança que protege a nossa nação e o sistema financeiro que mantém a nossa economia a funcionar. Não podemos compreender o sistema americano atual sem refletir um pouco sobre ele.
Em vez de pedir a Srivastava que explicasse tudo sobre inteligência artificial, pedimos-lhe que definisse alguns dos termos-chave que aparecem no seu trabalho e no de outros pensadores políticos que escrevem sobre o assunto. O resultado é um léxico, um glossário de um punhado de termos para nos ajudar no nosso papel de cidadãos e humanistas que tentam compreender o admirável mundo novo em que vivemos.
Algoritmos:
Os algoritmos são as regras computacionais subjacentes a tecnologias como a navegação GPS, a pesquisa em linha e o streaming de conteúdos. Anteriormente, os algoritmos eram concebidos por programadores que definiam os seus conjuntos de regras. Atualmente, a aprendizagem automática também permite que os algoritmos, imersos em grandes conjuntos de dados, desenvolvam as suas próprias regras. A aprendizagem automática pode ser supervisionada por algoritmos de formação ou deixada sem supervisão para funcionar com menos pistas. Por exemplo, um algoritmo de deteção de caligrafia pode aprender ao ser treinado numa base de dados de imagens manuscritas pré-rotuladas ou através da imersão numa base de dados em que o algoritmo agrupa imagens com base na sua própria identificação de padrões.
Governação algorítmica:
As entidades governamentais e comerciais utilizam algoritmos de aprendizagem automática para modelar previsões de decisões quotidianas numa série de domínios relacionados com o crime, o crédito, a saúde, a publicidade, a imigração e o contraterrorismo. Por exemplo, os algoritmos de avaliação de risco visam correlacionar os atributos e as acções das pessoas - como a formação universitária, a utilização de determinadas frases em publicações nas redes sociais ou a composição das redes sociais - com classificações de maior ou menor risco. Os dados envolvidos são cada vez mais granulares. Um credor baseado numa aplicação móvel pode utilizar a carga da bateria do telemóvel de um candidato no momento da candidatura, para além do historial de pagamentos, para inferir a sua capacidade de crédito. Assim, a "governação algorítmica" refere-se à forma como os governos e as empresas confiam nos sistemas de IA para recolher e avaliar informações e tomar decisões. É importante notar que esta governação não se limita aos governos. Quando as seguradoras privadas de saúde utilizam algoritmos para fixar prémios com base em avaliações de risco, também elas participam na governação algorítmica. De forma ainda mais abrangente, a geógrafa crítica Louise Amoore escreve em Cloud Ethics que, à medida que os algoritmos se integram em infra-estruturas públicas e privadas, estabelecem "novos padrões de bom e mau, novos limiares de normalidade e anormalidade, em relação aos quais as acções são calibradas". Neste sentido, os algoritmos governam através da aplicação das suas próprias regras e definem para nós o que constitui uma passagem de fronteira ou um movimento social ou um protesto, fornecendo informações accionáveis que podem ser utilizadas para moldar realidades ainda em vias de se tornarem, tais como estrangular os transportes públicos para impedir que um protesto cresça.
Viés algorítmico:
Um campo emergente de "estudos críticos de algoritmos" nas ciências humanas está a considerar os danos sociais da governação algorítmica, especialmente no que diz respeito ao preconceito e à discriminação. Em Race After Technology, Ruha Benjamin, professora associada de estudos afro-americanos na Universidade de Princeton, identifica um "Novo Código Jim" através do qual os programadores "codificam juízos de valor em sistemas técnicos, mas afirmam que os resultados racistas das suas concepções são inteiramente exteriores ao processo de codificação". O livro de referência Algorithms of Oppression (Algoritmos da Opressão ), da professora da UCLA Safiya Noble, sublinhou que o Google apresentava mais resultados de imagens negativas, incluindo imagens pornográficas, para mulheres e raparigas negras do que para as brancas. Outros observam que os algoritmos da Google apresentam mais anúncios de empregos altamente remunerados a homens do que a mulheres e que os algoritmos do YouTube apresentam resultados problemáticos de preenchimento automático ou sistemas racistas de marcação de imagens.
Além do impacto discriminatório com base em categorias legalmente protegidas, como raça e gênero, Orla Lynskey, professora associada de direito na London School of Economics, alerta que o viés algorítmico pode levar a distinções que também prejudicam os sistemas contra grupos legalmente não protegidos, por exemplo, pessoas de status socioeconômico inferior. Apesar das preocupações com o viés algorítmico, em 2020, o Departamento de Habitação e Desenvolvimento Urbano dos EUA aprovou uma regra que isenta os réus da responsabilidade de discriminação habitacional ao usar algoritmos para tomar decisões habitacionais. (A regra permanece nos livros, mas não foi aplicada pela administração Biden).
Capitalismo de vigilância:
Os algoritmos também convertem a experiência individual em dados, a mercadoria global mais valiosa. Em The Age of Surveillance Capitalism, Shoshana Zuboff, professora emérita da Harvard Business School, argumenta que quando utilizamos um serviço como um motor de busca ou uma plataforma de redes sociais, este extrai dados pessoais para que mais das nossas experiências sejam seguidas e capturadas como "mais-valia" para melhores previsões sobre nós. Os algoritmos da Google foram os pioneiros do capitalismo de vigilância através da monetização de dados de pesquisa para publicidade direccionada.
Tal como o capitalismo industrial se baseia na utilização, se não mesmo na exploração, do trabalho para a acumulação de capital, o capital de vigilância está ligado ao "imperativo de extração" de dados (para citar novamente Zuboff) que explora a liberdade e a dignidade humanas para obter mais quantidades e qualidades de dados para alimentar a aprendizagem automática. O Google recebe 3,5 mil milhões de pesquisas diárias, o que significa que recolhe 3,5 mil milhões de pontos de dados diários. Mas a extração de dados da Google não se limita às pesquisas. No passado, a Google leu e-mails no Gmail e pirateou routers Wi-Fi através dos seus carros do Street View. Atualmente, a Google tem acesso a aplicações telefónicas no seu software operativo móvel Android e monitoriza constantemente o Google Home.
O Facebook seguiu o exemplo do Google. Atualmente, os algoritmos do Facebook geram mais de 6 milhões de previsões por segundo para 2,8 mil milhões de utilizadores. O seu rastreio estende-se mesmo àqueles que não têm uma conta no Facebook, utilizando os botões "gosto" e "partilhar" como rastreadores em mais de 10 milhões de sítios Web (incluindo mais de um terço dos 1.000 sítios Web mais visitados). O DeepFace do Facebook é um dos maiores conjuntos de dados faciais do mundo. Em 2018, o Facebook apresentou o Portal, um ecrã doméstico inteligente cuja câmara com IA segue automaticamente os utilizadores quando estes se deslocam numa divisão, enquanto o seu microfone está constantemente à escuta de uma "palavra de despertar" ("Olá, Portal"). O Facebook (tal como a Amazon e a Google) reconhece que analisa as gravações de áudio antes de a palavra de despertar ser activada para melhorar o serviço. Em The Four, o professor da Universidade de Nova Iorque Scott Galloway avisa que, através do rastreio constante em plataformas, sítios Web, telefones e casas, o Facebook "regista um retrato detalhado - e altamente preciso - dos nossos cliques, palavras, movimentos e redes de amigos", quer os utilizadores tenham ou não sessão iniciada.
Poluição da informação:
À medida que recorremos ao Google e ao Facebook para obter informações e ligações, eles recorrem a nós para criar conteúdos únicos gerados por algoritmos. Os algoritmos do Facebook seleccionam a visibilidade e a ordenação das informações no feed de notícias de um utilizador entre milhares de potenciais publicações. Os algoritmos do YouTube, propriedade da Google, seleccionam alguns vídeos recomendados de entre milhões. Esta curadoria de conteúdos é largamente orientada para captar a atenção dos utilizadores com "cliques" sem ter em conta a qualidade. Siva Vaidhyanathan, diretor do Centro para os Media e a Cidadania da Universidade da Virgínia, escreve em Antisocial Media que a "poluição da informação" consiste em privilegiar informações falsas ou enganosas, informações que suscitam emoções fortes e informações que contribuem para "câmaras de eco de crenças reforçadas", o que torna "mais difícil que diversos grupos de pessoas se reúnam para conduzir conversas calmas, informadas e produtivas". A poluição da informação é também utilizada pelos governos para fins de repressão. Com base nisso, a Amnistia Internacional divulgou um relatório em 2019 afirmando que o Google e o Facebook prejudicam os direitos humanos.
Opacidade algorítmica:
Embora os algoritmos tenham como objetivo governar-nos, a maioria de nós não compreende os algoritmos. Esta assimetria leva o académico sócio-jurídico Frank Pasquale a observar em The Black Box Society que "o mundo contemporâneo assemelha-se mais a um espelho de sentido único". Os algoritmos não supervisionados que operam em estruturas complexas de máquinas de aprendizagem profunda são especialmente opacos porque têm a capacidade de identificar padrões de uma forma que pode ultrapassar a cognição humana. Sem clareza sobre a forma como as máquinas não supervisionadas aprendem, é difícil avaliar a adequação das inferências algorítmicas.
Nos sistemas de IA supervisionados, já existem distinções entre "human-in-the-loop", com comando humano total, "human-on-the-loop", com possível controlo humano, e "human-out-of-the-loop", sem supervisão humana. À medida que as pessoas e as instituições se sentem cada vez mais à vontade para confiar em algoritmos não supervisionados, o próprio significado de comando e controlo humanos é posto em causa.
IA responsável:
Devido ao facto de os algoritmos serem tão influentes e tão opacos, cada vez mais observadores apelam a uma inteligência artificial responsável. O teórico político Colin Koopman avisa: "Nós, que nos equipamos com algoritmos, dispomo-nos a tornarmo-nos naquilo que os algoritmos dizem sobre nós". Os filósofos da IA Herman Cappelen e Josh Dever centram a responsabilidade como um desafio crítico: "Não queremos viver num mundo em que somos aprisionados por razões que não conseguimos compreender, sujeitos a condições médicas invasivas por razões que não conseguimos compreender, a quem casar e quando ter filhos por razões que não conseguimos compreender".
Em 2016, a Agência de Projectos de Investigação Avançada de Defesa dos EUA lançou um desafio de IA explicável, pedindo aos investigadores que desenvolvessem novos sistemas de IA que "terão a capacidade de explicar a sua lógica, caraterizar os seus pontos fortes e fracos e transmitir uma compreensão de como se comportarão no futuro". Na Europa, o Regulamento Geral de Proteção de Dados de 2018 identificou um "direito à explicação" para a tomada de decisões algorítmicas.
Os cientistas informáticos responderam aos reguladores e aos críticos desenvolvendo alguns métodos de visualização para perceber como os algoritmos de auto-aprendizagem obtêm os seus resultados. Outros concentraram-se em mais divulgações e auditorias. Em 2018, o antigo engenheiro e especialista em ética da Google, Timnit Gebru, juntamente com colaboradores, propôs "folhas de dados para conjuntos de dados", em que "cada conjunto de dados é acompanhado por uma folha de dados que documenta a sua motivação, composição, processo de recolha, utilizações recomendadas, etc.". Mas os teóricos dos estudos críticos de algoritmos contrapõem que a divulgação das regras de decisão ou do código-fonte não resolverá, por si só, a lacuna de conhecimento entre os criadores de algoritmos e o público.