Imagem com fundo laranja e escritos "entrevista com Yasodara Córdova"

ESPECIAL | Yasodara Córdova: “Precisamos estabelecer instituições democráticas que possam permitir ao cidadão se organizar e reclamar desses algoritmos”

Notícias Privacidade e Vigilância 14.10.2020 por Enrico Roberto

Esta é a primeira da série de entrevistas sobre inteligência artificial, algoritmos e plataformas de internet, que compõem o nosso Especial Inteligência Artificial. A entrevista, realizada em 2020, faz parte de uma série realizada por alunos integrantes do Núcleo de Direito, Internet e Sociedade (NDIS). O NDIS é atividade de cultura e extensão da da Faculdade de Direito da USP (FDUSP) oferecida em parceria com o InternetLab desde 2015.

Yasodara Córdova é mason fellow na Ford Foundation, no Ash Center for Democratic Governance and Innovation, e já foi fellow no Berkman Klein Center e na Digital Kennedy School, da Universidade de Harvard.

Nesta entrevista, ela discutiu os impactos negativos e positivos da inteligência artificial na democracia, a importância de instituições para quem os usuários da IA possam se voltar, e a substituição de humanos pela IA

Imagem com fundo laranja e escritos "entrevista com Yasodara Córdova"

A gente já tinha certas dinâmicas onde quem tinha mais poderio econômico era favorecido pelo sistema democrático. (…) Esse ecossistema, que beneficiava uma rede, foi ampliado e acabou caindo “nas graças” de outras redes de acordo com uma dinâmica antiga. Eu acho que o nosso sistema democrático ganhou escala, embora não tenha se ampliado da maneira que a gente gostaria.

Confira a entrevista com Yasodara Córdova na íntegra

A atuação da Cambridge Analytica na eleição americana, assim como a circulação de conteúdos falsos (“fake news”) durante a eleição presidencial brasileira de 2018, foram episódios que ganharam grande destaque mundialmente, em que o uso de IA fortaleceu a direita extremista e comprometeu processos democráticos. Na sua opinião, quais são os obstáculos a serem superados para que a democracia esteja preparada para o uso dessa tecnologia sem que haja seu comprometimento como nos casos citados?

Não gosto de fazer o framing com a certeza de que a Cambridge Analytica afetou realmente o processo democrático. Essa seria uma maneira de ignorar o que especialistas em ecossistemas, especialistas em política e até antropólogos têm falado sobre o momento sociológico atual, mais do que uma oportunidade tecnológica. Esses outliers, o Trump, o Bolsonaro, se aproveitaram do momento social que estava sendo vivido nas sociedades… Então, a gente pode ter o problema do ovo ou da galinha, né? As pessoas acreditaram nas fake news porque se usou os dados ou se usou os dados porque as pessoas estavam mais suscetíveis a acreditar em fake news por conta do momento histórico? Sabemos, por exemplo, que quando a gente estuda computação e comportamento, a influência da computação no comportamento de compra tem um limite. Se você for analisar do ponto de vista desse tipo de pesquisa as eleições nesses países, você vai ver que a influência tem um limite. É claro que são pesquisas diferentes com objetivos diferentes; a democracia não é um processo de compra. Já o processo de, por exemplo, clicar numa fake news, é parecido com o processo de compra. Esses métodos também foram utilizados durante a eleição do Obama; ele fez uma campanha digital bem grande, foi pioneiro nisso e realmente funcionou. Não o método de fake news, mas o método de coletar dados e fazer profiling de mensagens, isso foi utilizado pelo Obama. A gente pode estar falando que afetou os processos democráticos negativamente, que interrompeu esses processos, mas a gente também pode estar falando de uma modificação nos processos democráticos, né? Como o processo democrático ocorre quando você tem a sua disposição ferramentas de coletas de dados em massa? Acho que essa é uma pergunta. Como ele aconteceu e como a gente quer que ele aconteça?

Você concorda que a Inteligência Artificial pode trazer benefícios à democracia? De que forma essa mudança no processo democrático pode ser benéfica para nós?

O processo democrático, em si, tem seus defeitos em vários países. Esses defeitos vão desde acesso à votação até campanhas multimilionárias, que fazem uso da influência econômica com muito mais força do que, por exemplo, a gente viu em alguns países com o caso das fake news. No Brasil, sempre teve esse problema, de campanhas que eram muito caras e, por causa disso, esses candidatos tinham chance de aparecer mais na TV, de aparecer mais no rádio, de jogar mais santinho na rua e, quando isso era permitido, até de pagar mais as pessoas em troca de algum comportamento. É o caso da troca de voto por dentadura, famosa compra de voto, que até um tempo era legal ou um limbo no Brasil. Então, eu diria que a democracia tem muito a melhorar, para abarcar mais pessoas e para a gente evitar esse tipo de bias. A gente ainda é muito enviesado nos processos eleitorais. O processo eleitoral, na minha opinião, favorece um grupo só, então ele não é democrático. Especialmente no Brasil, a gente elege um presidente que tem uma influência muito grande sobre os Estados e Municípios. Depois todas essas eleições locais acabam se tornando decorrência da eleição para presidente, por causa do poderio político que ele tem, do poder de barganha que ele acaba tendo em termos de emendas e outros mecanismos que dão muito poder para o presidente em termos de orçamento. Então ele acaba conseguindo eleger localmente muito prefeito, muito governador e isso é problemático, essa divisão falha do poder, né? Então, eu acho que a tecnologia pode ajudar a gente a consertar esses desvios que acontecem dentro das regras democráticas. A gente tem poucos mecanismos de accountability desses processos e a gente pode usar a tecnologia para ampliar esses mecanismos. A gente também pode usar a tecnologia para combater o privilégio de determinadas redes que têm mais poderio econômico. Então acho que a gente precisa fazer mais uso de tecnologia com esses objetivos e menos com outros objetivos…

Existem alguns algoritmos cuja arquitetura dos processos internos está envolta em sigilo, alguns até com opacidade por natureza, de forma que eles se tornam praticamente inescrutáveis aos usuários. Como fiscalizar algo cujo funcionamento não é tão transparente ao público?

É muito interessante, porque precisamos estabelecer instituições democráticas que possam permitir ao cidadão se organizar e reclamar desses algoritmos, né? Então, por exemplo, a gente tem a Anvisa no Brasil, a Anatel… A gente precisa criar uma instituição para a qual as pessoas possam se virar e reclamar. Isso vai levar tempo ainda, não só no Brasil, mas por exemplo, aqui nos Estados Unidos, está tendo lockdown e as pessoas estão fazendo compras por aplicativos. A Amazon coloca todo mundo numa fila e essa fila obviamente é organizada por um algoritmo. Ninguém sabe quais são os critérios da Amazon para organizar as pessoas nas filas. Pode ser que uma pessoa que seja Prime aguarde menos tempo do que uma pessoa que não seja Prime, isso é regra de negócio. Aí cabe a gente questionar se numa pandemia esses deveriam ser os critérios, né? Se deveriam continuar sendo os critérios da Amazon para delivery ou se a gente coloca outros critérios mais humanitários. Por exemplo, o velhinho que mora sozinho, será que ele não teria prioridade na fila de delivery num momento como esse? Será que mães com muitas crianças não teriam prioridade nesses tempos? Então são essas as perguntas que as pessoas vão começar a se fazer a partir do uso massivo dos aplicativos, e elas precisam ter um lugar para correr para poder reclamar. Vamos ter que criar instituições, mecanismos, que ainda não foram criados porque ainda não temos uma utilização tão massiva assim. A partir do momento em que as pessoas começarem a ver que estão sendo prejudicadas, natural que a gente tenha reclamação, gente que não concorda com a maneira que está sendo discriminada e que vai reclamar. Então a gente precisa ter instituições prontas para abraçar essas reclamações, vamos dizer assim.

Ainda sobre os algoritmos, recentemente o The New York Times publicou, com base numa pesquisa da qual você fez parte, um artigo mostrando como o YouTube fortaleceu, através da ferramenta de recomendação, grupos de extrema direita e radicalizando o Brasil, favorecendo a vitória do Jair Bolsonaro. Ao mesmo tempo, essa lógica de funcionamento é utilizada por várias plataformas com o objetivo de garantir uma “melhor experiência” do usuário e um aumento massivo de usuários, bem na lógica da personalização. Você acha que essa lógica da personalização necessariamente leva à polarização dos usuários.

Não. Então, o YouTube, no caso, que foi muito interessante, acabou favorecendo a extrema direita porque a extrema direita sabe usar o YouTube. O que aconteceu foi que eles usaram várias táticas, que todo mundo tinha acesso. Vale lembrar que essas táticas são abertas e todo mundo tem acesso; a esquerda também tinha acesso. Essas táticas eram táticas de treinar o algoritmo para que o algoritmo mostrasse mais resultados e mais recomendações que fossem dos conteúdos de direita. Então, essas táticas consistiam em criar vídeos super sensacionalistas e eles não se restringem só ao campo da política. Se você fosse no YouTube na época, você ia ver que esses algoritmos favoreciam conteúdos sensacionais, né? Como “Ah, veja aqui a cobra que engoliu dois carros”, né? Esse vídeo tinha uma alta incidência de views e o que a direita fez foi aprender a usar esses views, essas técnicas, e aplica-las durante o período de eleições. Você tem muito esse resultado porque os grupos que fizeram o uso desse tipo de tática eram grupos muito jovens, formados por homens, que geralmente têm acesso ao computador muito jovens e que têm tempo para ficar aprendendo como você lida com a internet. Então foi também esse problema, que é um problema que tem fundo em questões de gênero, em questão de acesso, né? São, a maioria, homens da elite branca de determinada idade. A gente tem um ecossistema que trabalhou, sim, para favorecer esses grupos porque esses grupos já eram favorecidos sistematicamente, na minha opinião. Mas isso não tira, óbvio, a responsabilidade do YouTube, que deixou isso passar despercebido.

De que forma, na sua opinião, os incentivos econômicos ou outras características dessas plataformas (como procurar aumentar o tempo que os usuários gastam nelas), influenciam no acesso à informação, no debate público e no nosso processo democrático atual?

Bom, eu acho que eles influenciam totalmente. A gente faz o debate público em plataformas que foram criadas para vender coisas. Nada mais natural que a gente adote as mesmas dinâmicas de compra e venda de coisas online. A gente basicamente passou um período escolhendo político como se estivesse escolhendo sapato. [Sobre o processo democrático], eu acho que isso automatizou dinâmicas. Como eu falei antes, a gente já tinha certas dinâmicas onde quem tinha mais poderio econômico era favorecido pelo sistema democrático, especialmente os mecanismos de eleição, né? A gente tem aí os ministros do STF que são só indicados pelo presidente; a sabatina é feita pelo Senado, que é um ambiente extremamente enviesado e pouco transparente, a maioria da população não entende por que aquelas pessoas estão lá, por exemplo. Esse ecossistema que beneficiava uma rede, vamos dizer assim, foi ampliado e acabou caindo “nas graças” de outras redes de acordo com uma dinâmica antiga. Então, eu acho que o nosso sistema democrático ganhou escala, embora não tenha se ampliado da maneira que a gente gostaria.

Há algoritmos nas plataformas que fazem parte da vida diária das pessoas, mas que a maior parte da população não faz ideia da existência ou do grau de interferência nos diversos aspectos da sua vida e de suas escolhas. Você acha que isso influencia a capacidade das pessoas de tomarem decisões conscientes? Você acha que é possível para os usuários mitigar os efeitos dessa utilização dos algoritmos?

Olha, isso influencia, sim. É o mesmo mecanismo do jabá, com vários adicionais tecnológicos. No jabá as pessoas passam a ouvir a música e acham que elas estão tendo acesso àquilo de uma forma não enviesada. Então você passa a ouvir muito de um cantor, de repente começa até a gostar daquele cantor e você acha que tudo bem, que você escolheu. Mas, na verdade, você foi condicionado àquilo pelo jabá. Agora imagina isso numa escala muito mais potente, numa segmentação muito mais afiada. É isso que a gente tem quando a gente aplica algoritmos a qualquer tipo de processo que premedite uma escolha. Então, se você olhar por esse lado, ainda tem muita coisa para fazer, muita coisa para consertar, vamos dizer assim. [Sobre a possibilidade de mitigar esses efeitos], depende da rede, da interface da rede. Por exemplo, no começo do Facebook era só “curti e não curti”, era um negócio meio romano, era sim ou não. Depois, eles implementaram um monte de outras reações, mas, quando era sim e não, claramente tinha uma polarização pré-determinada: ou você gosta ou você não gosta. Não tinha um meio termo. Então, esse condicionamento que se dá pela interface é importante; a gente tem uma diversidade muito maior de reações e debates no Whatsapp, que não tem esse tipo de condicionamento prévio pela interface, do que, por exemplo, no Facebook. As discussões são condicionadas também pelo tipo de meio onde elas acontecem, por onde a mensagem é transmitida.

Um dos seus projetos foi a programação de uma inteligência artificial apelidada de Rosie. Ela foi treinada para analisar e identificar os dados suspeitos de deputados federais no exercício de suas funções através da análise de dados abertos. A Rosie identificou várias irregularidades, uso indevido de dinheiro público e orçamentos muito acima de seu valor real. Você pode contar um pouco sobre a ideia da Rosie, como ela surgiu e como seria possível. no futuro, para que os governos e os próprios Estados adotassem uma ferramenta semelhante de forma a coibir o uso indevido do dinheiro público?

Olha, a ideia da Rosie surgiu, segundo os fundadores, de uma vontade de analisar a quantidade de dados que estava aberto e que ninguém estava usando para nada que fosse útil na sociedade. Eles tiveram essa ideia e resolveram analisar os dados para ver se eles criavam algo que pudesse ser útil baseado nesses dados: essa é a origem da ideia da Rosie. E o que falta para os estados e municípios adotarem a Rosie, vamos dizer assim, ou um mecanismo parecido com a Rosie, é capacitação técnica com servidor e dados abertos, estados e municípios cumprirem a lei de dados abertos, porque sem dado não dá para fazer a Rosie.

A fim de aumentar a eficiência, os governos têm adotado cada vez mais tecnologias com IA de modo a automatizar determinadas atividades do setor público, transferindo até em alguns casos a tomada de decisão dos agentes públicos para sistemas algorítmicos. Só que nem sempre tais sistemas têm um nível de transparência adequado para a sociedade democrática que a gente tem hoje. No âmbito da administração pública, como realizar um controle mais efetivo desse sistema?

A administração pública precisa abrir os dados, para começar, e também precisa estabelecer novas instituições, dando espaço para que a sociedade civil possa intervir nesses processos e descobrir o que está sendo feito. E tem que dar transparência aos contratos com o poder público.

Já se ouve especulações sobre o fim das carreiras jurídicas, como a de juízes, de advogados e até pensando, mais longinquamente, em um Estado governado por IA. Como você enxerga todas essas suposições?

Eu acho que a gente sempre vai precisar de pessoas. Infelizmente em alguns casos, e felizmente em outros, a gente vai precisar sempre de pessoas. Então o que vai acontecer, até porque a inteligência artificial que a gente tem hoje não chega ainda a nossa capacidade humana, é que sempre vai ter o ser humano ajudado por uma IA, e nunca a IA sozinha, eu entendo.

Então esse medo que a sociedade tem muito da IA é uma coisa muito remota, uma fantasia?

É uma fantasia que se tem, como o negócio dos carros, self driving cars, que dirigem sozinhos… A gente entendeu primeiro que, para um carro aprender a dirigir numa estrada de modo autônomo, com a inteligência baseada em dados, ele precisa ter os dados da estrada. Se ele tiver os dados exatos daquela estrada, ele consegue dirigir direitinho naquela estrada. E ele também precisa de bastante dados sobre o trânsito; todas as possibilidades têm que ser mapeadas para que essa inteligência seja cem por cento segura. E a infraestrutura das nossas estradas é bem caótica. Pode ser que algum dia ela se ajeite direitinho, alguém crie uma maneira de fazer estradas inteligentes que se auto conectem de modo muito rápido aos carros. Mas ali nessa história dos carros autônomos a gente aprendeu que o carro é uma consequência de uma infraestrutura e essa infraestrutura precisa ser levada em conta na hora que você imagina o carro autônomo. Então é um caso muito interessante de um tipo de cliente bem específico que são países em que as estradas são bem mapeadas, onde as regras de trânsito são muito bem obedecidas, mas aí, por exemplo, um tipo de tecnologia que não atenderia em certas cidades do mundo, onde você tem um trânsito bem caótico e que dificilmente uma inteligência artificial conseguiria não ser só mais um ponto maluco no meio da confusão. Então, esses são alguns dos fetiches que eu conheço. A própria Rosie, se não tiver um analista fazendo um double check de cada caso, não é uma ferramenta matadora. Ela precisa que sejam verificados os casos, até porque você tem que realizar um reembolso, então muitas vezes ocorreu um erro na nota, ocorreu um erro de lançamento, alguém digitou um CPF errado. Pode acontecer, então é sempre necessário que o ser humano esteja fazendo o controle disso para que a gente não cometa injustiças.

***

Entrevistadoras: Isabela Carvalho Régis, Nathalia Lessa e Priscila Resende.

Edição: Enrico Roberto

compartilhe