Imagem com escritos "entrevista com Ronan Damasco"

ESPECIAL | Ronan Damasco: “A tecnologia deve ampliar a engenhosidade e o potencial humano, e não ser danosa e prejudicial a ele”

Especial Privacidade e Vigilância 28.10.2020 por Enrico Roberto

Esta é a quinta da série de entrevistas sobre inteligência artificial, algoritmos e plataformas de internet, que compõem o nosso Especial Inteligência Artificial. A entrevista, realizada em 2020, faz parte de uma série realizada por alunos integrantes do Núcleo de Direito, Internet e Sociedade (NDIS). O NDIS é atividade de cultura e extensão da da Faculdade de Direito da USP (FDUSP) oferecida em parceria com o InternetLab desde 2015.

Ronan Damasco é National Technology Officer da Microsoft Brasil.

Nesta entrevista, ele discutiu a posição da Microsoft sobre o uso e regulação da inteligência artificial, princípios da empresa para garantir transparência, responsabilidade e privacidade em seus sistemas e o impacto da IA no mercado de trabalho.

O uso responsável e ético, principalmente da inteligência artificial, deve se dar através da regulação interna. E, externamente, os países têm de se preocupar com sua legislação, para que a tecnologia seja utilizada para benefício do cidadão, e não contrário a ele; para que ela possa ser usada, como a Microsoft prega, para ampliar a engenhosidade e o potencial humano, e não ser uma coisa danosa e prejudicial ao ser humano.

Confira a entrevista com Ronan Damasco na íntegra

Poderia nos contar um pouco sobre como a Microsoft vê e utiliza a Inteligência Artificial? Quais são alguns produtos e preocupações que vocês têm nessa área?

No âmbito da tecnologia, a gente vê que a inteligência artificial tem um papel de destaque; até o presidente da Microsoft, o nosso CEO, tem uma frase sobre a inteligência artificial: “A IA não é só uma tecnologia, ela é a tecnologia mais fundamental que a espécie humana já criou”. Realmente, essa questão de inteligência artificial tem sido bastante discutida. Em todos os impactos [da Inteligência Artificial] você tem sempre uma questão mais ou menos comum. Por exemplo, o impacto da inteligência artificial na saúde. Cito dois casos que a gente fez já há algum tempo. O primeiro foi o uso de visão computacional no Hospital 9 de Julho: utilizamos pra reduzir o número de quedas de leitos na UTI. Nos hospitais, isso é talvez um dos problemas mais críticos, porque os doentes de UTI acham que estão bem, tentando levantar pra fazer alguma coisa, ir ao banheiro e caem. Isso vem a ser um dos problemas maiores das UTIs dos nossos hospitais. Nós fizemos um projeto lá, treinamos as nossas câmeras com visão computacional, e elas notificam a equipe de enfermagem quando um paciente faz algum movimento que mostre que vai levantar, ou então quando a cama está com a grade abaixada. Esse é um exemplo. O outro foi com a Oncoclínicas, que a gente fez na área de tumores cancerígenos. Um cirurgião, na hora que vai fazer uma operação, precisa de um radiologista, que marca nas imagens o tumor, para que o cirurgião possa remover com precisão aquele tumor. Isso leva muitas horas. A gente fez um programa, também com visão computacional, que marca, num tempo muito reduzido, às vezes menos de uma hora, o tumor. Nos dois casos, você viu um benefício muito grande que a inteligência artificial trouxe: você evita pessoas caírem do leito da UTI, o que poderia estar colocando em risco de vida o paciente. Então por que discutir e criar polêmica? Porque justamente o aspecto que é o pano de fundo desses dois casos é a questão do emprego. Com as máquinas fazendo coisas tão formidáveis hoje em dia, como é que a gente vai ficar? No fundo eu acho que a grande preocupação é essa. Tem uma questão ética que a gente vai discutir depois, mas a questão principal é isso. Hoje em dia a IA é quase onipresente, pervasiva. Muito difícil você pegar um aplicativo no seu telefone que não esteja usando IA. A IA pode criar padrões de consumo, monitorar o que você faz, como você compra, os tipos de aplicação que você usa mais… Muitas vezes a gente é notificado por esses assistentes, na hora do almoço dizendo ” se você sair pra almoçar agora, no mesmo lugar de ontem, você vai gastar tanto tempo”. Então você vê que você está sendo monitorado. A gente tem diversos cenários, porque a IA foi evoluindo bastante ao longo do tempo. Antes era uma questão só de percepção, onde você tinha os computadores “vendo e ouvindo”, vamos dizer assim, e hoje estamos no nível de cognição; os computadores interpretam. Se você diz “olha, se eu sair agora, que horas vou chegar lá? Como é que tá o tempo?”, [o computador] interpreta o que você está falando e entendemos que o computador começa a entender o que ele está vendo. Se um objeto está em cima da mesa, se está ao lado, começamos a ter isso por meio de tecnologias como deep learning. A IA já atingiu os patamares da habilidade humana há algum tempo. Alcançamos paridade com o ser humano em distinção de padrões, de pessoas, em 2016, e em reconhecimento de fala, em 2017, em tradução em 2018, e em leitura também. A gente vê uma evolução das máquinas quase sempre apoiada em tecnologias de IA que equiparam ao ser humano e fazem algumas coisas até melhor. E aí temos alguns cenários de tomada de decisão: na visão computacional, você tem esse exemplo que eu comentei da radiologia, e você tem também o carro autônomo, em que o carro toma uma decisão “paro, acelero, vou ou não vou?” Você tem questões de análise de fala; alguns robôs de call center já conseguem analisar até sentimento pelo seu tom de voz. Isso é uma coisa muito comum. Já temos traduções simultâneas no Skype, por exemplo, que mudam de idioma; fazemos isso com ferramentas que estão disponíveis na internet.

E você tem questões de aprendizagem, onde a máquina, por exemplo, auxilia magistrados a tomarem decisões. Principalmente lá nos Estados Unidos, por exemplo, são muito comuns nas audiências soluções que dão uma recomendação sobre se se deve deixar aquela pessoa, infrator, solto ou preso, com base em aprendizagem. Temos um exemplo até aqui no Brasil, de um assistente que um parceiro nosso chamado fez para um advogado, que dialoga com o assistente, falando “o que tenho hoje à tarde?” e aí ele fala “você tem uma audiência de conciliação no Fórum de São Paulo, às 16 horas”, qual o juiz, qual é o caso, qual é a média de restituições para um caso desses, além de falar, no final, uma recomendação como tentar um acordo. A gente já vê várias atuações de inteligência artificial, vários cenários em que as pessoas muitas vezes nem se dão conta. Muita gente pensa que IA é para alguns casos muito sofisticados, mas é como te disse: hoje em dia é muito mais difícil encontrar um aplicativo que não use inteligência artificial do que um que use. Dito isso, a gente fica preocupado. Primeira questão é a questão do mercado de trabalho. Hoje temos quase que um consenso, apesar de que fazer previsões não é uma ciência exata, né? Mas já temos quase um consenso de que quase metade dos empregos tende a desaparecer por causa de automação, no futuro. E vemos essa questão da IA como a principal tecnologia quando se fala que 40% dos empregos vão desaparecer. Em 2018, também já aconteceu um fato interessante no mercado de trabalho americano: tinha mais vaga aberta do que desemprego. Isso mostra justamente essa inadequação do mercado de trabalho para as novas oportunidades que estão sendo criadas. Isso começa a preocupar. Você vê que mais da metade dos empregos dos Estados Unidos são motoristas de alguma coisa – de empilhadeira, de trator, de ônibus – e se a gente ficar falando de carro autônomo, realmente começa a se criar uma preocupação com relação ao mercado de trabalho. Essa que eu acho que é a grande discussão, e vocês vão achar materiais discutindo isso, a questão de formação da nova mão-de-obra, para diminuir esse gap de conhecimento, para preparar a mão-de-obra do futuro, que certamente já vai ter que conhecer muito a tecnologia. Você vê algumas habilidades que no passado não estavam ali entre as mais procuradas pelos empregadores. A gente fica até feliz sendo da Microsoft, mas, por exemplo, hoje, quando você pesquisa entre os empregadores, mostram que saber usar o Office, por exemplo, é uma das três habilidades requeridas na maioria das vagas de emprego. É uma coisa que começa a mostrar que a tecnologia realmente tem um papel importante, não é? Com relação ao mercado de trabalho propriamente dito, a gente, na Microsoft, e eu compartilho dessa opinião também, tem uma visão bastante otimista, de que a IA, desde que usada de uma forma adequada, com uso responsável e ético, vem para nos beneficiar. E você pode ver esse movimento ao longo da história também. Se você for ver uma fábrica de carros nos anos 1930, quando começou a fabricação em série, você vai ver pessoas na linha de montagem. Hoje, se você olhar uma fotografia de uma fábrica, você só vê robôs. Então esse processo já vem acontecendo há algum tempo. Quando eu era adolescente, a datilografia era um requisito obrigatório, mais do que saber falar inglês. Você estava ali no segundo grau e ia fazer um curso de datilografia. Hoje, nem existe mais isso, não existe mais essa denominação. Eu acho que muita gente nem deve ter visto uma máquina de escrever? Algumas profissões como telefonista, ascensorista – de elevador -, elas desapareceram. Esse movimento eu acho que prossegue. E, ao mesmo tempo, algumas profissões que não existiam no passado hoje existem. No campo, por exemplo, você vai encontrar um operador de drone ao lado de um motorista de trator, que era uma coisa impensável alguns anos atrás. Você tem, hoje, profissões de cientista de dados, criador de conteúdo de mídia social, gestor de mídia social, gerente de sustentabilidade, especialista em nuvem… Se você falasse isso 5 anos atrás, 10 anos atrás, um especialista em nuvem era um meteorologista, né? É lógico que a gente tem que tomar um grande cuidado quando fala isso, porque aquelas camadas menos privilegiadas, mais vulneráveis, vão ter mais dificuldade em se adequar a essa nova realidade. Para a gente que é uma minoria no Brasil, e que a gente pode até chamar de privilegiado, e fala inglês, e tem facilidade em aprender, tem aquelas habilidades socioemocionais que permitem a gente aprender rápido uma nova coisa, uma nova tecnologia, a gente só tem que fazer um re-skilling, um posicionamento e aprender coisas novas. Mas a população mais vulnerável vai ter uma grande dificuldade de se adaptar. Então a gente tem que pensar em questões de aprendizado de outro idioma, de entender conceitos de tecnologia da informação… Realmente aí a gente começa a ver questões que nos preocupam com relação à legislação, ao uso correto dessa tecnologia. E antes de entrar nesse ponto, eu lembro também que alguns trabalhos não vão ser substituídos, não é? De alguma maneira, não vão. Por exemplo, uma enfermeira, um assistente social, um professor, um terapeuta. Ainda tem esse aspecto. Bom, eu poderia aqui ficar falando para vocês de maravilhas do uso da tecnologia, de usar a inteligência artificial em vários projetos em que a Microsoft vem apoiando o governo Federal, como o projeto Criança Feliz, por exemplo, que é para a primeira infância. A gente vê que realmente o potencial de gerar benefício para a humanidade é muito grande. Mas, considerando essa discussão, essa polêmica do “que vai ser da gente?” temos que considerar com bastante cuidado. Primeiro, como que a Microsoft se posiciona nisso tudo: primeiro a gente tem uma visão muito otimista que, como eu disse, do nosso CEO, do Satya Nadella, que essa é a tecnologia mais importante que a humanidade já criou, provavelmente. Então a gente não vai jogar fora um instrumento tão poderoso como esse. E, para isso, a Microsoft tem duas perspectivas interessantes: primeiro, a gente quer democratizar o uso de IA, ou seja, fazer com que todo mundo possa usar essa tecnologia, para que você não concentre os benefícios dessas ferramentas só em alguns grupos, algumas pessoas. Para democratizar uma tecnologia, ela tem que ser fácil de usar, para que todo mundo use e se beneficie. E o outro é o uso responsável e ético dessa tecnologia. A Microsoft acha que a inteligência artificial não deve prejudicar, substituir o ser humano, aumentar ou criar preconceitos, esse tipo de aspecto, mas que ela deve ampliar a engenhosidade humana. Então você vai auxiliar o ser humano a ser ainda melhor. Essa é a nossa visão. E aí tem o que a gente chama de “IA confiável”, que são seis princípios que usamos para a questão da inteligência artificial. Na base, uma questão de responsabilidade e transparência. E isso é muito importante hoje, porque quando você faz um algoritmo, você tem que deixar isso de maneira transparente; quais foram os princípios que foram usados nesse algoritmo? Se eu vou fazer um algoritmo, se foi feito só de pessoas do mesmo gênero, da mesma raça, você já tem ali uma tendência, uma abordagem tendenciosa de não ter considerado a questão da inclusão. Então, esses dois são a base. Depois há a questão da justiça; a IA deve ser feita para ser justa e não aumentar a injustiça; a questão da confiabilidade, da segurança, da privacidade, que a Microsoft considera um direito humano, e aí a questão da inclusão. Isso, na Microsoft, é tudo auditado por um comitê. A gente tem um Comitê de Ética que avalia todos os nossos produtos, principalmente se relacionados com IA, todas as documentações, para ver se esse produto, esse documento, está de acordo com esses seis princípios que falei. E muito forte também a questão da inclusão. Hoje, nós temos no mundo um bilhão de pessoas com problemas de acessibilidade, que podem ser permanentes ou temporários, mas nos preocupamos também com a inclusão dessas pessoas.  E temos também os princípios que usamos, que até o próprio Satya Nadella colocou em nossos blogs, com relação às regras que a nossa engenharia segue para fazer um projeto de inteligência artificial. Que são: projetar para auxiliar o ser humano, aumentar a nossa eficiência e engenhosidade sem afetar a dignidade das pessoas, levar a sério a questão da transparência: ser transparente, responsável, e de uma maneira que se possa desfazer qualquer dano involuntário… A gente conhece casos de bots em que as pessoas ensinaram os bots a falar palavrão, ter preconceito…

Poderia comentar o caso da Tay, que foi o caso do bot da Microsoft no Twitter onde os próprios usuários ensinaram, digamos, coisas politicamente incorretas, ao bot?

Exato. Então, inteligência artificial, ela tem esse aspecto. Quando você fala da computação tradicional, você tem lá 1+1 = 2, vai ser sempre igual a 2. Então, o algoritmo vai dar sempre o mesmo resultado quando você conhece as entradas. Com a inteligência artificial e principalmente o machine learning, onde você vai aprendendo como esse caso do bot que você citou; os resultados nem sempre vão ser os mesmos. Então, com a mesma entrada, a mesma pergunta, para um bot, você pode ter respostas que vão variando à medida que o sistema vai sendo ensinado, vai aprendendo. E ainda sobre os nossos princípios, realmente, temos que ter a questão da responsabilidade e uma maneira de desfazer esses danos involuntários. Desaprender – vamos dizer assim – o que não devia ter sido aprendido. Essa questão de programação de IA envolve uma questão que para vocês, da área de Humanas e do Direito, é uma questão mais próxima, que é a questão da ética. As pessoas, normalmente, das áreas de computação, de engenharia, não aprendem isso. E você começa a ter que lidar com esse tipo de situação. Então, por exemplo, se um carro autônomo está dirigindo em uma avenida e uma criança passa na frente correndo atrás de uma bola, e do lado tem um abismo, qual a decisão que o carro toma? Ele vai proteger o motorista e atropelar a criança ou ele vai se jogar no abismo para salvar a criança? Isso é uma decisão que tem que ser tomada. E por uma máquina. Quem é a máquina? A máquina é um programador que deu o input inicial para esse algoritmo.

E é uma decisão que é difícil até para as pessoas.

Exato. Então, quem vai tomar essa decisão por você, né? No momento em que você começa a dirigir um carro desse, você deixou de tomar a decisão que você tomaria. Quem está tomando essa decisão agora foi um engenheiro dessa empresa, da fabricante desse carro. Então é por isso que essas questões, de uso responsável e ético, passam a ser muito importantes. Porque você precisa saber “qual foi o princípio que o programador desse algoritmo de direção autônoma e dessa marca de carros tomou? Estou de acordo? Tenho como mudar isso se eu quiser?” São questões que temos que discutir com bastante cuidado. E por isso que a questão da legislação, da regulação, passa a ter uma importância muito grande. O Brasil é bastante avançado com relação à regulação, à legislação do governo digital, principalmente. Dois anos atrás o governo lançou a E-Digital, que é a estratégia brasileira da transformação digital. Ela prevê 100 ações, com alguns eixos temáticos, e fala em transformar a economia do Brasil em uma economia baseada em dados. Então parte da estratégia fala em exercício para o cidadão, outra fala em transformação da nossa economia para uma economia digital, que é a cartilha que a secretaria de governo digital do Ministério da Economia está seguindo para digitalizar os serviços oferecidos aos cidadãos. O Ministério da Ciência e da Tecnologia e Inovação em Comunicações está fazendo uma consulta pública para uma estratégia brasileira para IA. Então é um assunto que eu acho que, mesmo que tenhamos discutido muito rápido a transformação digital, demoramos um pouquinho pra discutir. Mas é importante que esteja sendo discutido agora, porque é um assunto de extrema relevância. A legislação, regulação, passa a ter uma importância mais profunda quando se trata da IA. Em linhas gerais, era isso que eu tinha para contar para vocês. De maneira geral, esse é o nosso posicionamento, a maneira como a Microsoft vê a inteligência artificial e todas essas discussões, as polêmicas que orbitam em volta desse assunto.

A gente queria entender melhor como funciona o serviço de nuvem da Microsoft, qual a importância disso para os projetos de inteligência artificial.

Olha, não dá pra dissociar essas duas coisas. Eu escrevi um artigo no LinkedIn sobre esse fato, que eu chamei de “Triângulo de Fogo da Tecnologia”. Que é o quê? Não se consegue mais dissociar dados, algoritmo e computação da maneira como isso evoluiu até hoje. Por quê? A inteligência artificial existe desde os anos 1950, então é uma tecnologia bastante antiga. E aí você se pergunta: “mas por que essa tecnologia não gerou todo esse avanço, essa discussão, essa polêmica antes?” Porque, antes você não tinha todos os dados que estão à disposição hoje: a gente está gerando uma quantidade absurda de dados, tanto interagindo com nossos dispositivos móveis, com nossos celulares, quanto com dispositivos de internet das coisas; um jato, por exemplo, tem de 6 a 7 mil sensores. A quantidade de dados que a gente gera é absurda, mais do que em toda a história da Humanidade. O primeiro ponto é esse. O segundo é a capacidade de computação. Com esse monte de dados e algoritmos superpoderosos, que já existiam há muito tempo, só quem tivesse supercomputadores conseguia fazer isso. Então, somente alguns Estados mais avançados e ricos, e centros de pesquisa localizados em países do Primeiro Mundo, conseguiam fazer esse trabalho. Mas a Nuvem democratizou, facilitou e disponibilizou o acesso à computação virtualmente ilimitada: ela deu capacidade de processamento e armazenamento muito grande, diria quase infinito, a quase todo mundo. Você, como pessoa física, pode ter acesso, com menos de 100 por mês, a recursos superavançados de computação que antes nem a NASA teria, há uns 10 anos atrás. Então, eu acho que não dá pra dissociar Nuvem de Inteligência Artificial, e também de dados, pois os três interagem de maneira conjunta: como eu disse, não adianta falar de inteligência artificial se não houver uma máquina capaz de tirar proveito dessa tecnologia avançada; essa máquina é a Nuvem. E, sem os dados, que são o combustível disso tudo, vai adiantar menos ainda. Não se fala de Inteligência Artifical sem Nuvem, é uma condição quase sine qua non.

Em termos de conciliar essas novas tecnologias com, por exemplo, a privacidade dos pacientes no caso do Hospital 9 de Julho que você mencionou, como a Microsoft tem lidado com isso?

Essa é uma das grandes preocupações dentro daquelas seis perspectivas que nós consideramos como fundamentais para o uso responsável da Inteligência Artificial. Nós consideramos a privacidade como um direito humano, e a respeitamos muito. Citando esse mesmo exemplo que você usou, as imagens não são identificadas. Então não tem reconhecimento facial, nem é armazenada a imagem do paciente (até porque ele está hospitalizado). Em vez disso, as imagens são capturadas somente para tomar a decisão, mas não armazenadas: a privacidade é respeitada. Também temos outros projetos no momento: estamos ajudando o Ministério da Economia com o projeto do SINE (Sistema Nacional de Emprego), por exemplo. Existe a base de dados das pessoas que procuraram emprego no SINE. Como vamos tratar as informações que têm nomes ou documentos da pessoa? Para respeitar a privacidade, usamos tecnologias de criptografia, por exemplo. Então, para inserir esses dados na nuvem, eles precisam ser criptografados, ficando a chave criptográfica com o Ministério da Economia. Ou seja, apesar de estarmos trabalhando com ele, nós mesmos não temos acesso a esses dados.

Gostaríamos de discutir um pouco mais o caso da Tay AI. A Microsoft reconheceu o fracasso do experimento e encerrou o funcionamento do bot no Twitter. Também declarou o seguinte: “A Tay somente poderá ser retomada quando estivermos confiantes de que podemos antecipar intenções maliciosas que conflitem com nossos princípios e valores”. Mas, aqui aparecem dois problemas: primeiro, como a Microsoft pretende realizar tal antecipação? E segundo, de que maneira esses princípios e valores mencionados pela própria empresa são estabelecidos, e por quem?

Esse caso do bot é um exemplo de aplicação do Princípio 4 do nosso desenvolvimento de sistemas. Trata-se da questão da responsabilidade ética e da possibilidade de desfazer os danos causados, mesmo que involuntariamente. Isso mostra que nós temos essa preocupação, e quando não conseguimos o controle em razão das próprias características da Inteligência Artificial, depreendendo que é possível ter resultados inesperados e nem sempre positivos, se tudo der errado, é hora de parar e desligar o programa, e voltar atrás. Fazemos isso através do nosso Comitê, que faz a inspeção e validação de tudo que é feito pela Microsoft. Ele pode tomar por decisão cancelar um projeto, ou retirá-lo de funcionamento. Temos uma estrutura interna de controle, que evita esse tipo de questão para que o sistema seja justo e transparente. É esse Comitê que verifica a aplicação dos princípios que nós declaramos.

Então quer dizer que a Microsoft assume a responsabilidade pelos danos que suas plataformas causaram, mesmo quando ele na verdade surgem de outros usuários?

Essa é uma pergunta a ser feita para a área jurídica, porque envolve questões contratuais. Mas o que quero dizer é que, quando nós desenvolvemos essas tecnologias na nossa própria plataforma, a resposta é sim. Agora, nós disponibilizamos na nuvem ferramentas de Inteligência Artificial com as quais nossos clientes e usuários podem desenvolver soluções próprias. A meu ver, essas soluções não são de nossa responsabilidade, porque a Microsoft não tem acesso aos dados que alimentaram os algoritmos e decisões criadas. Por exemplo, no caso do carro autônomo, o problema de proteger o motorista ou não fica a critério desses usuários. De qualquer forma, eu sugiro confirmar com a nossa área jurídica a questão da responsabilização de todas as partes numa situação como essa.

Esse semestre no NDIS, discutimos como ferramentas de pesquisa como o Bing e o Google podem reforçar estereótipos de beleza, por exemplo. Nós queríamos saber o que você acha sobre esse potencial negativo da Inteligência Artificial? Há alguma preocupação com isso por parte da Microsoft?

Criamos o Comitê Interno e os Princípios justamente para evitar esse tipo de situação. A máquina aprende tudo, mas ela é ensinada pelas pessoas que escreveram seu algoritmo. Essas pessoas refletem questões de raça e gênero, então nós temos que tomar cuidado na concepção dessas soluções (ou seja, na criação desses algoritmos), pra que esses problemas de tendência sejam equilibrados. Como comentei, é preciso levar em conta aspectos como justiça: a solução tem que ser justa, não pode privilegiar A ou B. A Microsoft reconhece que isso acontece, como em todas as áreas: houve recentemente essa discussão no Oscar sobre a representatividade de outras raças na Academia e no Cinema. Isso acontece em todos os lados; a Tecnologia não deixa de ser igual. O que eu acho saudável é termos essa discussão, porque, como vocês mesmos repararam, através do exemplo citado, a tecnologia pode servir essas tendências. O uso responsável e ético, principalmente da inteligência artificial, deve se dar através da regulação interna. E, externamente, os países têm de se preocupar com sua legislação, para que a tecnologia seja utilizada para benefício do cidadão, e não contrário a ele; para que ela possa ser usada, como a Microsoft prega, para ampliar a engenhosidade e o potencial humano, e não ser uma coisa danosa e prejudicial ao ser humano.

***

Entrevistadores: Arthur Hirai, Giulia Cavallieri e João Vítor Pellegatti

Edição: Enrico Roberto

compartilhe