Black Mirror: “Hated in the Nation” (S03 E06), robótica e modelos de responsabilização

Opinião 21.11.2017 por Thiago Oliva

Qual deve ser o modelo de responsabilização por danos causados por robôs?

Captura de tela do episódio “Hated in the Nation

Por Kleicy Alves Braga e Victor Pavarin Tavares

O rápido avanço tecnológico apresenta grandes desafios ao desenvolvimento de arranjos regulatórios por parte do Direito, de evolução sempre mais lenta e cautelosa. Extorsões, difamações, fraudes na rede e outros crimes pensados para uma realidade offline colocam em xeque doutrinas tradicionalmente consagradas. A situação torna-se torna ainda mais complexa quando consideramos possíveis danos físicos causados pelas novas tecnologias. Ao falarmos em inteligência artificial ou em robótica, e o seu potencial intrínseco em causar danos, surgem dúvidas como: o fabricante de um robô, por exemplo, deveria responder em caso de dano causado pela máquina? E se a pessoa que adquiriu o robô fez um mau uso dele, empregando-o para uma finalidade estranha àquela para o qual ele foi idealizado? Ou ainda, e no caso de o robô ter a capacidade de aprender e começar a agir de maneira autônoma?

O episódio Hated in the Nation, da série “Black Mirror”, é instigante porque induz à reflexão sobre algumas dessas questões. No episódio, abelhas-robô programadas por uma empresa para desempenhar função importante ao ecossistema – e aqui deixamos de lado o seu potencial uso para fins de vigilância governamental – têm seu sistema de controle invadido por um hacker e são reprogramadas para matar pessoas.

As vítimas são pessoas que fizeram algo que não agradou aos internautas – os quais são ao mesmo tempo vítimas e, indiretamente, agentes do crime – e, por conta disso, são alvo da hashtag #DeathTo em uma rede social. A pessoa que tiver o nome mais vezes ligado à hashtag é morta ao final do dia pelas abelhas de modo bárbaro. No final do episódio a situação se inverte: todos os internautas que disseminaram a hashtag sofrem a mesma pena. Quem deve ser responsabilizado pelo uso mortal das abelhas?

Esse campo ainda, em certa medida, inexplorado entre robótica e Direito deve envolver uma cautelosa ponderação de interesses. Se por um lado as empresas promovem avanços tecnológicos importantes – no caso do episódio, as abelhas-robô cumpriam papel fundamental em um ambiente onde as abelhas estão extintas –, por outro, a possibilidade das máquinas causarem danos estimula o debate sobre modelos de responsabilização das empresas pela sua fabricação.

O acidente fatal ocorrido no ano passado envolvendo um carro semiautônomo, o Tesla Model S, levantou questões que refletem esse debate. Apesar do veículo não ser totalmente autônomo, visto que é equipado com uma espécie de “piloto automático” limitado que requer alguns cuidados (como o motorista não poder retirar as mãos do veículo), o acidente levantou questões no debate acerca dos entraves ao desenvolvimento tecnológico e da responsabilização.

Tendo em vista a importância do desenvolvimento de novas tecnologias, alguns autores dizem que a responsabilização das empresas deveria ser mínima. No episódio, o responsável pelo controle das abelhas diz que é “quase impossível” o sistema ser hackeado. A Tesla afirmou que a tecnologia do “piloto automático” limitado ainda está em testes e que os consumidores são avisados. Seria o “quase impossível” suficiente para que não houvesse nenhuma responsabilização pelas mortes ocorridas? E quanto ao aviso aos motoristas de que o carro ainda está em fase de testes?

Nesse sentido, há quem defenda que a empresa pode desenvolver uma tecnologia apenas quando não há nenhum risco dela ser invadida. Se há risco, a empresa é responsável, e nesse ponto encontra-se o impasse: na vigência de uma legislação que responsabilize as empresas de forma mais dura, há um desestímulo ao investimento em novos produtos em decorrência dos possíveis prejuízos determinados em condenações judiciais estabelecendo o pagamento de indenizações, o que estagnaria o desenvolvimento tecnológico em matéria de robótica.

O debate para os limites de responsabilização esbarra em alguns outros fatores que tornam a discussão ainda mais complexa, entre eles a possibilidade de abrir o código. Essa possibilidade torna a tecnologia ainda mais propícia à inovação, permitindo que diferentes programadores aprimorem o código e desenvolvam novas funções, muitas vezes tornando os robôs multifuncionais. Contudo, isso faz com que os mesmos desenvolvedores possam desviar o uso para o qual as máquinas foram programadas e acabar facilitando o uso de robôs para fins ilícitos, apesar da transparência e das grandes possibilidades de inovação que a abertura do código oferece. A questão que se coloca é se a responsabilidade recairia sobre a empresa ou sobre o desenvolvedor que modificou o código. Ou ambos.

O código fechado, por outro lado, perde pontos pela falta de transparência e porque prováveis falhas de segurança podem demorar mais para serem detectadas, devido ao pequeno número de pessoas que podem acessar o sistema e encontrá-las, o que, em tese, resulta em um código menos testado e, consequentemente, menos seguro. Não sabemos se o Whatsapp, por exemplo, é efetivamente seguro. Acredita-se que seja, mas não se sabe. Se o Whatsapp fosse invadido e todas as conversas fossem divulgadas, seria possível apontar a opção pelo código fechado como responsável?

O sistema operacional da Apple, o IOS, é outro exemplo de modelo fechado por meio do qual não se conhecem as vulnerabilidades, mas espera-se que seja seguro. É comum ouvir que o IOS é imensamente mais confiável que o Android, de modelo aberto e propício à inovação. O fato de o código ser aberto ou fechado deveria resultar em diferentes modelos de responsabilização?                                   

Ainda é importante ressaltar que as empresas não os únicos desenvolvedores de inteligência artificial. Esse tipo de tecnologia muitas vezes é pensado num contexto militar e geralmente para outros fins – o que não impede a apropriação destes por outros entes. O GPS, por exemplo, foi desenvolvido para fins militares de localização, para depois ser utilizado como ferramenta por civis.

Fica claro que estabelecer um modelo de responsabilização dessa natureza não é simples. No começo do ano, o Parlamento Europeu chegou a apontar para a necessidade de se criar uma personalidade jurídica para os robôs – denominada “e-personality” ou “personalidade eletrônica”. Existem diversas questões não respondidas acerca do tema que tornam a questão muito complexa, o que exige estudos e pesquisas aprofundados de modo a se evitar soluções precipitadas.

Os problemas colocados se tornarão cada vez mais recorrentes com o avanço da tecnologia, especialmente com o desenvolvimento da robótica e suas consequências em certa medida imprevisíveis. Cabe ao Direito, nesse cenário, encontrar meios para balancear o avanço tecnológico com seus possíveis danos colaterais à sociedade.

compartilhe