Imagem do projeto com fundo preto e o texto: Direito autoral e plataformas de internet um assunto em aberto. No canto superior direito, uma moldura com fundo rosa e formato de bandeira com o texto: Especial Marco Civil 5 anos InternetLab

Direito autoral e plataformas de internet: um assunto em aberto

Especial Cultura e conhecimento 18.04.2019 por Mariana Valente

Por Mariana Valente*

Imagem do projeto com fundo preto e o texto: Direito autoral e plataformas de internet um assunto em aberto. No canto superior direito, uma moldura com fundo rosa e formato de bandeira com o texto: Especial Marco Civil 5 anos InternetLab

Quando o Marco Civil da Internet estava sendo discutido, a ideia era criar uma regra geral que determinasse o regime pelo qual as plataformas de internet se tornam responsáveis por violações que são cometidas por usuários. Parece um tema técnico, mas a escolha por um ou outro regime tem impactos muito importantes na liberdade de expressão dos usuários na rede, e em outros direitos.

>> Este texto compõe o Especial Marco Civil 5 Anos, para ver todos clique aqui

Naquele momento, no entanto, acabou se decidindo excluir as violações de direitos autorais dessa regra geral. Isso quer dizer que o Marco Civil não definiu a responsabilidade das plataformas nesse caso – a regra que determina que as plataformas são responsáveis apenas após uma ordem judicial de remoção vale só para os demais casos. A esperança era que o debate ocorresse não muito mais tarde – naquele momento, discutia-se uma reforma para o direito autoral no Brasil. Como essa reforma não vingou, acabamos não tendo uma previsão legal específica para a responsabilização de provedoras de aplicação de internet no caso de violação de direitos autorais por terceiros.

Vale lembrar que essa discussão não se aplica às empresas que oferecem catálogos de obras protegidas por direito autoral, como Netflix e Spotify. Esse tipo de serviço claramente realiza atividade editorial – não é um usuário que está subindo o conteúdo, e, portanto, a plataforma é a responsável por violações. De outra parte, a discussão se aplica ao YouTube, plataforma na qual os usuários sobem vídeos que podem conter essas obras, no todo ou em parte.

O tema é muito controvertido no Brasil e no mundo. Aqui, tem prevalecido no Judiciário o entendimento do STJ de que uma plataforma como o Facebook, o YouTube ou o Twitter passam a ter responsabilidade no caso de violação de direitos autorais quando recebem uma notificação, ou seja, não têm um dever de monitoramento ou de filtro do que os usuários postam. Não existe exatamente uma jurisprudência extremamente coerente, mas é o que se depreende da leitura dos votos do caso Botelho vs. Google, e Botelho vs. Yahoo. Vale apontar também que essas decisões determinam à parte autora a necessidade de indicação específica da URL, para obrigar os provedores à remoção dos conteúdos em questão.

Que modelos estão em jogo?

Em linhas largas, a responsabilização dos intermediários de internet por conteúdos de terceiros pode seguir quatro modelos:

  1. Isenção de responsabilidade: Provedor é entendido como mero intermediário entre usuário e pessoa cujos direitos são violados, e portanto não é resposabilizado.
  2. Responsabilidade objetiva: Provedor é responsável independentemente de culpa, por entender-se que a violação faz parte do risco da atividade.
  3. Responsabilidade subjetiva mediante exame judicial: Provedor é responsabilizado, mas somente após receber uma ordem judicial específica para remoção de um conteúdo e não a cumprir.
  4. Responsabilidade subjetiva após conhecimento: Provedor torna-se responsável quando toma ciência do conteúdo infringente em questão, o que normalmente ocorre com uma notificação extrajudicial.

Um modelo que se combina com o modelo n. 4 é o que se conhece por notice and notice, adotado por exemplo no Canadá, e que implica que, após uma decisão da plataforma de remover um conteúdo mediante uma notificação privada, ao usuário é dada a faculdade de contra-notificar e responsabilizar-se pessoalmente pela manutenção do conteúdo online, hipótese na qual a plataforma fica isenta. É um modelo que distribui as responsabilidades de forma a tentar contemplar tanto o detentor de direitos, que quer um mecanismo mais rápido para notificação e possibilidade de remoção de conteúdo infringente de direitos autorais, quanto o usuário e com ele o público em geral.

O modelo n. 3 é o que vale para a maior parte dos conteúdos, no Brasil, de acordo com o art. 19 do Marco Civil da Internet. O art. 21 estabelece o modelo 4 para o caso de disseminação não consentida de imagens íntimas, desde que a notificação privada venha da vítima. E, como indicamos acima, é o modelo 4 também que vem prevalecendo no Judiciário brasileiro quanto a violações de direito autoral, na falta de uma previsão legal específica. Mas há também quem argumente que existiria previsão, na lei brasileira, para se aplicar o modelo 2 para o direito autoral. A posição é bastante controvertida, por motivos de interpretação mesmo da lei, mas em especial do ponto de vista político e da consideração dos diferentes direitos em jogo.

Foto de William Bonner e colagem do rosto de Rafucko no lugar do de Renata Vasconcellos, com o cenário do Jornal Nacional ao fundo e o texto centralizado: Censura NÃO!
Protesto do humorista Rafucko, quando um vídeo em que parodiava o Jornal Nacional, criticando o discurso dos âncoras, foi removido do YouTube por violação a direito autoral. Fonte: Reprodução

Há várias hipóteses em que obras protegidas por direito autoral podem ser utilizadas sem que isso signifique uma infração. É o caso, por exemplo, da paródia, que é a utilização de uma obra preexistente para a criação de uma outra, que trabalhe em cima da primeira, para fins de sátira ou crítica. O direito de criar paródias está previsto na Lei de Direitos Autorais brasileira (Lei n. 9.610/98), no art. 47. Pela lei, obras preexistentes também podem ser utilizadas em obras novas para fins de citação, ou como recurso criativo, desde que alguns limites sejam respeitados. Não é nada incomum que a violação de direitos autorais seja o argumento utilizado para fins de censura, quando a utilização daquela obra seria potencialmente lícita – o que nem sempre é fácil de determinar.

Além disso, existe uma questão de incentivos que atua no equilíbrio dos interesses todos. Detentores de direitos podem cometer abusos no procedimento de notificação privada, como documenta o projeto Takedown Hall of Shame da EFF – e, sem o exame judicial, a plataforma tem incentivos para remover o conteúdo quando recebe a notificação, para não correr o risco de responsabilização caso decida não remover um conteúdo controverso que venha a ser considerado ilícito em uma ação judicial. O usuário pode recorrer ao judiciário, também, caso entenda que a remoção lesou seus direitos, como ocorre de fato, mas tem poucos incentivos para isso, e costuma ser a parte mais frágil economicamente.

O que as empresas detentoras de catálogos de entretenimento vêm argumentando, entretanto, é que o sistema de notificação é caro e vem protegendo as plataformas desproporcionalmente, o que estaria gerando um enriquecimento delas às custas dos criadores e das indústrias culturais. Essa argumentação é central nos últimos relatórios da Federação Internacional da Indústria Fonográfica (veja, por exemplo, o mais recente, de 2019, e um relatório da mesma organização sobre o chamado value gap, de 2018), e foi a argumentação que guiou a polêmica reforma do direito autoral na Europa, que passou semanas atrás.

Trecho do documento da IFPI com o texto: The music industry has transformed itself into a predominantly digital, growing industry. To achieve this, record companies have worked tirelessly to adapt, innovate and invest, to drive a new digital age for music. However, for this positive development to be sustainable, there must be a fair digital marketplace where all the participants play the same fair rules. The sustainable and balanced growth of the digital content market continues to be undermined by a fundamental flaww in legislation underpinning the market that has created a 'value gap', a mismatch between the value that online user upload services, such as YouTube, extract from music and the revenue returned to the music community. It is currently the biggest policy challenge facing the music industry. For music to thrive in a digital world, those that are creating and investing in music must be able to negotiate fair commercial terms for its use. Furthermore, digital music services that are licensing music on freely negotiated terms, must be allowed to compete on a level playing field - something they currently do not have. The global music community is united in its call to fix the value gap and is campaigning around the world for a legislative solution. O infográfico: Estimated Annual Revenue Per User 20 dólares no Spotify e menos de 1 dólar no Youtube, com o texto abaixo: From publicly available data, IFPI estimates that Spotify paid record companies 20 dollars per user in 2017. By contrast, it is estimated that YouTube returned less than 1 dollar for each music user. E o gráfico de barras com o título Audio and videos streaming users versus revenues 2017 com as informações: 272 milhões de usuários e 5,569 milhões de dólares de retorno no streamings de áudio e 1,300 milhões de usuários e 856 milhões de dólares de retorno de streamings de vídeo, com o texto abaixo: User upload services, seeking to benefit from inconsistent from inconsistent applications of online liability laws, comprise the vast majority of video streaming activity. They have the world's largest on-demand music audience, conservatively estimated at more than 1,300 million users. The revenue returning to rights holders through video streaming services in 2017 amounted to 856 million dollars. By contrast, a much smaller user base of 272 million users of audio subscription services (both paid and ad-supported), that have negotiated licenses on fair terms, contributed 5,6 billion dollars.
Trecho de documento da IFPI denunciando o que a indústria de entretenimento convencionou chamar de “value gap”

A diretiva europeia e os impactos no Brasil

O famigerado artigo 13 da Diretiva sobre Direitos de Autor (que se tornou o artigo 17, quando da sua aprovação) propôs precisamente uma mudança fundamental no regime de responsabilidade e nas obrigações dos provedores de aplicações na internet. Pela legislação vigente na Europa até então (Diretiva de Comércio Eletrônico), os responsáveis pelos conteúdos eram os próprios usuários que os postam, mas os provedores teriam de agir mediante notificação (modelo 4 acima). Ou seja, eles não teriam obrigação de monitoramento ativo sobre a atividade de seus usuários.

A nova diretiva mudou esse balanço, determinando que, quando os usuários sobem conteúdo protegido por direito autoral em uma plataforma, a plataforma em si realiza um ato de comunicação ao público, e que ela deve empreender “melhores esforços” para licenciar todos os conteúdos com os detentores de direitos, e remover conteúdos protegidos mediante notificação. Essa é a regra que vale para todos os serviços; já aqueles que são mais populares (que têm mais de 5 milhões de visitantes por mês) têm também de empregar seus “melhores esforços” em fazer com que esses conteúdos não possam ser novamente disponibilizados uma vez que tenham sido removidos, o que vem sendo chamado de notice and staydown (algo que também aparece, por exemplo, nos relatórios da IFPI como uma demanda da indústria fonográfica para os diferentes países). Por sua vez, os serviços maiores (plataformas com mais de 3 anos de funcionamento e receitas maiores que 10 milhões de euros por ano) devem implementar filtros de upload, para bloquear os conteúdos não licenciados já no momento que o usuário quer subi-los. O esquema abaixo, desenvolvido pela Communia, uma associação que defende o domínio público e o acesso à cultura e ao conhecimento (e que é extremamente crítica da regra que estamos examinando), ajuda a compreender esse emaranhado:

 Infográfico com 7 quadros ligados por uma seta. O primeiro quadro tem o texto: Article 13 applies to: Information society services whose main or one of the main purposes is to store and give the public access to a large amount of copyright protected works uploaded by its users which it organizes and promotes for profit-making purposes. O segundo quadro, conectado com o primeiro por uma seta, tem o texto: Liability reversal: The services perform an act of communication to the public when they give the public access to copyright protected works uploaded by its users and the limitation of liability established in Article 14(1) of the e-commerce directive does not apply such acts. O terceiro quadro, conectado ao segundo por uma seta, tem o texto: Obligation to licence: The services must make best efforts to license all copyrighted works uploaded by its users. O quarto quadro, conectado ao terceiro por uma seta, tem o texto: Notice and take down: The services make best efforts to take down works upon notice from rights holders. Apontando para os terceiro e quarto quadros, há uma seta com o texto: These requirements apply to all platforms covered by Article 13. O quinto quadro, conectado ao quarto por uma seta, tem o texto: Notice and Stay down: Services must make best efforts to prevent their future uploads of works that have been taken down after a noice from rights holders, com uma seta apontando para o quadro com o texto: Applies to all platforms covered by Article 14 that have more than 5 million visitors per month. O sexto quadro, conectado ao quinto por uma seta, tem o texto: Upload filters: Services must make best efforts to ensure the unavailability of specific works for which the rights holders have provided the service provider with the relevant and necessary information and made best efforts to prevent future uploads of works that have been taken down after a notice from rights holders., com uma seta apontando para o quadro com o texto: This requirement applies to all platforms covered by Article 13 that are more than 3 years old or have more than 10 million Euro in yearly revenue. O sétimo quadro, conectado ao sexto por uma seta, tem o texto: User rights safeguard: The services must ensure that these measures do not result in the prevention of the availability of works uploaded by users which do not infringe copyright and related rights, including where such works are covered by an exception or limitation (including mandatory exceptions for quotation and parody). No canto superior direito, há outro quadro com o texto: Article 13 does not apply to: not-for profit online encyclopedias, not-for profit educational and scientific repositories, open source softwares developing and sharing platforms, electronic communication service providers, online marketplaces and business-to-business cloud services and cloud services which allow users to upload content for their own use.

Quando a diretiva europeia recomenda filtros de upload, eles são imaginados no modelo do Content ID, do YouTube – um sistema que realiza um “match” entre materiais que o usuário sobe na plataforma e um banco de dados de obras protegidas por direito autoral. Não são sistemas baratos nem simples – o Google afirma ter investido mais de 100 milhões de dólares no sistema, que, ademais, é muito criticado por retornar “falsos positivos”.

Um outro ponto crítico sobre a diretiva é que, mesmo não sendo obrigatórios em princípio para as plataformas menores ou iniciantes, a reversão de responsabilidade pode significar que não haja outros meios de controlar o conteúdo postado por usuários que o monitoramento e o desenvolvimento de filtros. Muitas organizações de defesa do interesse público têm afirmado que, mirando em diminuir o poder das grandes plataformas, as regras podem acabar fortalecendo-as, por impossibilitar a atividade das menores. Isso é algo que ainda veremos, em especial a partir da implementação da diretiva pelos estados-membros.

O risco é que, ao implementar a diretiva, as plataformas globais de internet acabem impondo aquelas regras aos demais países (quem não recebeu um e-mail de atualização de termos de privacidade de alguma empresa de internet, que estava se adequando à nova legislação de proteção de dados pessoais na Europa, a GDPR, no ano passado?). E, para além disso, na ausência de previsão no Marco Civil da Internet, pode ser que estejamos no futuro discutindo os parâmetros legais da responsabilização das plataformas por violação de direito autoral por seus usuários também aqui. E o precedente europeu não levou em consideração suficientemente o interesse público e o direito dos usuários na sua regulação, entendendo a questão meramente como uma disputa entre grandes indústrias, a de internet e a do entretenimento.

Como vimos, o problema está longe de se resumir a isso. Para melhores políticas sobre o conhecimento, a diversidade online e a expressão, precisamos ser capazes de pensar em modelos híbridos, que abram espaço por exemplo para a revisão judicial e um direito de resposta fácil para decisões sobre remoção de conteúdo, e obrigações e incentivos de transparência para que as empresas de internet justifiquem suas decisões de remoção.

Aprofunde-se

Para saber mais sobre o tema:

***

Mariana Valente é diretora do InternetLab 

compartilhe