Preencha os campos abaixo para submeter seu pedido de música:
Gustavo Tonet Fagundes – Advogado – ZNA
Ferramentas de inteligência artificial (IA) têm ganhado espaço como fontes primárias de busca e mediação de informações, assim como é o buscador Google. Diante disso, uma decisão inédita da 5ª Vara Cível de Niterói (RJ) chamou atenção ao condenar o Google a indenizar um empresário por erro cometido pela IA Gemini.
O caso envolve Marcelo Tavares, fundador da Brasil Game Show (BGS), que foi indevidamente vinculado à propriedade de uma casa de apostas online. A associação foi feita pelo sistema de busca do Google, baseado em IA, a partir de uma entrevista com Tavares que foi erroneamente ligada à plataforma de apostas 7Games.
O erro não foi apenas uma falha técnica: ele gerou danos reais ao empresário, incluindo ameaças de morte e acusações de fraude. “”O erro cometido pela IA do Google não é um caso isolado, mas reflete um problema real na automação dos mecanismos de busca. A IA, que deveria apenas organizar informações, fez uma associação incorreta entre uma entrevista de Tavares e a 7Games””, ressalta Gustavo Tonet Fagundes, advogado da ZNA.
Embora o Google, detentor da IA Gemini, alegue que apenas organiza conteúdos disponíveis na internet e que alerta sobre possíveis erros, como apontado na decisão judicial, isso não exime a empresa de responsabilidade. Quando sua IA produz ou distorce informações de forma prejudicial, o impacto é direto, e não pode ser ignorado.
“A inteligência artificial não é neutra”, afirma Gustavo. “Ainda que funcione com base em probabilidades e padrões, ela deve obedecer aos princípios legais e garantir a preservação dos direitos das pessoas envolvidas.” A sentença reforça que empresas de tecnologia não podem se esconder atrás de disclaimers para evitar o dever de reparar os danos causados.
Hoje, discute-se a regulamentação do uso da IA no Brasil por meio do Projeto de Lei nº 2.338/2023, que está em análise na Câmara dos Deputados após aprovação no Senado. O projeto busca criar um Marco Legal da Inteligência Artificial, com foco na responsabilização das empresas e na proteção de direitos fundamentais dos cidadãos.
Essa decisão judicial mostra que o ordenamento jurídico brasileiro já oferece mecanismos de proteção, mesmo antes da existência de uma legislação específica para IA. “A condenação do Google é um sinal importante de que o Judiciário está atento aos riscos da tecnologia, e de que os direitos individuais ainda estão acima dos algoritmos”, pontua o advogado.
Por outro lado, o debate em torno do PL 2.338 também levanta preocupações. Alguns especialistas temem que, da forma como está redigido, o projeto possa acabar travando o desenvolvimento tecnológico no país. Isso porque exigências excessivas ou mal calibradas podem inviabilizar o desenvolvimento e o uso de soluções baseadas em IA — um risco significativo para setores econômicos que dependem da inovação.
O caso do Google, no entanto, deixa um recado claro: a tecnologia avança mais rápido que a legislação, mas isso não pode servir de desculpa para irresponsabilidade. É essencial que plataformas digitais se comprometam com formas mais transparentes de corrigir erros e reparar danos. E que assumam sua parcela de responsabilidade pelo impacto que causam na vida das pessoas.
“A decisão judicial é um marco — não só pela reparação do dano individual, mas também como um alerta para o mercado de tecnologia sobre a urgência da responsabilidade digital”, finaliza Gustavo Tonet Fagundes.