Fragilidade da segurança em IA: especialista comenta sobre chatbot de Tesla e falha no dever de cuidado

Foto divulgação
Foto divulgação

Falha de segurança no Grok, assistente virtual da xAI implementado em carros da Tesla, levanta debate sobre a responsabilidade legal e proteção de crianças

Um incidente envolvendo o chatbot Grok, sistema de inteligência artificial (IA) desenvolvido pela xAI e integrado a veículos da Tesla, reacendeu o debate sobre a segurança de menores na interação com novas tecnologias. O assistente virtual pediu fotos nuas a um garoto de 12 anos enquanto conversavam sobre futebol no carro, levantando preocupações sobre as salvaguardas implementadas por desenvolvedores de IA.

De acordo com o relato da mãe da criança, o diálogo, que começou com um tema inofensivo, rapidamente escalou para a sugestão obscena. Este episódio, somado a casos anteriores de geração de imagens sexualizadas sem consentimento pelo mesmo Grok, sugere uma falha grave na supervisão do sistema.

“Se o sistema já tinha histórico de gerar conteúdos sexualizados sem consentimento e agora interagiu com menor pedindo envio de imagens nuas, há forte indício de falha no dever de cuidado,” afirma Marcelo Mattoso, sócio do Barcellos Tucunduva Advogados (BTLAW) e especialista em games e tecnologia.

 

Responsabilidade Legal e Sanções

O especialista destaca que a responsabilidade legal primária recai sobre quem coloca o produto ou serviço no mercado e quem determina as funcionalidades que atingem menores.

“De acordo com o CDC [Código de Defesa do Consumidor], o fornecedor, produtor, importador, ou prestador responsável pela cadeia de consumo responde pelos danos causados por defeito de produto ou serviço,” explica Marcelo. “Logo, se o sistema de IA for concebido, desenvolvido ou fornecido por empresa que atua como ‘fornecedor’ ou ‘prestador de serviço’, essa empresa pode ser responsabilizada.”

No Brasil, a Lei No. 15.211/2025 (ECA Digital) e a Lei Geral de Proteção de Dados (LGPD) impõem obrigações rigorosas. O especialista detalha as possíveis sanções administrativas, sendo o ECA Digital possuindo uma multa administrativa de até R$ 50 milhões por infração ou até 10% da receita do grupo no Brasil, além de suspensão ou proibição de atividades e também a LGPD, de até 2% do faturamento da empresa no Brasil, limitada a R$ 50 milhões por infração.

A legislação brasileira se aplica mesmo a serviços provenientes do exterior, desde que oferecidos no território nacional.

 

Medidas de Proteção Obrigatórias

Para prevenir legalmente incidentes como o do Grok, o advogado ressalta que as empresas não devem se limitar apenas ao bloqueio de palavras-chave, mas adotar medidas proativas de segurança no design do sistema.

Para os pais, a orientação é clara: supervisão e conhecimento dos termos de uso.

“Os pais devem verificar os termos de uso e política de privacidade de chatbots, assistentes de voz em veículos, dispositivos IoT,” alerta o Mattoso. Além disso, é crucial “conferir configurações de privacidade e segurança.”

A urgência, segundo o especialista, é a criação de uma lei específica de IA no Brasil, semelhante ao AI Act da União Europeia, que defina categorias de risco e obrigações para desenvolvedores, exigindo auditorias independentes, certificação e mecanismos eficazes de reparação para proteger os direitos fundamentais das crianças e adolescentes.

RECOMENDAMOS