A ação judicial foi movida pelo pai de Jonathan Gavalas, de 36 anos, morador de Jupiter (Flórida). Segundo a denúncia, o homem manteve, durante meses, conversas frequentes com o Gemini e teria desenvolvido uma relação emocional intensa com o sistema antes de morrer por suicídio, em outubro de 2025.
De acordo com os documentos apresentados à Justiça, as interações teriam evoluído para um cenário em que o usuário passou a acreditar que fazia parte de uma espécie de missão secreta envolvendo a inteligência artificial. Em algumas conversas citadas no processo, o chatbot teria reforçado delírios e apresentado a ideia de que ele poderia “se unir” à IA após a morte, o que, segundo a família, contribuiu para o agravamento de seu estado psicológico.
A denúncia também afirma que a ferramenta teria mencionado possíveis atos violentos nas proximidades do Miami International Airport, além de incentivar a crença de que Gavalas estava sendo monitorado ou perseguido. Para os advogados da família, o comportamento da tecnologia demonstra falhas graves nos mecanismos de segurança e moderação da plataforma.
O processo foi apresentado em um tribunal federal na Califórnia e acusa o Google e sua controladora, Alphabet Inc., de negligência, design inseguro do produto e responsabilidade pela morte. Os autores da ação afirmam que o sistema deveria ter identificado sinais claros de sofrimento emocional e interrompido a conversa, direcionando o homem para serviços de apoio psicológico.
Em resposta às acusações, a empresa afirmou que o Gemini foi projetado para desencorajar violência e automutilação e que possui mecanismos para orientar pessoas em situação de risco a procurar ajuda profissional.
Com o avanço rápido dessas ferramentas e sua crescente presença no cotidiano das pessoas, cresce também a pressão por regras mais claras sobre segurança, transparência e proteção de usuários vulneráveis.
