Uma decisão recente de um tribunal federal nos Estados Unidos acendeu um alerta vermelho para quem utiliza o ChatGPT como um diário, consultor jurídico ou repositório de segredos corporativos. O juiz determinou que os usuários não possuem uma expectativa razoável de privacidade ao conversar com o chatbot da OpenAI.
O motivo jurídico é simples, mas as implicações são profundas: ao digitar informações na plataforma, você voluntariamente as entrega a terceiros — ou, no caso, a OpenAI —, que alerta em seus termos de serviço que pode revisar essas conversas para treinar seus modelos ou garantir a segurança do sistema.
Essa notícia serve como um lembrete brutal de uma regra antiga da internet que parece ter sido esquecida na era da IA generativa.
A IA é uma ferramenta, não um confidente
É fácil cair na armadilha da antropomorfização. O ChatGPT responde com linguagem natural, simula algo que alguns podem entender como “empatia” e mantém o contexto da conversa. Isso cria uma falsa sensação de intimidade. No entanto, é fundamental lembrar que a Inteligência Artificial é uma ferramenta, não um amigo ou terapeuta.
Quando você trata a ferramenta como um confidente, a barreira da cautela cai. E é aí que mora o perigo. Diferente de um médico ou advogado, que possuem obrigações legais e éticas de sigilo, uma IA é um processador de dados voraz. Tudo o que entra ali vira combustível para o sistema ou passa por revisores humanos.
O perigo está nos Termos de Uso — e não só nos hackers
Geralmente, quando falamos de vazamento de dados, pensamos em hackers invadindo servidores. Porém, no caso dos chatbots, a “quebra de privacidade” é uma feature, não um bug.
Os termos de uso da maioria dessas ferramentas — e aqui podemos incluir tanto o ChatGPT quanto o Gemini — deixam claro que as conversas não são criptografadas de ponta a ponta como no WhatsApp. Elas são armazenadas, processadas e, em muitos casos, lidas por humanos para “ajustar” o algoritmo.

Isso significa que segredos industriais, códigos de programação proprietários, diagnósticos médicos de pacientes ou estratégias jurídicas inseridas no prompt deixam de ser privados no momento em que você aperta “Enter”. A própria justiça americana agora entende que, ao fazer isso, você renunciou ao sigilo.
Nanobits já fez um compilado com os dados que as principais ferramentas de IA coletam de suas conversas e seus dispositivos.
Um problema da indústria, não apenas da OpenAI
A OpenAI não está sozinha nessa. A coleta massiva de dados para treinamento é o padrão da indústria. Recentemente, vimos como a Meta transformou seus apps em um pesadelo de privacidade ao utilizar dados de usuários para treinar suas IAs, muitas vezes sem um caminho claro para o usuário negar esse uso — conhecido na área de tecnologia como opt-out.
A Regra de Ouro da Internet
A lição que fica é a retomada da regra mais básica da segurança digital: se você não quer que algo se torne público ou seja lido por estranhos, não coloque na internet.
Isso vale para redes sociais, vale para a nuvem e vale, principalmente, para caixas de texto de IAs generativas. Use a ferramenta para auxiliar em tarefas como resumir assuntos mais espinhosos ou buscar soluções para problemas que você não consegue por contra própria, mas jamais alimente a máquina com o que deveria ser segredo. A nuvem, afinal, é apenas o computador de outra pessoa — e essa pessoa está lendo o que você escreve.
E não custa adicionar: jamais confie totalmente na IA. Isso vale para segredos e vale, também, para o que ela “cria”. Checar informações e dados é fundamental, e, assim como os humanos, a inteligência artificial também comete erros.
Gostou do conteúdo? Conta pra gente nos comentários, fique à vontade para deixar sua opinião (com bom senso e respeito, claro). E siga as redes sociais e o canal no YouTube:

