Boas vindas ao Nanobits, um site sem publicidade, sem pop ups chatos e sem vídeo que reproduz sozinho. Já está carregado. Boa leitura!

Fim do segredo: por que você não deve confiar dados sensíveis ao ChatGPT (ou qualquer IA)

Uma decisão recente de um tribunal federal nos Estados Unidos acendeu um alerta vermelho para quem utiliza o ChatGPT como um diário, consultor jurídico ou repositório de segredos corporativos. O juiz determinou que os usuários não possuem uma expectativa razoável de privacidade ao conversar com o chatbot da OpenAI.

O motivo jurídico é simples, mas as implicações são profundas: ao digitar informações na plataforma, você voluntariamente as entrega a terceiros — ou, no caso, a OpenAI —, que alerta em seus termos de serviço que pode revisar essas conversas para treinar seus modelos ou garantir a segurança do sistema.

Essa notícia serve como um lembrete brutal de uma regra antiga da internet que parece ter sido esquecida na era da IA generativa.

A IA é uma ferramenta, não um confidente

É fácil cair na armadilha da antropomorfização. O ChatGPT responde com linguagem natural, simula algo que alguns podem entender como “empatia” e mantém o contexto da conversa. Isso cria uma falsa sensação de intimidade. No entanto, é fundamental lembrar que a Inteligência Artificial é uma ferramenta, não um amigo ou terapeuta.

Quando você trata a ferramenta como um confidente, a barreira da cautela cai. E é aí que mora o perigo. Diferente de um médico ou advogado, que possuem obrigações legais e éticas de sigilo, uma IA é um processador de dados voraz. Tudo o que entra ali vira combustível para o sistema ou passa por revisores humanos.

O perigo está nos Termos de Uso — e não só nos hackers

Geralmente, quando falamos de vazamento de dados, pensamos em hackers invadindo servidores. Porém, no caso dos chatbots, a “quebra de privacidade” é uma feature, não um bug.

Os termos de uso da maioria dessas ferramentas — e aqui podemos incluir tanto o ChatGPT quanto o Gemini — deixam claro que as conversas não são criptografadas de ponta a ponta como no WhatsApp. Elas são armazenadas, processadas e, em muitos casos, lidas por humanos para “ajustar” o algoritmo.

Uma pessoa escreve em um diário enquanto outras duas cochicham ao fundo
Chatbots são “fofoqueiros” por programação: suas conversas podem ser acessadas por funcionários das empresas que os desenvolveram (Keira Burton/Pexels)

Isso significa que segredos industriais, códigos de programação proprietários, diagnósticos médicos de pacientes ou estratégias jurídicas inseridas no prompt deixam de ser privados no momento em que você aperta “Enter”. A própria justiça americana agora entende que, ao fazer isso, você renunciou ao sigilo.

Nanobits já fez um compilado com os dados que as principais ferramentas de IA coletam de suas conversas e seus dispositivos.

Um problema da indústria, não apenas da OpenAI

A OpenAI não está sozinha nessa. A coleta massiva de dados para treinamento é o padrão da indústria. Recentemente, vimos como a Meta transformou seus apps em um pesadelo de privacidade ao utilizar dados de usuários para treinar suas IAs, muitas vezes sem um caminho claro para o usuário negar esse uso — conhecido na área de tecnologia como opt-out.

A Regra de Ouro da Internet

A lição que fica é a retomada da regra mais básica da segurança digital: se você não quer que algo se torne público ou seja lido por estranhos, não coloque na internet.

Isso vale para redes sociais, vale para a nuvem e vale, principalmente, para caixas de texto de IAs generativas. Use a ferramenta para auxiliar em tarefas como resumir assuntos mais espinhosos ou buscar soluções para problemas que você não consegue por contra própria, mas jamais alimente a máquina com o que deveria ser segredo. A nuvem, afinal, é apenas o computador de outra pessoa — e essa pessoa está lendo o que você escreve.

E não custa adicionar: jamais confie totalmente na IA. Isso vale para segredos e vale, também, para o que ela “cria”. Checar informações e dados é fundamental, e, assim como os humanos, a inteligência artificial também comete erros.

Gostou do conteúdo? Conta pra gente nos comentários, fique à vontade para deixar sua opinião (com bom senso e respeito, claro). E siga as redes sociais e o canal no YouTube:

Deixe uma resposta

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.