..::data e hora::.. 00:00:00
topo_posts

Alerta Digital: Informações Que Nunca Devem Ser Inseridas no ChatGPT

por | abr 10, 2025 | NOTÍCIAS, SLIDER | 0 Comentários

O ChatGPT tem sido uma das ferramentas mais utilizadas atualmente — e nos últimos dias, seu uso disparou ainda mais com as trends criativas que viralizaram nas redes sociais. Aqui mesmo no portal 67 Digital News, já ensinamos como aproveitar essas tendências de forma divertida e produtiva. Mas agora, é hora de ligar o alerta: por trás da praticidade, há sérios riscos de privacidade no uso do aplicativo.

Apesar de facilitar a vida de milhões de usuários, o ChatGPT funciona com base em uma estrutura de nuvem pública. Isso significa que as informações digitadas podem ser armazenadas, utilizadas para treinar o próprio sistema e, em alguns casos, revisadas por humanos. A criadora da ferramenta, a OpenAI, é transparente quanto a isso — não há garantias de que seus dados permanecerão privados.

Na prática, qualquer coisa que você escreve deve ser tratada como se estivesse sendo publicada em um mural público. E quando se trata de segurança digital, o cuidado precisa ser redobrado. Veja agora cinco tipos de informação que, segundo especialistas, nunca devem ser inseridos em um chatbot:

1. Solicitações ilegais ou antiéticas
Pedir que a IA execute ou ajude em ações ilegais pode resultar em consequências graves. Muitos países, inclusive o Brasil, já contam com leis específicas para o uso da inteligência artificial. Se a tentativa for detectada, os dados podem ser usados em processos legais.

2. Logins e senhas
Compartilhar dados de acesso — como senhas e logins — com o ChatGPT é extremamente arriscado. Já houve casos em que informações privadas apareceram em conversas de outros usuários. Uma vez expostos, esses dados podem ser explorados por terceiros.

3. Dados financeiros
Números de conta, cartão de crédito ou senhas bancárias devem ser compartilhados apenas em sistemas criptografados e protegidos. O ChatGPT não oferece essas garantias, o que pode expor você a golpes e perdas financeiras.

4. Informações sigilosas e corporativas
Inserir documentos da empresa, atas de reuniões, dados de clientes ou transações financeiras pode representar uma violação de confidencialidade. Em 2023, funcionários da Samsung enfrentaram esse problema após inserirem informações estratégicas no sistema.

5. Dados de saúde
Embora seja tentador buscar respostas rápidas com a IA sobre sintomas ou diagnósticos, compartilhar dados médicos representa riscos sérios, especialmente para profissionais da saúde. A exposição dessas informações pode configurar violação de sigilo e resultar em multas.

💡 A dica é simples: se você não se sentiria confortável em ver aquela informação publicada, melhor não colocá-la no ChatGPT. Privacidade online é um assunto sério — e manter o controle sobre seus dados é fundamental.

final_texto_post

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

/*** Collapse the mobile menu - WPress Doctor ****/