Vinicius Fonseca, governance manager da Iteris

O ChatGPT é realmente seguro?

Os golpes com o uso de IA podem ser regados com diálogos em tons realistas com as vítimas, bem escritos, coerentes e com menos erros de digitação

Autor: Vinícius Fonseca

Nos últimos meses, o ChatGPT se tornou o assunto do momento e à medida que essa tecnologia avança e desperta a vontade de vários setores em usá-la em seus negócios, a discussão sobre sua segurança e eficácia também aumenta. É claro que estamos diante de algo revolucionário que pode ser um auxílio para vários setores do mercado, mas antes de dar um passo à frente e apostar tudo nessa inteligência artificial, é necessário ser muito cauteloso.

Primeiro, precisamos entender que a OpenAI criou este modelo de linguagem de inteligência artificial chamado “GPT”, ou “Generative Pre-trained Transformer”. Este modelo utiliza técnicas avançadas de deep learning e redes neurais para gerar textos completos, possuindo uma linguagem natural muito próxima da humana. O GPT é capaz de responder perguntas, escrever textos criativos, traduzir ou resumir artigos, escrever códigos e realizar inúmeras tarefas.

No entanto, como é disponibilizado atualmente, o GPT não está sendo continuamente treinado em tempo real utilizando o conteúdo das nossas interações com ele. Logo na primeira tela da ferramenta é possível checar o histórico das conversas, que é salvo para que seja possível retomar o assunto entre sessões ou mesmo para consultar sobre o que foi conversado.

Foi exatamente parte desse conteúdo que, no início desse ano, foi vazado devido a um bug do ChatGPT. Algumas semanas depois, foram identificados conteúdos confidenciais, como códigos-fonte e transcrições de reuniões, que funcionários da Samsung teriam submetido ao serviço. Além disso, em março, houve o vazamento das informações de cartões de crédito de 1,2% dos usuários assinantes do serviço ChatGPT. E esses incidentes fizeram com que a Itália proibisse o uso dessa tecnologia no país – ainda que a utilização da API diretamente esteja liberada.

Estamos em perigo?

Infelizmente, mesmo diante de algo revolucionário e que pode beneficiar um número grande de pessoas, o ChatGPT pode ser usado de maneira errada dependendo de quem o controla. Os cibercriminosos utilizam a ferramenta para escrever códigos maliciosos, criar e-mails falsos e alterar o tom das mensagens enviadas. Ou seja, essa tecnologia se torna um prato cheio para os hackers.

A Europol alertou sobre o potencial uso indevido do ChatGPT em tentativas de phishing, desinformação e crimes cibernéticos, reforçando as manifestações de preocupações que vão desde questões legais a éticas. E ainda deixou claro que a capacidade do Chat GPT de produzir texto com som autêntico em velocidade e escala também o torna uma ferramenta ideal para propaganda e desinformação.

Os golpes com o uso de inteligência artificial são regados de diálogos com as vítimas, em tons realistas, bem escritos, coerentes e com menos erros de digitação. Portanto, o cuidado precisa ser redobrado, já que a partir de algumas perguntas feitas ao ChatGPT, criminosos que possuem pouco conhecimento técnico conseguem automatizar um ataque de rede através de códigos lançados pela ferramenta.

É necessário estar em alerta

O avanço tecnológico é algo natural e traz inúmeros benefícios à sociedade. Entretanto, ele não nos deixa livres dos ataques que podem ocorrer no ambiente online. No caso do ChatGPT, ainda é necessário trabalhar para oferecer um modelo que seja mais seguro para todos.

Enquanto isso ainda não acontece, a melhor maneira de evitar ser enganado por um robô ou ser vítima de algum tipo de ataques é estando alerta aos sinais. Evite links suspeitos, verifique se o número da mensagem é o da empresa, fique atento aos conteúdos e não realize downloads suspeitos.

No ambiente online, todo cuidado é pouco!

Vinicius Fonseca é governance manager da Iteris.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima