Ícone do site Gazeta do Cerrado

Febre na internet, robô capaz até de escrever livros pode causar danos; Veja seis coisas perigosas do ChatGPT

Lista aponta seis perigos que podem ser causados pelo robô ChatGPT, da empresa OpenAI — Foto – Getty Images

O ChatGPT é a nova febre da Internet. Sua capacidade de executar tarefas diversas — desde resolver operações matemáticas e planejar rotinas até escrever livros infantis — tem impressionado a web e feito o chatbot conquistar cada vez mais usuários. Em meio a tamanha empolgação com a novidade, é preciso deixar claro: a inteligência artificial da OpenAI não é perfeita e pode, inclusive, oferecer alguns perigos. Prova disso é que o ChatGPT já foi usado por hackers para gerar códigos maliciosos que facilitam a aplicação de golpes virtuais. Outra possibilidade é que pessoas mal-intencionadas usem o chatbot para criar campanhas de phishing.

Além disso, muitos estão usando o ChatGPT como uma espécie de Google, mas nem toda resposta gerada por ele é verdadeira, o que pode promover desinformação. Nesse sentido, vale ressaltar que a própria OpenAI informa que o chatbot “pode gerar informações incorretas, produzir instruções prejudiciais ou conteúdo tendencioso e tem conhecimento limitado do mundo e eventos após 2021”. A seguir, veja seis perigos do ChatGPT aos quais você deve prestar atenção.

1. O ChatGPT pode ser usado para criar códigos maliciosos

 

O ChatGPT pode ser usado para criar códigos maliciosos a partir de simples comandos, permitindo que hackers iniciantes — e até mesmo pessoas comuns, sem conhecimento de programação — criem armadilhas virtuais para atacar dispositivos de empresas e usuários comuns. Para a empresa de cibersegurança Check Point Research, isso pode alterar significativamente o cenário de ameaças cibernéticas.

Publicidade

ChatGPT pode tornar-se uma ferramenta útil para hackers aplicarem golpes na Internet; entenda — Foto: Reprodução/Unsplash/Clint Patterson

Em dezembro de 2022, pesquisadores da companhia identificaram publicações de hackers em fóruns clandestinos na dark web revelando que já usavam a ferramenta para praticar atividades fraudulentas e roubar dados pessoais. Segundo o site Bleeping Computer, ao receber um comando para criar um malware, o ChatGPT geralmente entrega o que foi solicitado. Somente em alguns casos ele alega que houve violação da política de conteúdo.

2. O ChatGPT pode ser usado para criar mensagens de phishing sem erros

 

Além dos riscos envolvendo malwares, o ChatGPT ainda pode servir como ferramenta para criar mensagens de e-mail de phishing sem erros de digitação, sofisticando a aplicação de golpes. Isso porque falhas na grafia das palavras e na sintaxe são comuns nesse tipo de fraude e servem como pistas identificar a armadilha, que consiste em criar mensagens falsas em nome de empresas ou serviços famosos com o objetivo de capturar dados bancários e pessoais das vítimas.

ChatGPT pode facilitar a criação de e-mails falsos usados para aplicar golpes de phishing — Foto: Reprodução/Bleeding Computer

Por isso, mesmo que a mensagem recebida tenha design e texto aparentemente perfeitos, é válido observar o endereço de e-mail do remetente. Na imagem acima, apesar de a comunicação visual do template ser bastante semelhante à do Twitter, o endereço de e-mail do remetente não tem ligação com a rede social. Em alguns casos, os golpistas mudam poucos caracteres ou os acrescentam, formando e-mails como “notify@twiiter.com”.

3. O ChatGPT pode ajudar a disseminar desinformação

 

A OpenAI admite que nem todas as informações encontradas no ChatGPT estão corretas, já que a ferramenta é alimentada com diferentes conteúdos da Internet. Além de não mostrar a fonte de suas respostas – o que dificulta a checagem do conteúdo –, o ChatGPT ainda pode contribuir para disseminar desinformação. Isso porque o chatbot é alimentado com conteúdos publicados somente até o ano de 2021. Ou seja, para responder às perguntas dos usuários, o software trabalha apenas com notícias, artigos e tuítes desatualizados, que foram disponibilizadas na web há mais de um ano.

Em teste feito pelo jornal O Globo, quando questionado sobre quem venceu as Eleições de 2022, o ChatGPT respondeu que o atual presidente do Brasil é Jair Messias Bolsonaro. Quando se perguntou sobre Luiz Inácio Lula da Silva, atual chefe do Executivo, a tecnologia apenas disse que ele presidiu o país entre 2003 e 2011.

4. O ChatGPT pode ajudar a disseminar preconceitos

 

O robô da OpenAI pode reproduzir preconceitos como racismo e machismo. Uma das hipóteses para isso é o fato de o software ter sido treinado com diferentes conteúdos disponíveis na Internet, incluindo posts em redes sociais com discurso de ódio. Vale lembrar que a própria OpenAI já fez alertas sobre a capacidade do ChatGPT de “produzir instruções prejudiciais ou conteúdo tendencioso”.

O robô ChatGPT pode favorecer a disseminação de preconceitos de gênero e raça — Foto: Getty Images/Bloomberg

Este, aliás, não é um problema exclusivo do chatbot, e acontece com muitas outras inteligências artificiais treinadas por aprendizado de máquina. Como se alimentam de informações produzidas por humanos, que têm seus próprios preconceitos, as IAs podem facilmente apresentar resultados enviesados.

5. O ChatGPT pode dificultar a identificação de plágio

 

Outro risco proporcionado pelo robô é aumentar a incidência de plágios, já que a ferramenta pode ser usada para escrever trabalhos escolares e acadêmicos. Existem, contudo, plataformas que permitem detectar se um texto foi escrito pelo ChatGPT. É o caso do OpenAI Detector (https://huggingface.co/spaces/openai/openai-detector), que é gratuito, mas ainda está em desenvolvimento.

ChatGPT pode facilitar o plágio, porque é capaz de criar textos convincentes para trabalhos — Foto: Divulgação/G1

Ainda assim, os conteúdos desenvolvidos pelo robô podem passar despercebidos por outros programas. Isso acontece porque o texto é feito a partir de vários outros textos disponíveis no banco de dados da inteligência artificial — ou seja, ele não é copiado inteiramente de uma única fonte. Para conseguir perceber o plágio, é preciso prestar atenção em algumas falhas deixadas pelo software, como a falta de referências externas ou a aparição de informações incoerentes.

De acordo com reportagem do jornal norte-americano The New York Times, o ChatGPT tem sido utilizado por alunos de escolas de Nova York e Seattle, tanto em salas do ensino fundamental quanto do ensino médio, para resolver tarefas e desenvolver trabalhos. Para evitar o mau uso da tecnologia, algumas escolas, inclusive, já proibiram o robô no Wi-Fi da instituição.

6. O ChatGPT pode ser convincente mesmo quando está errado

 

Um dos diferenciais do ChatGPT é a sua alta capacidade de interagir com os usuários e reproduzir, de forma muito fidedigna, a escrita e o estilo de linguagem humanos. Isso, no entanto, faz com que o robô pareça que está certo mesmo quando está errado. Outros chatbots, quando se deparam com uma pergunta cuja resposta não conhecem, informam ao usuário sobre o desconhecimento sobre o assunto. O ChatGPT, pelo contrário, é capaz de formular respostas com lógica e aparente coerência, o que pode enganar vários internautas e contribuir ainda mais com a disseminação de desinformação.

Fonte – TechTudo

 

 

Sair da versão mobile