Bem vindo ao site de contabilidade da Zacher Contadores

Área do Cliente

Área do administrador

Cibercriminosos despistam as restrições do ChatGPT para criar malware

Nos fóruns da Dark Web, os cibercriminosos já estão compartilhando guias e ferramentas que mostram como contornar as restrições e barreiras dos desenvolvedores OpenAI

A Check Point Research (CPR), divisão de Inteligência em Ameaças da Check Point® Software Technologies Ltd. (NASDAQ: CHKP), uma fornecedora líder de soluções de cibersegurança global, descobriu que os cibercriminosos aumentaram o uso de bots do Telegram com o objetivo de criar uma nova metodologia que gerenciam para contornar as restrições de antiabuso do ChatGPT e outras ferramentas baseadas na OpenAI. O principal objetivo é poder usar esses recursos para depurar e melhorar o código malicioso.

Ciente desse problema, a OpenAI atualizou sua política de conteúdo, criando barreiras e restrições para tentar impedir a criação de conteúdo malicioso. Várias restrições foram colocadas na interface do usuário do ChatGPT para evitar seu uso inapropriado. Por exemplo, a partir de agora a IA não irá gerar respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing que tentem se fazer passar por um banco ou outras entidades.

No entanto, os cibercriminosos já estão trabalhando para contornar as restrições do ChatGPT. Como a equipe de pesquisadores da Check Point Research detectou, atualmente há muita atividade em fóruns clandestinos, onde as pessoas falam sobre como usar a API OpenAI para superar as barreiras e limitações dessas ferramentas, destacando um modelo com foco na criação e distribuição do de bots do Telegram que emulam a API ChatGPT.

Especificamente, a CPR detectou anúncios de bots do Telegram em fóruns clandestinos. Os bots utilizam a API da OpenAI para permitir que um atacante crie e-mails ou códigos maliciosos. Os criadores do bot concedem até 20 consultas gratuitas, mas cobram US$ 5,50 por cada 100 consultas. Um custo praticamente zero em comparação com os altos lucros obtidos com esse tipo de ataque cibernético.

Os cibercriminosos continuam sua exploração sobre como usar o ChatGPT para desenvolver malware e e-mails de phishing. À medida que os controles implementados pelo ChatGPT melhoram, eles encontram novas maneiras de usar os modelos OpenAI.

“Como parte de sua política de conteúdo, a OpenAI criou barreiras e restrições para impedir a criação de conteúdo malicioso em sua plataforma. No entanto, verificamos cibercriminosos contornando as restrições do ChatGPT, e há conversas ativas nos fóruns clandestinos revelando como usar a API OpenAI para contornar as barreiras e limitações do ChatGPT. Isso é feito principalmente criando bots do Telegram que usam a API, e esses bots são anunciados em fóruns de hackers para aumentar sua exposição”, detalha Sergey Shykevich, gerente do Grupo de Ameaças da Check Point Software.

Shykevich explica ainda que a versão atual da API do OpenAI é usada por aplicativos externos e possui muito poucas medidas antiabuso em vigor. Como resultado, permite a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu em sua interface de usuário. “No momento, estamos vendo esforços contínuos de cibercriminosos para encontrar maneiras de despistar as restrições do ChatGPT.”