07 de Março de 2026

'HackedGPT': empresa de segurança cibernética detecta falhas na 4ª versão da IA


A quarta versão do ChatGPT, da OpenAI, lançada em março de 2023, revolucionou a maneira como os usuários se conectam com a inteligência artificial generativa, ao demonstrar um nível de precisão muito superior aos antecessores. Apesar disso, o sistema não é imune a vulnerabilidades, como identificou um estudo da Tenable — empresa que gerencia riscos no ambiente virtual —, que elencou sete falhas nesse software.

Siga o canal do Correio no WhatsApp e receba as principais notícias do dia no seu celular

Conhecidas coletivamente como “HackedGPT”, essas vulnerabilidades podem expor os usuários a riscos de privacidade. Por meio dessas falhas, os hackers conseguem burlar os mecanismos de segurança integrados e, com isso, podem roubar, de maneira “silenciosa”, dados pessoais, incluindo chats e memórias armazenadas. Alguns dos problemas foram corrigidos pela OpenAI, com o GPT-5, lançado em agosto deste ano, mas ainda há vias expostas para os invasores.

Por meio de testes, os pesquisadores relataram que há duas maneiras convencionais que os ataques ocorrem: ataques de "0-clique" (0-click), onde simplesmente fazer uma pergunta ao ChatGPT desencadeia o comprometimento, e ataques de "1-clique" (1-click), onde clicar em um link malicioso ativa comandos ocultos. Para o engenheiro de Pesquisa Sênior da Tenable, Moshe Bernstein, o ‘“HackedGPT” expõe uma fraqueza fundamental em como os grandes modelos de linguagem julgam em qual informação confiar.

“Individualmente, essas falhas parecem pequenas, mas juntas formam uma cadeia de ataque completa, da injeção e evasão ao roubo de dados e persistência. Isso demonstra que os sistemas de IA não são apenas alvos potenciais, eles podem se tornar ferramentas de ataque que coletam informações silenciosamente de chats ou navegações cotidianas”, avalia o engenheiro.

Veja as sete vulnerabilidades identificadas pela pesquisa:

Recomendações de segurança

Diante dos potenciais riscos para os usuários, a Tenable aconselha os profissionais de segurança a tratar as ferramentas de IA como superfícies de ataque ativas, não como assistentes passivos e a auditar e monitorar as integrações de IA em busca de manipulação ou vazamento de dados.

Os pesquisadores também recomendam investigar solicitações ou saídas incomuns que possam indicar injeção de prompt (comando ou instrução), bem como testar e reforçar as defesas contra a injeção e as vias de exfiltração e estabelecer controles de governança e classificação de dados para o uso da IA.

“Esta pesquisa não é apenas sobre expor falhas, é sobre mudar a maneira como protegemos a IA. Pessoas e organizações precisam assumir que as ferramentas de IA podem ser manipuladas e criar controles de acordo. Isso significa governança, salvaguardas de dados e testes contínuos para garantir que esses sistemas trabalhem para nós, não contra nós”, acrescenta Bernstein.

Fonte: correiobraziliense

Participe do nosso grupo no whatsapp clicando nesse link

Participe do nosso canal no telegram clicando nesse link

Assine nossa newsletter
Publicidade - OTZAds
Whats

Utilizamos cookies próprios e de terceiros para o correto funcionamento e visualização do site pelo utilizador, bem como para a recolha de estatísticas sobre a sua utilização.