Investigadores em segurança cibernética demonstraram que é possível extrair informações confidenciais de utilizadores do ChatGPT ao explorar uma vulnerabilidade nos conectores que permitem ligar a inteligência artificial da OpenAI a serviços externos como Google Drive, Gmail, Outlook ou Dropbox.
Vulnerabilidade atinge conectores da OpenAI
A falha foi apresentada em Las Vegas, durante a conferência Black Hat, na quarta-feira, 6 de agosto. Michael Bargury e Tamir Ishay Sharbat mostraram que os conectores — função que permite ao ChatGPT aceder a mais de 15 plataformas consoante o tipo de conta — podem ser utilizados para recolher dados sem interação direta do utilizador.
Só é necessário o endereço de correio eletrónico da vítima. Com esse dado, os atacantes partilham um documento armazenado, por exemplo, no Google Drive. Assim que o ficheiro é aberto, o ChatGPT recebe instruções ocultas que ativam o processo de recolha de dados sensíveis, como chaves API.
Ataque recorre a injeção de prompt oculta
O método de exploração baseia-se numa técnica de injeção de prompt. Dentro do documento partilhado, os investigadores inseriram um texto com aproximadamente 300 palavras em fonte tamanho 1 e cor branca, invisível ao utilizador. Quando o titular da conta pede à IA para resumir o conteúdo, o modelo de linguagem interpreta as instruções escondidas.
Essas instruções determinam que o ChatGPT pesquise, no serviço cloud associado, informações sensíveis e as anexe a um endereço indicado no final do texto oculto. A URL, formatada em Markdown, estabelece ligação a um servidor externo controlado pelos atacantes, para onde é enviada uma imagem que incorpora os dados extraídos.
A técnica permite retirar apenas uma quantidade limitada de informação de cada vez e não possibilita o descarregamento integral dos ficheiros. Apesar dessa limitação, Bargury realçou que se trata de um ataque «zero-clique»: o utilizador não precisa de seguir qualquer link nem de executar ações adicionais para que os dados sejam comprometidos.
Impacto e resposta da OpenAI
A apresentação chama a atenção para o risco crescente associado aos grandes modelos de linguagem quando ligados a fontes externas. Embora a integração amplie as capacidades da IA, também amplia a superfície de ataque, sobretudo perante técnicas de injeção indireta de prompts que contornam filtros tradicionais de segurança.

Imagem: tecmundo.com.br
Os investigadores comunicaram a vulnerabilidade à OpenAI no início do ano. Segundo Bargury, a empresa introduziu ajustes destinados a mitigar o problema e impedir a repetição do exemplo demonstrado. Até ao momento, não há registo público de incidentes reais que explorem a falha.
Mesmo com correções, os especialistas sublinham que a ameaça persiste caso os modelos de linguagem não sejam protegidos por filtros robustos e verificações adicionais à entrada de dados. Empresas que recorrem a conectores devem reforçar políticas de segurança, limitar privilégios das aplicações e monitorizar o acesso a conteúdos sensíveis.
Recomendações para utilizadores e organizações
Para reduzir a exposição, os utilizadores devem:
- Rever permissões concedidas ao ChatGPT e a serviços associados.
- Avaliar a origem de documentos recebidos, mesmo quando partilhados por contactos conhecidos.
- Evitar pedidos de resumo ou análise de ficheiros cujo conteúdo não foi verificado.
Já as organizações podem:
- Implementar controlos de acesso baseados em funções, minimizando o número de contas com privilégios elevados.
- Adotar ferramentas de deteção de prompts maliciosos em documentos e mensagens.
- Formar colaboradores sobre boas práticas de utilização de IA generativa e riscos de partilhas inadvertidas.
A demonstração em Las Vegas reforça a necessidade de equilibrar a conveniência dos conectores com medidas de segurança proporcionais. À medida que a integração entre IA e serviços cloud se torna mais comum, a monitorização de instruções ocultas e o aperfeiçoamento de filtros semânticos surgem como componentes críticos para prevenir fugas de informação.

Olá! Meu nome é Zaira Silva e sou a mente inquieta por trás do soumuitocurioso.com.
Sempre fui movida por perguntas. Desde pequena, queria saber como as coisas funcionavam, por que o céu muda de cor, o que está por trás das notícias que vemos todos os dias, ou como a tecnologia está transformando o mundo em silêncio, aos poucos. Essa curiosidade virou meu combustível — e hoje, virou um blog inteiro.