Início Atualidade Empresas Segurança em IA sob escrutínio após descoberta de vulnerabilidade invisível no ChatGPT

Segurança em IA sob escrutínio após descoberta de vulnerabilidade invisível no ChatGPT

Investigação revela vulnerabilidade em ChatGPT que expôs limites da segurança em IA e levanta riscos silenciosos para dados sensíveis

809
segurança em IA
Segurança em IA sob escrutínio após descoberta de vulnerabilidade invisível no ChatGPT - ®DR

A segurança em IA está no centro das preocupações digitais após a divulgação de uma nova investigação sobre vulnerabilidades em plataformas de inteligência artificial. A Check Point® Software Technologies Ltd. revelou, através da Check Point Research, a identificação de uma falha até agora desconhecida no ChatGPT, capaz de permitir a exfiltração silenciosa de dados sensíveis sem o conhecimento ou consentimento do utilizador.

A vulnerabilidade foi corrigida a 20 de fevereiro de 2026, não existindo evidência de exploração ativa. Ainda assim, o caso levanta questões estruturais sobre a robustez da segurança em IA e sobre a confiança depositada nestas tecnologias por empresas e utilizadores.

Vulnerabilidade em IA permitia exfiltração silenciosa de dados

A investigação demonstrou que um único prompt malicioso poderia transformar uma interação aparentemente legítima num canal encoberto de transmissão de dados. Informações como inputs do utilizador, ficheiros carregados e conteúdos gerados pela própria inteligência artificial podiam ser expostos sem qualquer alerta.

O ataque explorava um canal de comunicação baseado em DNS, contornando mecanismos tradicionais de proteção. Do ponto de vista do utilizador, a experiência mantinha-se inalterada, o que evidencia limitações práticas na deteção de ameaças associadas à segurança em IA.

Confiança na inteligência artificial pode estar desalinhada com o risco

A crescente utilização de IA generativa tem incentivado a partilha de informação sensível, incluindo dados financeiros, documentos internos e conteúdos estratégicos. Este comportamento assenta, em muitos casos, numa perceção de segurança que nem sempre corresponde à realidade.

A falha identificada não resultou de erro humano ou má configuração, mas sim de limitações estruturais da tecnologia. Este fator reforça a necessidade de maturidade nos modelos de segurança em IA, sobretudo num contexto de adoção acelerada.

Riscos ampliados com modelos de IA personalizados

A possibilidade de incorporar lógicas maliciosas em modelos personalizados representa um vetor adicional de risco. Nestes cenários, os utilizadores interagem com sistemas aparentemente fiáveis, sem sinais visíveis de comprometimento.

Num exemplo prático, um assistente virtual com função médica recolheu dados clínicos e pessoais enquanto garantia confidencialidade. Na realidade, essa informação era transmitida externamente, demonstrando fragilidades no controlo da segurança da inteligência artificial.

De fuga de dados a risco estrutural em plataformas de IA

A investigação revelou também que o mesmo vetor poderia permitir execução remota de comandos dentro do ambiente do ChatGPT. Esta possibilidade transforma um incidente de privacidade num risco estrutural ao nível da plataforma.

As plataformas de IA devem, assim, ser encaradas como ambientes completos de computação, exigindo abordagens integradas de proteção e uma visão mais abrangente da segurança em IA.

Impacto crítico em setores regulados

Organizações em setores como saúde, serviços financeiros e administração pública enfrentam riscos acrescidos. Uma violação de dados através de sistemas de IA pode resultar em incumprimento regulatório, perdas financeiras e danos reputacionais significativos.

Neste contexto, a integração da segurança em IA no perímetro de segurança organizacional torna-se essencial, com níveis de controlo equivalentes aos aplicados a sistemas críticos.

Segurança em IA exige nova abordagem estratégica

Apesar da correção da vulnerabilidade, a sua descoberta evidencia desafios mais profundos. A evolução da inteligência artificial está a alterar o paradigma da cibersegurança, exigindo adaptação contínua.

A segurança em IA assume um papel central na gestão de risco digital, com foco na antecipação de vulnerabilidades e no reforço da resiliência das infraestruturas tecnológicas.

Reforçar a proteção na era da inteligência artificial

A mitigação de riscos associados à IA exige uma abordagem estruturada e contínua. Monitorização de fluxos de dados, controlo de acessos, validação independente e múltiplas camadas de proteção são práticas cada vez mais relevantes.

Num cenário de crescente dependência tecnológica, a forma como a segurança em IA é implementada poderá determinar não apenas a proteção de dados, mas também a confiança sustentada nas soluções de inteligência artificial.

aNOTÍCIA.pt