Tenable descobre falha de segurança no GPT-5 do ChatGPT

ago 19, 2025 by

O GPT-5 foi apresentado pela OpenAI como seu modelo de linguagem mais avançado, com melhorias substanciais em precisão, velocidade e compreensão de contexto, além de um novo sistema de segurança para evitar usos indevidos. Apesar disso, a equipe da Tenable Research conseguiu realizar um “jailbreak” (processo de remover restrições impostas) no sistema usando uma técnica conhecida como crescendo, obtendo respostas que violam os princípios de segurança anunciados.

O episódio demonstra que, mesmo com avanços declarados na proteção contra solicitações nocivas, ainda é possível explorar vulnerabilidades e usar modelos de IA generativa para fins maliciosos.

Caso serve de alerta
Para Alejandro Dutto, diretor de engenharia de segurança cibernética para América Latina e Caribe da Tenable, o teste comprova que, apesar das inovações anunciadas, ainda existem brechas que podem ser exploradas para burlar mecanismos de segurança. “É fundamental que as organizações monitorem e controlem o uso dessas ferramentas, garantindo que a adoção de IA seja feita de forma responsável e alinhada às normas de segurança e compliance”, afirma.

Segundo o executivo, este caso serve como um alerta importante para empresas e instituições que utilizam modelos de IA: confiar apenas nas barreiras técnicas fornecidas por terceiros pode não ser suficiente. Ele afirma ainda ser fundamental implementar políticas internas claras, treinar equipes sobre riscos e comportamentos seguros, além de manter um acompanhamento constante do uso dessas ferramentas.

A descoberta reforça que a segurança na IA não é um ponto de chegada, mas um processo contínuo, que exige vigilância, avaliação constante de riscos e atualização das estratégias de proteção para acompanhar a velocidade das inovações tecnológicas.

João Monteiro, IP News, 18 de agosto de 2025

Artigos relacionados

Tags

Compartilhe

Comente

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *