ChatGPT pode ser enganado para criar códigos maliciosos, diz estudo
ChatGPT não foi o único: outras cinco IAs foram manipuladas para fornecer códigos que levariam a hacks e outros riscos
Os chatbots e outros serviços de inteligência artificial são testados incansavelmente para descobrir possíveis falhas perigosas antes de ser lançados. Um estudo da Universidade de Sheffield, na Inglaterra, descobriu que, mesmo assim, muitos programas de IA continuam vulneráveis e talvez nem as empresas desenvolvedoras saibam disso. A pesquisa mostrou como bastam algumas perguntas para que esses sistemas ajudem na produção de hacks para fins maliciosos, inclusive o ChatGPT.
IA enganada
O estudo foi conduzido por membros do Departamento de Ciência da Computação da Universidade e demonstrou como sistemas Text-to-SQL, um tipo de IA que permite pesquisas em banco de dados online a partir de perguntas simples e direcionadas, podem ser enganados para quebrarem regras.
A investigação testou alguns casos e apontou que as tecnologias, quando corrompidas, ajudam no roubo de informações sensíveis, adulteram ou destroem bases de dados, e até derrubam serviços online
Segundo o site Tech Xplore, foram constatadas que seis plataformas de IA cederam a essa manipulação: ChatGPT, BAIDU-UNIT (uma plataforma chinesa de bate-papo inteligente usada em setores comerciais, como comércio eletrônico, telecomunicações e bancos), AI2SQL, AIHELPERBOT, Text2SQL e ToolSKE
Para enganar as IAs, bastou que os pesquisadores fizessem perguntas específicas e a tecnologia devolveu um código malicioso. Este, quando aplicado, poderia causar as consequências listadas.
ChatGPT e BAIDU hackeados
No BAIDU-UNIT, uma das plataformas que foi manipulada na pesquisa, forneceu informações confidenciais sobre seu próprio servidor. Isso, nas mãos erradas, poderia causar a queda do sistema inteiro.
Outro caso foi com o ChatGPT. Os cientistas explicaram como o perigo é ainda maior em casos em que as pessoas usam a IA para interagir com linguagens de programação ou banco de dados.
No ChatGPT, o estudo exemplificou um caso em que um enfermeiro de um hospital pode solicitar ao chatbot um código para interagir com o banco de dados de pacientes daquela instituição. No entanto, a depender das perguntas feitas para chegar nesse resultado, a resposta dada pelo programa, quando aplicada, pode desconfigurar o banco original (ou consequências mais graves).
Ainda, a equipe descobriu que os códigos fornecidos pelas IAs são suficientes para orquestrar ataques de backdoor, um tipo de ataque cibernético que explora vulnerabilidade de um sistema para controlá-lo.
Riscos e soluções para IA — inclusive o ChatGPT
Os pesquisadores apresentaram o estudo e, entre alguns dos pontos levantados, destacaram a importância de os usuários dos sistemas Text-to-SQL estarem cientes dos riscos da sua interação com a IA. Isso porque o comportamento dos modelos de linguagem para essas funções ainda é complexo e difícil de prever.
O Baidu, um dos casos estudados na pesquisa, já reconheceu as vulnerabilidades e recompensou financeiramente os cientistas. O ChatGPT também trabalhou para corrigir os problemas destacados em fevereiro deste ano.
A esperança dos pesquisadores é que, expondo essas falhas, mais usuários dos modelos de linguagem e desenvolvedoras estejam cientes de seus riscos, e trabalhem para mitigá-los.
Vitoria Lopes Gomez é redator(a) no Olhar Digital
Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.
Fonte: Portal Olhar Digital - Vitoria Lopes Gomez, editado por Bruno Capozzi