IA já consegue te “passar a perna” com facilidade; alerta pesquisa
Relatório revela que a inteligência artificial (IA) aprende como enganar humanos, mesmo quando é treinada para ser honesta
Já sabemos que a inteligência artificial (IA) é capaz de mentir, mas ela poderia de fato enganar os humanos? Um novo relatório publicado na revista Patterns aponta que mesmo sendo treinada para ser honesta, sistemas de IA aprendem como “passar a perna” na gente.
No documento, os especialistas alertam sobre os riscos de fraude envolvendo as IAs e também pedem por medidas regulatórias aos governos.
A IA está aprimorando capacidade de enganar humanos
- Cientistas analisaram a literatura sobre como as IAs conseguem propagar informações falsas por meio da enganação.
- Um dos casos que mais chamou atenção foi o do CICERO, IA projetada pela Meta para jogar o game Diplomacia.
- Segundo os especialistas, a IA se tornou uma “mestra do engano” mesmo a empresa afirmando que a treinou para ganhar honestamente.
- Esse não é um caso isolado. Em outros jogos, IAs conseguiram blefar, fingir ataques e alterar preferências para ganhar vantagem em negociações.
- Até nas simulações de testes de segurança, encontraram formas de enganar. Em uma projetada para eliminar replicações dos modelos, a IA se “fingiu de morta” na tentativa de burlar o sistema.
- Os especialistas estão preocupados com os possíveis avanços da IA na aprendizagem de manipular e enganar os humanos.
Por que as IAs aprendem a enganar humanos?
Ainda não existe uma explicação completa sobre como e por que as IAs estão se tornando menos confiáveis. No entanto, a equipe acredita que de modo geral o comportamento é uma consequência de treinamentos baseados no engano. Esse tipo de estratégia é a melhor forma de fazer um sistema de inteligência agir como necessário ou conforme o objetivo do projeto.
Os riscos e como impedir problemas no futuro
A princípio, a inteligência artificial enganosa facilita fraudes e interferências eleitorais. Se continuar a aprimorar essa habilidade, existe uma possibilidade de perda de controle humano sobre os sistemas.
Embora reconheçam o início de medidas políticas que podem controlar a situação, como a Lei da IA da UE e a Ordem Executiva da IA de Biden, os cientistas questionam a eficácia diante da falta de técnicas para controlar os sistemas. Sugerem classificar as IAs enganosas como de alto risco caso seja politicamente inviável impedir a forma de atuação dessa tecnologia.
Nayra Teles é estudante de jornalismo na Universidade Anhembi Morumbi (UAM) e redatora no Olhar Digital
Fonte: Portal Olhar Digital - Nayra Teles