Hackers apoiados pela Rússia, China e Irã usaram ferramentas de inteligência artificial OpenAI, empresa aprimorada pela Microsoft , para aprimorar suas habilidades e enganar seus alvos, de acordo com um relatório publicado nesta quarta-feira.
A Microsoft disse em seu relatório que havia grupos de hackers afiliados à inteligência militar russa, à Guarda Revolucionária do Irã e aos governos chinês e norte-coreano que tentavam aperfeiçoar suas campanhas de hacking usando grandes modelos de linguagem.
Esses programas de computador, geralmente chamados de inteligência artificial, utilizam grandes quantidades de texto para gerar respostas que parecem humanas.
A empresa anunciou a descoberta ao implantar uma exclusão geral a grupos de hackers apoiados pelo estado que utilizam seus produtos de IA.
“Independentemente de haver qualquer violação da lei ou qualquer violação dos termos de serviço, simplesmente não queremos que esses atores que se identificam –que rastreamos e sabemos que são atores de ameaças de vários tipos– não queremos que eles tenham acesso a essa tecnologia” , disse o vice-presidente de segurança do cliente da Microsoft, Tom Burt, à Reuters, em uma entrevista antes da divulgação do relatório.
Autoridades diplomáticas russas, norte-coreanas e iranianas não retornaram imediatamente mensagens solicitando comentários sobre as observações.
O porta-voz da embaixada chinesa nos Estados Unidos, Liu Pengyu, disse que se opõe a “difamações e acusações infundadas contra a China” e defendeu a implantação “segura, confiável e controlável” da tecnologia de IA para “melhorar o bem-estar comum de toda a humanidade”.
A alegação de que hackers apoiados pelo Estado foram pegos usando ferramentas de IA para ajudar a exercer suas capacidades de espionagem provavelmente enfatizará as preocupações sobre a rapidez de vigilância da tecnologia e seu potencial de abuso.
“Esse é um dos primeiros, se não o primeiro, casos em que uma empresa de IA se manifesta e discute publicamente como os agentes de ameaças à segurança cibernética usam as tecnologias de IA”, disse Bob Rotsted, que lidera a inteligência de ameaças à segurança cibernética na OpenAI.
A OpenAI e a Microsoft descreveram o uso que os hackers fizeram de suas ferramentas de IA como “estágio inicial” e “incremental”. Burt disse que nenhum dos dois viu espiões cibernéticos fazendo avanços.