Novo sistema que confunde as inteligências artificiais está em desenvolvimento e anima artistas – Notícias
Uma nova ferramenta permite aos artistas “envenenarem” obras, para que as inteligências artificiais não se baseiem nelas nem roubem partes delas. A novidade está sendo desenvolvida por pesquisadores da Universidade de Chicago, nos EUA.
Conhecido como Nightshade, o programa também tem sido observado pelo MIT Technology Review. Ele funciona alterando pixels de uma forma invisível ao olho humano, mas que adultera a arte para qualquer robô que deseje utilizá-la para algum fim.
• Clique aqui e receba as notícias do R7 no seu WhatsApp
• Compartilhe esta notícia pelo WhatsApp
• Compartilhe esta notícia pelo Telegram
Os desenvolvedores explicam que esse sistema faz com que as IAs aprendam os nomes errados dos objetos e cenários que estão olhando. Por exemplo, os pesquisadores incluíram informações em imagens de cães que os faziam parecer gatos aos robôs.
O software também foi testado em sites geradores de textos e funcionou perfeitamente, fazendo com que palavras fossem trocadas ou confundidas.
“A esperança é que isso ajude a inclinar o equilíbrio de poder das empresas de IA em direção aos artistas, criando um poderoso impedimento contra o desrespeito aos direitos autorais e à propriedade intelectual dos artistas”, escreveu o MIT em artigo sobre a ferramenta.
Desde o início da era das big datas, vários pintores, compositores e até mesmo produtoras entraram com ações judiciais contra companhias de tecnologia, como a OpenAI, empresa do ChatGPT, para tentar evitar plágios ou a criação de trabalhos concorrentes por meio de IA.
Inteligência artificial ‘imagina’ como seriam animais robóticos espiões em miniatura
Veja a matéria original no R7
Veja mais em