Quase metade dos CEOs acredita que a I.A pode destruir a humanidade
O debate da inteligência artificial ganhou mais um capítulo. Em uma pesquisa envolvendo líderes empresariais dos Estados Unidos, é demonstrado que os CEOs estão receosos sobre o risco que a Inteligência Artificial pode apresentar para a humanidade em 5 a 10 anos, com alguns deles falando em destruição.
Veja também: Ainda tem medo da Inteligência Artificial? 5 usos dela provam o contrário
A pesquisa foi realizada em um evento virtual pelo Instituto de Liderança do Diretor Executivo, sendo este organizado por Jeffrey Sonnenfeld, professor da Yale e especialista em IA.
Quase metade dos CEOs entrevistados acreditam que a I. A. pode destruir humanidade
Com uma alta porcentagem, 42% dos diretores executivos entrevistados realmente acreditam que a Inteligência Artificial destruirá a humanidade dentro de 5 a 10 anos.
No total, foram 119 CEOs incluídos, com respostas envolvendo nomes como o CEO do Walmart, Doug McMillion, o CEO da Coca-Cola, James Quincy, e os líderes de empresas de TI como Xerox e Zoom. 58% não acreditam que a destruição da humanidade nunca poderia acontecer e afirmam não estar preocupados.
Por outro lado, 34% dos CEOs disseram que a IA poderia potencialmente destruir a humanidade em dez anos. Com uma visão mais pessimista, 8% comentam que poderia acontecer em um período de 5 anos.
Não é a primeira vez: especialistas em IA já alertam o risco
A porcentagem assustadora chega logo após alguns líderes da indústria de IA e acadêmicos se juntarem ao assinar uma declaração sobre o risco de extinção da IA.
“Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, foi expresso na declaração.
Entre os assinantes, está o CEO da OpenAI, Sam Altman, Geoffrey Hinton, considerado o “padrinho de IA”, e até mesmo Bill Gates. O posicionamento foi feito no site Center for AI Safety, uma organização sem fins lucrativos de pesquisa e desenvolvimento de campo com sede em São Francisco.
Em sua página, é comentado que o seu objetivo é “reduzir os riscos de escala social associados à IA, realizando pesquisas de segurança, desenvolvendo o campo de pesquisadores de segurança de IA e defendendo padrões de segurança.”
Veja a matéria original no R7