O que a demissão e a reintegração de Sam Altman representam para o futuro da IA? – Notícias
As últimas semanas foram caóticas para a OpenAI, criadora do ChatGPT, e seu cofundador, Sam Altman. Ele, que ajudou a fundar a OpenAI como um laboratório de pesquisa sem fins lucrativos em 2015, foi destituído do cargo de CEO e demitido em 17 de novembro, em uma saída repentina e sem maiores explicações que surpreendeu o setor. E embora ele tenha logo sido reintegrado à função, poucos dias depois, muitas questões permanecem no ar.
Se você está chegando agora à saga da OpenAI e tentando entender o que está em jogo para todo o espaço da inteligência artificial, você veio ao lugar certo. Aqui está um resumo do que é preciso saber.
Quem é Sam Altman e como ele alcançou a fama?
Altman é cofundador da OpenAI, uma empresa com sede em São Francisco que está por trás do ChatGTP (ele mesmo, o chatbot que parece estar por toda parte atualmente, das escolas às instituições de saúde).
A explosão do ChatGPT desde sua chegada, um ano atrás, colocou Altman no centro das atenções da rápida comercialização da inteligência artificial (IA) generativa – que pode produzir novas imagens, textos e outros tipos de mídia. E ao se tornar a voz mais procurada do Vale do Silício para falar sobre as promessas e os potenciais riscos dessa tecnologia, ele ajudou a transformar a OpenAI em uma startup de renome mundial.
Mas seu cargo na empresa enfrentou reviravoltas difíceis no turbilhão das últimas semanas. Altman foi demitido como CEO em 17 de novembro e, dias depois, estava de volta ao posto com um novo conselho administrativo.
Nesse período, a Microsoft, que investiu bilhões de dólares na OpenAI e tem direitos sobre a tecnologia já existente, ajudou a impulsionar o retorno de Altman e o contratou rapidamente, e também a outro cofundador e ex-presidente da OpenAI, Greg Brockman, que se demitiu em protesto após a destituição do CEO. Enquanto isso, centenas de funcionários da OpenAI ameaçaram se demitir.
Altman e Brockman comemoraram sua volta à empresa com publicações na X, a plataforma anteriormente conhecida como Twitter, na manhã do dia 29.
Por que sua destituição – e seu retorno – importam?
Ainda há muito que não se sabe sobre a remoção inicial de Altman. O anúncio da demissão dizia que ele “não era consistentemente sincero em sua comunicação” com o então conselho administrativo, que, porém, se recusou a oferecer detalhes mais específicos.
A despeito disso, a notícia repercutiu em todo o mundo da IA – e, como a OpenAI e Altman são atores tão relevantes nesse espaço, isso poderia criar questões de confiabilidade em relação a uma tecnologia em crescimento que ainda desperta dúvidas em tantas pessoas.
“O episódio da OpenAI mostra como o ecossistema da IA ainda é frágil, inclusive em relação aos riscos da IA”, diz Johann Laux, especialista do Instituto de Internet de Oxford com foco na supervisão humana sobre a inteligência artificial.
A turbulência também acentuou as diferenças entre Altman e integrantes do antigo conselho administrativo da empresa, que manifestaram opiniões diversas sobre os riscos de segurança trazidos pela IA à medida que a tecnologia avança.
Muitos especialistas consideram que todo esse drama só reforça como as decisões sobre a regulação da IA deveriam estar sendo tomadas pelos governos, e não pelas grandes empresas de tecnologia, principalmente em relação a tecnologias de desenvolvimento rápido como a IA generativa.
“Os eventos dos últimos dias não apenas comprometeram a tentativa da OpenAI de introduzir uma governança corporativa mais ética na gestão da empresa, mas também mostram que governança corporativa por si só, mesmo que bem-intencionada, pode facilmente acabar sendo canibalizada por outras dinâmicas e interesses corporativos”, diz Enza Iannopollo, analista principal na consultoria Forrester.
A lição, segundo ele, é que as empresas sozinhas não têm condições de oferecer o nível de segurança e confiabilidade da IA de que a sociedade precisa. “Regras e salvaguardas, pensadas com as empresas e aplicadas com rigor pelos órgãos reguladores, são essenciais se quisermos nos beneficiar da IA”, diz Iannopollo.
O que é IA Generativa? Como ela está sendo regulada?
Ao contrário da IA tradicional, que processa dados e completa tarefas usando regras pré-determinadas, a IA generativa (incluindo chatbots como o ChatGPT) pode criar coisas novas.
As empresas de tecnologia ainda estão no comando no que diz respeito ao controle da IA e de seus riscos, enquanto os governos de todo o mundo tentam se atualizar.
Na União Europeia, os negociadores estão dando os últimos retoques nas normas que devem compor a primeira regulação abrangente sobre IA no mundo. Mas eles teriam se atrapalhado na discussão sobre a possibilidade e a forma de incluir os produtos de IA mais controversos e revolucionários, os grandes modelos de linguagem comercializados que sustentam os sistemas de IA generativa, inclusive o ChatGPT.
Os chatbots mal eram mencionados quando Bruxelas apresentou pela primeira vez o projeto de legislação em 2021, que se debruçava sobre a IA de usos específicos. Mas as autoridades vêm se apressando para entender como incorporar esses sistemas, também conhecidos como modelos fundacionais, na versão final.
Enquanto isso, nos EUA, o presidente Joe Biden assinou um ambicioso decreto no mês passado tentando equilibrar as necessidades das empresas de tecnologia de ponta com a segurança nacional e os direitos do consumidor.
O decreto, que provavelmente precisará ser ampliado por ação do Congresso, é um passo inicial que visa a garantir que a IA seja confiável e útil, e não maliciosa e destrutiva. Busca orientar como a IA é desenvolvida, para que as empresas possam lucrar sem colocar em risco a segurança pública.
Veja a matéria original no R7
Veja mais em