O que o caso Sam Altman representa para o futuro da inteligência artificial?
As últimas semanas foram caóticos para a OpenAI, criadora do ChatGPT, e seu cofundador, Sam Altman.
Altman, que ajudou a fundar a OpenAI como um laboratório de pesquisa sem fins lucrativos, em 2015, foi demitido do cargo de CEO em 17 de novembro, em uma saída repentina e sem maiores explicações. Embora ele tenha logo sido reintegrado à função, poucos dias depois, muitas questões permanecem no ar.
Se o leitor de Oeste está chegando agora à saga da OpenAI e tentando entender o que está em jogo para todo o espaço da inteligência artificial, aqui é o lugar certo. Acompanhe o resumo abaixo.
Quem é Sam Altman e como ele alcançou a fama?
Altman é cofundador da OpenAI, uma empresa com sede em São Francisco que está por trás do ChatGTP (o chatbot que parece estar por toda parte atualmente, das escolas às instituições de saúde).
A explosão do ChatGPT, desde sua chegada, um ano atrás, colocou Altman no centro das atenções da rápida comercialização da inteligência artificial (IA) generativa — que pode produzir novas imagens, textos e outros tipos de mídia. E, ao se tornar a voz mais procurada do Vale do Silício para falar sobre as promessas e sobre os potenciais riscos dessa tecnologia, Altman ajudou a transformar a OpenAI em uma startup de renome mundial.
Leia também: “Fundador da OpenAI, Sam Altman concorda em voltar ao posto de CEO da empresa”
Mas seu cargo na empresa enfrentou reviravoltas difíceis no turbilhão das últimas semanas. Altman foi demitido como CEO na sexta-feira 17 e, dias depois, estava de volta ao posto com um novo conselho administrativo.
Nesse período, a Microsoft, que investiu bilhões de dólares na OpenAI e tem direitos sobre a tecnologia já existente, ajudou a impulsionar o retorno de Altman e o contratou rapidamente. Também contratou outro cofundador e ex-presidente da OpenAI, Greg Brockman, que se demitiu em protesto depois da destituição do CEO. Enquanto isso, centenas de funcionários da OpenAI ameaçaram se demitir.
Altman e Brockman comemoraram sua volta à empresa com publicações no Twitter/X, na manhã de quarta-feira, 29.
Por que a destituição e seu retorno importam?
Ainda há muito que não se sabe sobre a remoção inicial de Altman. O anúncio da sexta-feira 17 dizia que o cofundador da OpenAI “não era consistentemente sincero em sua comunicação” com o então conselho administrativo.
A despeito disso, a notícia repercutiu em todo o mundo da IA — e, como a OpenAI e Altman são atores tão relevantes nesse espaço, isso poderia criar questões de confiabilidade em relação a uma tecnologia em crescimento, que ainda desperta dúvidas em tantas pessoas.
“O episódio da OpenAI mostra como o ecossistema da IA ainda é frágil, inclusive em relação aos riscos da IA”, diz Johann Laux, especialista do Instituto de Internet de Oxford com foco na supervisão humana sobre a inteligência artificial.
A turbulência também acentuou as diferenças entre Sam Altman e integrantes do antigo conselho administrativo da empresa, que manifestaram opiniões diversas sobre os riscos de segurança trazidos pela IA à medida que a tecnologia avança.
Muitos especialistas consideram que todo esse drama só reforça como as decisões sobre a regulação da IA deveriam estar sendo tomadas pelos governos, e não pelas grandes empresas de tecnologia, principalmente em relação a tecnologias de desenvolvimento rápido, como a IA generativa.
“Os eventos dos últimos dias não apenas comprometeram a tentativa da OpenAI de introduzir uma governança corporativa mais ética na gestão da empresa, mas também mostram que governança corporativa por si só, mesmo que bem-intencionada, pode facilmente acabar sendo canibalizada por outras dinâmicas e interesses corporativos”, diz Enza Iannopollo, analista principal na consultoria Forrester.
+ Leia mais notícias de Tecnologia em Oeste
A lição, segundo ele, é que as empresas sozinhas não têm condições de oferecer o nível de segurança e confiabilidade da IA de que a sociedade precisa. “Regras e salvaguardas, pensadas com as empresas e aplicadas com rigor pelos órgãos reguladores, são essenciais se quisermos nos beneficiar da IA”, diz Iannopollo.
O que é IA Generativa? Como ela está sendo regulada?
Ao contrário da IA tradicional, que processa dados e completa tarefas usando regras pré-determinadas, a IA generativa (incluindo chatbots) pode criar coisas novas.
As empresas de tecnologia ainda estão no comando no que diz respeito ao controle da IA e de seus riscos, enquanto os governos de todo o mundo tentam se atualizar.
Na União Europeia, os negociadores estão dando os últimos retoques nas normas que devem compor a primeira regulação abrangente sobre IA no mundo. Mas eles teriam se atrapalhado na discussão sobre a possibilidade e sobre a forma de incluir os produtos de IA mais controversos e revolucionários — os grandes modelos de linguagem comercializados, que sustentam os sistemas de IA generativa, inclusive o ChatGPT.
Leia também: “Manual prático do ChatGPT”, artigo de Dagomir Marquezi publicado na Edição 180 da Revista Oeste
Os chatbots mal eram mencionados quando Bruxelas apresentou, pela primeira vez, o projeto de legislação, em 2021, que se debruçava sobre a IA de usos específicos. Mas as autoridades vêm se apressando para entender como incorporar esses sistemas, também conhecidos como modelos fundacionais.
Enquanto isso, nos Estados Unidos, o presidente Joe Biden assinou um ambicioso decreto no mês passado, tentando equilibrar as necessidades das empresas de tecnologia de ponta com a segurança nacional e os direitos do consumidor.
O decreto, que provavelmente precisará ser ampliado por ação do Congresso, é um passo inicial que visa a garantir que a IA seja confiável e útil, e não maliciosa e destrutiva. Busca orientar como a IA é desenvolvida, para que as empresas possam lucrar sem colocar em risco a segurança pública.
Revista Oeste, com informações da Agência Estado
Veja a matéria original no R7
Veja mais em