Sam Altman, o presidente-executivo que foi demitido e imediatamente recontratado pela OpenAI, afirmou que estava em negociação com o The New York Times e ofereceu “muito dinheiro” à publicação para usar seu conteúdo no ChatGPT quando o jornal o processou, e que está disposto a remunerar devidamente os veículos de imprensa para poder exibir seus artigos e reportagens.
“Nós queríamos pagar ao New York Times muito dinheiro para usar o conteúdo deles, mas eles não quiseram, e o processo nos surpreendeu”, disse Altman em um painel batizado de “Tecnologia em um Mundo Violento” durante o encontro anual do Fórum Econômico Mundial em Davos, na Suíça.
O evento, do qual também participaram o presidente da Salesforce, Marc Benioff, o secretário do Tesouro britânico, Jeremy Hunt, e a presidente da Accenture, Julie Sweet, foi um dos poucos a lotar o auditório principal em Davos neta edição do Fórum.
Indagado pelo mediador do debate sobre o processo por violação de direitos autorais, Altman afirmou que treinar o modelo de inteligência artificial do ChatGPT com o material do Times não é mais um objetivo, e que centrar esforços em grandes volumes de dados de uma fonte única em determinada área não funciona bem.
“Mas gostaríamos de exibir seu conteúdo, linkar, mostrar as marcas de lugares como o New York Times, o Wall Street Journal e qualquer grande publicação para mostrar, olha, é isso o que aconteceu no dia, em tempo real, e gostaríamos de pagar por isso, direcionar os acessos para eles”, afirmou.
“É isso, mostrar a informação deles quando o usuário pergunta, não treinar o modelo de linguagem.”
O Times afirma que a OpenAI estava usando seus textos em demasia para treinar o modelo de linguagem e respostas da ferramenta, e que não estava compensando a publicação por isso.
Segundo Altman, a OpenAI, que tem a Microsoft como principal investidor, busca novos modelos econômicos que funcionem para todos —inclusive para os donos do conteúdo—, e que pretendem no futuro usar menos dados de menos fontes, mas serem capazes de interpretá-los melhor.
O painel também levantou outras questões sobre a inteligência artificial, como o receio de parte das pessoas de que uma “super IA” fuja de controle, tal qual em livros e filmes, além da necessidade de regulação.
Altman afirmou que, ao comparar o GPT 3 (o mais disseminado) com o 4 (a versão paga e mais atualizada), é possível constatar que a ferramenta “consegue se alinhar rapidamente a um sistema de valores”.
“A pergunta é quem define quais serão esses valores”, apontou, acrescentando que tem empatia pelo “desconforto e nervosismo das pessoas em relação a empresas como a nossa.”
Os participantes foram unânimes sobre a necessidade de regulação, mas todos eles advertiram que era preciso algum tempo para “não matar” a ferramenta antes de ela amadurecer, como colocou Benioff.
As “alucinações” das inteligências artificiais (quando elas inventam uma resposta sem base na realidade) também são uma preocupação. Altman advertiu: “Quanto mais perto da inteligência artificial geral o mundo fica, mais coisas estranhas eu espero que aconteçam, mas também mais resiliência e mais dedicação a cada questão eu espero que tenhamos.”
Julia Sweet ponderou que quem vai se dar bem no uso da IA são os indivíduos e empresas que não tiverem medo, mas despenderem tempo suficiente para entender a tecnologia.
Ela comparou o temor das pessoas diante da IA com a reação de seus antigos chefes, quando ela começou na carreira de advogada, com os emails. “Eles diziam que não era seguro anexar arquivos dos clientes nos emails. E veja onde estamos agora”, afirmou, para risos da plateia.