Cristiano Amon assumiu como CEO da Qualcomm, a maior fabricante de chips móveis do mundo, em 2021, justamente quando a indústria de semicondutores estava enfrentando dificuldades para lidar com a escassez de suprimentos causada pela pandemia.
Três anos depois, o ciclo dos semicondutores mudou e o mercado de chips está apenas começando a se recuperar de um excesso de oferta. Os gastos dos consumidores com smartphones —mercado principal da Qualcomm— e outros eletrônicos de consumo diminuíram em um momento de alta inflação e tecnologia de dispositivos móveis em desenvolvimento.
Amon, um engenheiro brasileiro que ingressou na Qualcomm em 1995, tentou diversificar a empresa sediada em San Diego (EUA) em novas áreas, incluindo PCs e carros.
Mas, embora o preço de suas ações tenha subido cerca de um terço em 2023, seus vínculos com o mercado lento de telefonia móvel impediram que suas ações acompanhassem o boom impulsionado pela inteligência artificial desfrutado por empresas como Nvidia, AMD e Intel.
Essas fabricantes de chips se beneficiaram com a reestruturação dos provedores de computação em nuvem de seus data centers para ferramentas de “IA generativa”, como o ChatGPT da OpenAI.
Como ele explica nesta entrevista, Amon vê isso mudando este ano, à medida que a IA chega aos dispositivos móveis de forma significativa —e, segundo ele, traz mudanças profundas no equilíbrio de poder em uma indústria que há muito tempo é dominada pela Apple e pelo Google.
Parece que, nos últimos anos, toda a conversa sobre IA generativa e chips tem sido sobre o que está acontecendo na nuvem. Você acha que isso está prestes a mudar em 2024?
Ah, vai mudar. Na verdade, já está mudando. E por várias razões. Isso não se trata de [tudo o que acontece na] nuvem se movendo para o dispositivo —acredito que a nuvem continuará sendo muito relevante, continuará evoluindo, será indispensável. Mas o dispositivo tem um papel diferente a desempenhar. E agora vemos a IA generativa evoluindo muito, muito rapidamente para o dispositivo. Acredito que essa tem sido a história da computação: você começa com coisas na nuvem, ou no mainframe no passado, e depois, à medida que a capacidade de computação distribuída existe, você começa a ver o mesmo tipo de computação se movendo para [dispositivos menores] como o PC e os telefones móveis. Estamos prestes a iniciar essa transição de forma significativa [na IA].
E essa mudança em relação à nuvem é possibilitada por mudanças que você e outros fabricantes de chips estão fazendo para colocar esses enormes modelos de IA em dispositivos menores? Ou os próprios modelos estão mudando para que possam ser executados em diferentes tipos de computadores?
É tudo isso. Agora temos a capacidade de criar um processador de IA de alto desempenho que pode estar em um dispositivo alimentado por bateria. Eles podem funcionar o tempo todo, podem funcionar de forma abrangente. Esse é o primeiro elemento: ter o mecanismo de computação que torna isso uma realidade. Mas então a segunda coisa que está acontecendo é que os modelos, à medida que são [melhor] treinados, estão se tornando menores e mais eficientes —especialmente se o modelo for para um caso de uso específico. E isso está chegando aos dispositivos [portáteis]. O terceiro ponto é que os aplicativos estão sendo desenvolvidos para aproveitar essa capacidade. Portanto, você junta tudo e vê que isso acontecerá em telefones, PCs, carros e até mesmo [outros dispositivos como] seu ponto de acesso wi-fi, por exemplo.
Como você acha que isso se mostrará para os consumidores? O que as pessoas perceberão como a maior diferença em um telefone habilitado para IA em comparação com o uso atual?
Quando você pensa em IA generativa sendo executada em dispositivos, isso acontecerá de pelo menos duas maneiras. Uma delas é que você terá uma IA que está sendo executada de forma abrangente, e o trabalho da IA é prever todos os seus movimentos, prever você. Isso é muito, muito diferente da nuvem, onde você precisa fazer uma consulta [fazer uma pergunta para obter uma resposta]. A outra maneira é fazer a mesma coisa que acontece na nuvem, em conjunto com o dispositivo. Chamamos isso de IA híbrida. Assim, você pode tornar a execução da IA mais acessível [para o desenvolvedor], pois está usando o poder de computação [no dispositivo em vez de ter que chamar a nuvem]. E você pode tornar a IA mais precisa, porque o dispositivo tem contexto real sobre o que você está fazendo, onde está, etc. Então, essas são duas maneiras.
Você pode me dar mais exemplos do primeiro, sobre como a IA vai mudar a experiência do usuário do dispositivo?
Vamos apenas pensar em algo que você provavelmente faz várias vezes ao dia: enviar mensagens de texto. Quando você escreve uma mensagem de texto, você a vê como uma mensagem que está enviando para outra pessoa. Mas para a IA, isso pode ser uma consulta. Enquanto você digita essa mensagem de texto, a IA está em execução e pensando: “Há algo para eu fazer aqui?”.
Você acabou de dizer que quer ligar para a Clare na próxima semana e sugeriu terça-feira, então a IA vai abrir o aplicativo de calendário e dizer: “Tim, você tem esses horários disponíveis. Quer que eu envie um convite de calendário para a Clare?” O outro tipo de coisa que vai acontecer é: você me diz que teve umas férias maravilhosas com a família, e enquanto você menciona isso, a IA vai dizer: “Essas são as fotos que você tirou, você quer compartilhar isso com o Cristiano?”.
As pessoas já tentaram isso no passado e muitas vezes era apenas irritante. Estou pensando no Clippy, o assistente virtual que aparecia nos aplicativos do Microsoft Office há 20 anos, dizendo coisas como: “Parece que você está escrevendo uma carta, você gostaria de ajuda?” Por que você acha que vai funcionar melhor desta vez?
Porque vai ser mais preciso e vai aprender seu comportamento, sobre o que você quer e o que não quer. Lembre-se, não era possível fazer isso no passado porque havia dificuldade em interpretar sua linguagem. Era difícil obter contexto e você tinha que programar cada movimento. Agora você não precisa mais programar. É por isso que você tem esses grandes modelos de linguagem [os sistemas que alimentam os assistentes de IA hoje]. A outra razão é que agora você tem a capacidade de executar a IA de forma abrangente, em tudo o que você faz na tela, como exemplo.
Quanto mais rápido vai parecer para o usuário quando você está executando a IA no próprio dispositivo, em comparação com a espera que os dados sejam enviados para a nuvem ao usar um aplicativo como o ChatGPT hoje?
Tem que acontecer em segundos. Vamos mudar dos grandes modelos de linguagem para os grandes modelos de visualização. Você está familiarizado com o Stable Diffusion? Você digita uma consulta de texto e ele cria uma foto… Demonstramos o Stable Diffusion sendo executado em 0,6 segundos no dispositivo. Então isso está [mudando] sua experiência de usuário diária: como você pensa em tirar fotos, como você pensa em editar fotos.
O que exatamente isso significa em termos de conteúdo de silício dentro de cada telefone?
Estamos desenvolvendo processadores de computação separados para IA. Porque você pode executar coisas em uma CPU [unidade de processamento central], você pode executar coisas em uma GPU [unidade de processamento gráfico], mas a GPU e a CPU do seu telefone estão ocupadas fazendo outras coisas. Então, se você vai executar a IA de forma abrangente, você quer ter computação acelerada dedicada —é por isso que também temos a NPU [unidade de processamento neural]. A IA generativa tem o potencial de criar um novo ciclo de atualização em smartphones.
Além dos smartphones, onde mais veremos a IA mudando a forma como interagimos com nossos dispositivos pessoais?
O carro é ainda mais fácil de entender porque, quando você está atrás do volante, a linguagem natural não é apenas uma maneira segura, mas também boa, de interagir com seu carro. O carro vai olhar para o seu calendário e dizer: “Aqui é o local para onde você precisa ir, eu já programei a navegação para você”. Ou pode dizer: “Notei que você sempre liga para alguém, liga para sua esposa ou seu amigo. Você quer que eu ligue para eles para você? Eu sei que você precisa comprar comida, você quer fazer uma parada no supermercado?” Grandes modelos de linguagem serão perfeitos para a experiência do usuário em um carro.
Para seus clientes, os fabricantes de dispositivos e fabricantes de eletrônicos, quanto você acha que a IA tem o potencial de mudar o cenário competitivo?
Estamos apenas no começo disso, onde você está começando a ver os OEMs [fabricantes de equipamentos originais] falando sobre diferentes experiências do usuário em seus dispositivos. Alguns estão se voltando para a fotografia, outros estão se voltando para a comunicação e tradução. Alguns estão se voltando para a produtividade.
Até que ponto você acha que todas as coisas que você falou vão reavivar o crescimento no mercado de smartphones? Os consumidores pagarão mais por recursos de IA, ou isso será apenas algo que eles esperam como sendo um padrão do aparelho?
Essa é uma pergunta de bilhões de dólares. Você verá dispositivos sendo lançados no início de 2024 com vários casos de uso de IA de última geração. Isso tem o potencial de criar um novo ciclo de atualização em smartphones. E o que queremos é que eventualmente você diga, sabe, “Eu tenho mantido meu telefone nos últimos quatro anos… Agora preciso comprar um novo telefone porque realmente quero esse recurso de IA de última geração.” E você terá que comprar um novo telefone porque se trata da novidade que está chegando nessas novas plataformas.
A indústria precisa de algo para impulsionar as vendas porque agora é um mercado maduro. Foram anos difíceis para os fabricantes de smartphones.
Ficamos muito satisfeitos com os últimos resultados, pois a dinâmica do mercado e a correção do mercado de telefones que vimos em 2023 no Android já ficaram para trás. Acredito que o mercado encontrou seu ponto de estabilidade. Estamos sendo cautelosamente otimistas. Estamos prevendo crescimento [em 2024]… Mas é um mercado maduro em muitos aspectos, então quando cresce, cresce em um dígito.
No entanto, há coisas diferentes acontecendo no mercado que são importantes para destacar. Quando você compra um novo telefone, procura comprar um aparelho melhor do que tinha antes. Portanto, temos visto que os segmentos premium e de alto nível têm uma taxa de crescimento maior à medida que o mercado entra em um ciclo de substituição do que os segmentos mais baixos. Isso é uma métrica saudável. Com o tempo, se criarmos um ciclo de substituição impulsionado pela IA de última geração, isso mudará significativamente o tamanho do mercado —especialmente porque as taxas de atualização vão acelerar e veremos um grande potencial de crescimento. No momento, estamos apenas felizes por estarmos nos estabilizando.
Quando falamos sobre esses grandes modelos de IA, existem realmente dois papéis para os fabricantes de chips: processar todos os dados antecipadamente para criar os modelos, o que é conhecido como “treinamento”, e depois como os modelos são utilizados em aplicativos, o que é chamado de “inferência”. Até agora, na IA, o mercado realmente tem se concentrado no treinamento e a Nvidia tem sido de longe a maior beneficiária disso. Qual é a oportunidade relativa para os fabricantes de chips na inferência versus treinamento no futuro? Qual será o mercado maior a longo prazo para as empresas de semicondutores?
É bastante lógico, eu acho. Grande parte da infraestrutura em IA, especialmente para IA de última geração, começou na nuvem, com uma arquitetura específica que você precisava para fazer o treinamento. Mas quando os modelos se tornam menores, eles são executados em um dispositivo, eles se especializam em uma determinada tarefa. Então, o que vai ganhar escala, na IA de última geração e na IA em geral, é a inferência. Porque é isso que você faz: você treina para poder fazer a inferência. Então, mesmo no data center, começamos a ver muito interesse em processadores de inferência dedicados para modelos que já estão treinados e que você deseja executar em escala. Portanto, é inevitável que a inferência supere o treinamento. Quando falamos sobre dispositivos, tudo se resume à inferência.
Executar aplicativos de IA como o ChatGPT agora é bastante caro para empresas como a Microsoft ou a OpenAI, porque cada vez que um cliente usa o aplicativo, incorre em custos de computação. Como fazer IA no dispositivo muda a economia disso?
Quando pensamos em modelos de IA, eles estão chegando aos dispositivos. Vários modelos diferentes estão sendo adaptados para o Snapdragon [plataforma de chips móveis da Qualcomm]. Acredito que as plataformas [móveis] estão se tornando mais abertas, com mais potencial para inovação.
Achamos que um modelo híbrido será importante, especialmente se considerarmos o alto custo e alto consumo de energia dos data centers com IA de última geração. Você deseja que seja possível aproveitar a computação distribuída. Muitos dos modelos que vemos hoje estão sendo executados na nuvem. Mas se houver uma versão de inferência desse modelo instalada no dispositivo, o dispositivo dará ao modelo na nuvem uma vantagem inicial. Quando você faz uma consulta em um dispositivo, ela é muito mais precisa, porque o dispositivo tem contexto real: onde está Tim? O que Tim estava fazendo antes?
Portanto, o resultado é que esse modelo híbrido é mais barato. Porque quando você aproveita a computação no dispositivo, a consulta é mais precisa e é realmente uma forma mais eficiente de fazer computação [do que executar aplicativos de IA na nuvem]
Você pode me dar um exemplo de como isso poderia funcionar?
Vamos supor que você esteja usando o Bing Chat [assistente de IA da Microsoft, alimentado pelo modelo ChatGPT, da OpenAI]. Vamos supor que você tenha um telefone Android e o navegador Edge, e você vá para o Bing e comece um chat. Hoje, você digita na caixa de chat e essa consulta vai 100% para a nuvem, e a nuvem vai executar o ChatGPT e você começa a ver sua resposta sendo exibida. A Microsoft está pagando o custo total dessa computação na nuvem, não é barato e consome muita energia.
Avance rápido [para o novo tipo de dispositivos de IA] e você agora tem uma instância do ChatGPT ou algum outro modelo da Microsoft que está sendo executado em seu dispositivo. Ele está instalado no NPU do seu dispositivo. Em seguida, você abre o mesmo navegador Edge e faz a mesma consulta [para o Bing]. O primeiro modelo que é executado é o modelo em seu dispositivo. E ele começa a fazer alguns cálculos, gera alguns tokens e os envia para a nuvem. A nuvem agora tem menos cálculos a fazer para lhe dar a resposta. Ou o modelo pode dizer que se sente confortável o suficiente e treinado para responder por si só —então a nuvem não precisa fazer nenhum cálculo. Ainda é um serviço da Microsoft, mas eles estão agora aproveitando o poder de computação disponível em seu telefone.
OK, consigo ver como isso será mais barato para a empresa de IA ou provedor de nuvem. Mas hoje, as empresas que constroem e executam os maiores modelos de IA —como OpenAI e Anthropic, e até mesmo Microsoft, Amazon e Meta— não são necessariamente as mesmas empresas que fabricam smartphones e seus sistemas operacionais, onde empresas como Apple, Google e Samsung têm mais controle. Como você faz tudo isso se alinhar para que os modelos certos estejam nos lugares certos?
Bingo. Acho que essa é uma ótima pergunta. E é por isso que eu disse que as plataformas estão mudando. Se você pensar nas plataformas [móveis] hoje, você tem uma plataforma e um sistema operacional, e a única coisa que é executada é o que está no meu sistema operacional. Mas isso vai ser diferente. Então vamos usar um exemplo. Vamos dizer que você tenha o Microsoft Copilot [o assistente de chatbot de IA da empresa] que está sendo executado no Outlook, ou Word, ou algum outro aplicativo na nuvem. Mas você também tem esse aplicativo da Microsoft em seu dispositivo. Seu dispositivo poderia ter acesso a um modelo de IA de terceiros da Microsoft que está sendo executado na computação acelerada [chip] no dispositivo. Nesse caso, o provedor desse serviço para você, o Copilot, tem uma instância na nuvem e tem uma instância no dispositivo.
Agora vamos mudar [o exemplo] para o Meta. Você tem um modelo Llama 2 [uma IA desenvolvida pela Meta] em seu dispositivo. Você tem um aplicativo para o Meta, digamos o Instagram, você tem isso na nuvem e no dispositivo. Então essa é uma grande mudança, especialmente quando você pensa no mecanismo de computação e no acesso desses modelos pelos aplicativos. Isso está mudando fundamentalmente, eu acho, como a indústria funciona.
Então você está dizendo que, ao levar seus modelos de IA para mais telefones, empresas como Microsoft e Meta podem ter a chance de recuperar parte da influência na indústria móvel que perderam quando Apple e Google venceram as guerras dos sistemas operacionais de smartphones? Mas para que isso aconteça, não é necessário ter alianças entre fabricantes de aparelhos, fabricantes de sistemas operacionais e desenvolvedores de aplicativos que nem sempre são tão amigáveis atualmente?
É por isso que acho que a indústria está mudando. Para um aplicativo, você tem uma App Store. Mas quando você executa um modelo de IA no dispositivo, ele será pré-instalado no mecanismo do dispositivo, não é algo que você vai baixar da App Store. Você verá a capacidade das plataformas [móveis] de suportar modelos de primeira e terceira partes, assim como os OEMs. A maneira de pensar sobre isso é o aplicativo de câmera. O OEM constrói essa capacidade de câmera no dispositivo, e você também terá vários motores diferentes que são incorporados ao dispositivo.
Acho que essa parte da indústria está evoluindo. Entendo a pergunta, mas você também precisa pensar no que os usuários querem. É por isso que você verá que terá tantos aplicativos diferentes, até mesmo aplicativos de concorrentes da plataforma [móvel], e acho que estamos apenas no começo dessa transição.
Como a Qualcomm pode se beneficiar de tudo isso?
A primeira coisa é que você vai expandir o mercado de telefones. Isso traz benefícios para o nosso negócio de chips e para o nosso negócio de licenciamento. Um dispositivo com IA requer mais poder de processamento. Isso tem dois aspectos. Impulsiona uma melhoria, levando você a comprar um dispositivo premium mais caro. Também tem mais conteúdo de silício, o que também contribui para uma margem maior para o negócio.
Isso é o que acontece nos telefones. No PC é completamente diferente e é uma oportunidade incrível. Estamos entrando no espaço dos PCs. Somos a empresa que a Microsoft selecionou para competir com a Apple. [Qualcomm e Microsoft estão trabalhando juntas para produzir PCs que esperam superar os computadores Mac da Apple.] Quando você pensa na transição do Windows para a IA, isso é um fator favorável incrível para a nossa entrada no PC, porque estamos chegando com a principal capacidade de processamento de IA de longe. Temos a peça com melhor desempenho e menor consumo de energia.
A outra [oportunidade] é a automotiva. Construímos uma posição muito forte na indústria automotiva com nosso chassi Snapdragon e a cabine digital imersiva. A Qualcomm se tornou a plataforma de escolha para todas essas novas experiências imersivas de cabine digital que você vê em mais de 30 marcas. As capacidades de IA [prometem permitir que] atualizemos o sistema com mais valor para nossos clientes e consolidemos a posição da Qualcomm na indústria automotiva.
Toda a empolgação no Vale do Silício agora é sobre IA. Não faz muito tempo que era sobre o metaverso e a realidade virtual, que não se mostraram tão grandes quanto as pessoas esperavam. Como você vê o potencial de unir essas duas tendências?
Estamos vendo a IA entrando na realidade virtual. Vemos um potencial incrível [para óculos de realidade aumentada e realidade mista], especialmente quando você usa modelos de áudio e linguagem grandes como interface. Estamos muito otimistas em relação à computação espacial como a nova plataforma de computação, e vemos muitos desenvolvimentos promissores acontecendo: vemos o que o Meta está fazendo, vemos o que está acontecendo no ecossistema Android com o Google e a Samsung. Estamos apenas no começo.
Vocês forneceram os chips para novos tipos de dispositivos vestíveis leves, como os óculos Ray-Ban da Meta, que dependem menos de visuais imersivos e mais de assistentes de IA de áudio. Isso pode ser um desastre como o Google Glass novamente, ou eles podem ser mais populares do que a experiência completa de realidade virtual a curto prazo?
Eu apostaria nos dispositivos vestíveis leves todas as vezes. Foi só com o smartphone que você começou a carregar um computador com você o tempo todo. Existem duas coisas que vão impulsionar o uso e o volume. Uma é que [os produtos] ficam mais leves e mais fáceis de usar, então você os usa por mais tempo. A segunda é o conteúdo. À medida que você traz mais capacidades para esses dispositivos, você tem um melhor conteúdo. Acredito que estamos nessa trajetória. Mais escala traz um conteúdo ainda melhor, porque os desenvolvedores estão dispostos a investir dinheiro.
Os óculos que acabamos de lançar com a Meta, os óculos Ray-Ban, são muito úteis para várias aplicações, especialmente quando você pensa em mídias sociais e como gerar conteúdo. Eles vão melhorar.
Minha última pergunta é sobre os telefones dobráveis, que têm sido um ponto positivo de crescimento em um ano sombrio, mas ainda estão vendendo em números muito pequenos no geral. Os telefones dobráveis vão vingar?
Claro que vão vingar. [Mostra seu telefone dobrável da Samsung.] Este é o meu quarto flip. Acho que não vou voltar para um não-dobrável. É incrivelmente útil.
E esse é realmente o seu telefone do dia a dia?
Com certeza! Este é um telefone sem compromissos. Tem todo o desempenho que você precisa. Encaixa melhor no seu bolso. E não há nada de errado em abrir para atender uma ligação e dobrar para encerrar a ligação, especialmente para alguém como eu que começou a usar telefones nos anos 90.