+2 meses grátis para
acelerar a sua carreira

Tá acabando!

00

DIAS

00

HORAS

00

MIN

00

SEG

Alura > Cursos de Inteligência Artificial > Cursos de IA para Programação > Conteúdos de IA para Programação > Primeiras aulas do curso Palestras da IA CONFERENCE 2025

Palestras da IA CONFERENCE 2025

Palestras Keynotes - ANDERSON ROCHA - Bits, Atoms, Neuvrons and Genes (BANG): the 21st Century Convergence Revolution

Iniciando a apresentação

Bom dia a todos. É um prazer estar aqui. Hoje, temos a maior audiência que já tivemos este ano, com 600 pessoas. Anteriormente, nosso recorde era de 300. É um prazer falar com tantas pessoas. Nossa conversa hoje é sobre uma revolução em andamento, que talvez algumas pessoas ainda não tenham percebido.

Peço que nos sigam no LinkedIn. Aqui está o QR Code. Sou Anderson Rocha, professor titular na Unicamp. Em 2009, criei o Laboratório de Inteligência Artificial com outros colegas. Naquela época, a Inteligência Artificial no Brasil era incipiente. Éramos quatro professores e tínhamos apenas três alunos interessados em pós-graduação em IA. Desde então, muita coisa mudou. Hoje, o laboratório conta com 350 colaboradores ao redor do mundo, sendo 200 na Unicamp. A procura por Inteligência Artificial aumentou significativamente, e vocês entenderão os motivos em breve.

Explorando o conceito de IA e a sigla BANG

Vamos explorar o que é IA e por que todos falam sobre isso. É um conceito complexo, mas gostaria de simplificá-lo para vocês. Vou apresentar o contexto de BANG, que é uma sigla para Bits, Átomos, Neurônios e Genética.

Por que bits? Nossa economia hoje está ancorada em bits, seja para comunicação, computação, internet das coisas ou sensores. Há um grande interesse na pesquisa de átomos, ciência de materiais, novas energias renováveis e materiais condutores à temperatura ambiente. Neurônios representam o interesse em entender o pensamento humano e a inteligência, explorando nossas capacidades com o auxílio de tecnologias. Genética envolve biotecnologia, pesquisas para melhorar a qualidade de vida, medicamentos, identificação de doenças, sementes mais robustas e maior produção de alimentos. Precisamos alimentar 10 bilhões de pessoas até 2050, e a pesquisa em genética é crucial para isso.

Recomendando leituras e discutindo narrativas de IA

Essas quatro áreas estão se desenvolvendo em paralelo. Para quem deseja se aprofundar no assunto, recomendo alguns livros. Como professor, valorizo a leitura. A leitura é essencial para desenvolver o pensamento crítico, uma habilidade fundamental em um mundo dinâmico e repleto de conhecimento. Recomendo "Atlas da Inteligência Artificial", de Kate Crawford, que ajuda a entender o contexto atual. "A Filosofia Política da IA" discute os impactos em diferentes campos do conhecimento. "Quatro Futuros", de Peter Fraze, imagina como será nosso futuro com a tecnologia presente em tudo. Destaco também a importância do aprendizado de linguagem na IA, que tem um grande impacto na economia.

Quando falamos de IA, muitos pensam em dominação. Exemplos como o HAL 9000, de Stanley Kubrick e Arthur C. Clarke, ou a IA de "Ex Machina", que passa no teste de Turing, são narrativas de Hollywood que nos marcam desde cedo. Recentemente, em uma palestra, me perguntaram se a IA dominaria o mundo. Respondi que a maior tecnologia de IA hoje é baseada em Transformers, que são produtos de matrizes. É improvável que um produto de matrizes, aprendido no ensino médio, tire o ser humano da Terra. No entanto, se não dominarmos essa tecnologia, ficaremos para trás. Quem não dominar a tecnologia, seja como atuante ou impactado por ela, perderá oportunidades e poderá ficar fora do mercado.

Discutindo a Revolução da Convergência

Essas quatro áreas estão associadas a uma revolução em andamento. Alguns chamam de Indústria 4.0 ou 5.0, mas isso é limitante, pois o impacto é muito maior. É a Revolução da Convergência, onde tecnologias exponenciais afetam diretamente nossas vidas. Biotecnologia, nanotecnologia, robótica, internet das coisas e IA já estão presentes. Computação quântica e blockchain estão chegando. Essas tecnologias se aceleram mutuamente. Um exemplo é a vacina da Covid-19, onde a Revolução da Convergência esteve presente desde o início. O sequenciamento genético do vírus foi feito em semanas, e algoritmos de IA identificaram pontos de edição para desativar a proteína spike do vírus. A biotecnologia, com a técnica CRISPR-Cas9, entrou em ação.

A nanotecnologia está presente em tudo, como em celulares. Computadores que ocupavam salas inteiras nos anos 50 agora cabem na palma da mão. Sensores para conectividade e internet das coisas produzem uma quantidade imensa de dados, processados pela IA. Esse processamento é caro, mas alternativas estão surgindo, como o computador fotônico, desenvolvido para ser um coprocessador matemático. Ele realiza produtos de matrizes, essenciais na IA. Em parceria com a NVIDIA, a GPU realiza produtos de matrizes com a ajuda do processador fotônico. Outra possibilidade é a computação quântica, que terá usos específicos, sendo um dos mais importantes em IA.

Preparando-se para a Revolução da Convergência

Para saber mais sobre a Revolução da Convergência, recomendo o livro "O Futuro é Mais Rápido do que Você Pensa", de Peter Diamandis. Ele nos dá a sensação de que tudo está acontecendo ao mesmo tempo e em todo lugar. Como nos preparamos? A característica que nos diferencia é o pensamento crítico. Se realizamos tarefas repetitivas, devemos repensá-las, pois podem ser automatizadas. Tarefas que demandam pensamento crítico são duradouras.

Definindo IA de forma pragmática: qualquer sistema computacional que coleta dados do mundo, aprende suas propriedades, interpreta-os para resolver problemas específicos e se adapta de forma flexível. Se apenas processamos dados, isso é machine learning (aprendizado de máquina). Mas se projetamos desde a captura dos dados até a adaptação ao longo do tempo, isso é uma solução completa de IA. A IA é uma constelação de conceitos, áreas, pesquisas e aplicações.

Explorando áreas de interesse na IA

O Imperial College produziu um mapa que ilustra isso. Cada ponto representa uma área de interesse na IA. Quanto mais próximo do centro, mais maduro. Quanto mais nas bordas, ainda em investigação. Aprendizado de máquina, aprendizado supervisionado, aprendizado por reforço e aprendizado auto-supervisionado são exemplos de áreas em destaque. O aprendizado auto-supervisionado, por exemplo, permite que algoritmos aprendam sozinhos, superando algoritmos supervisionados em alguns casos.

Visão computacional, sistemas de navegação autônomos, Data Science e interfaces cérebro-máquina são outras áreas de interesse. No Brasil, há pesquisas em interfaces cérebro-máquina, como no Rio Grande do Norte. A Neuralink, de Elon Musk, também trabalha nessa área. Um documentário na Netflix mostra um alpinista que, após perder as pernas, voltou a escalar com próteses conectadas ao cérebro.

Avanços no processamento de linguagem e aprendizado contínuo

O processamento de linguagem, seja falada ou escrita, também avançou. Traduções são bem feitas, e conferências podem ser traduzidas em tempo real. Recentemente, em uma conferência na China, palestras foram traduzidas simultaneamente entre mandarim e inglês.

Essas mudanças exigem aprendizado contínuo, tanto para humanos quanto para algoritmos. Sistemas precisam ser bem treinados, explicáveis e adaptáveis. O desenvolvimento de software hoje envolve assinatura, pois o mundo é dinâmico e o software precisa ser atualizado constantemente. Sensores são variados, e a comunicação entre eles é complexa. Problemas podem envolver Big Data ou Small Data, e o ambiente de trabalho exige habilidades interpessoais.

A importância da formação contínua

A formação contínua é essencial. No passado, era comum pensar que, após a escola, não seria necessário estudar mais. Hoje, isso não é mais possível. Precisamos nos atualizar constantemente para não ficarmos desatualizados e desempregados.

Pode ser por meio de leitura, como comentamos aqui. Pode ser por meio de cursos curtos e rápidos, mas que exercitem nossa capacidade de adaptação. Na economia de multidão, quando alguém abria um negócio alguns anos atrás, ficava satisfeito se fizesse sucesso na cidade onde estava. Hoje em dia, a economia é de multidão. Quando abrimos um negócio, uma startup, o mínimo que esperamos é ter sucesso dentro do nosso país. O plano para o segundo ou terceiro ano de investimento deve incluir a expansão para a América Latina. Em cinco anos, se não estivermos pensando em como expandir o negócio para múltiplos países, nossa startup será apenas mais uma e não será exponencial.

Transformações na medicina e geração de conteúdo

A medicina também se torna pró-ativa. Estudos mostram que podemos identificar sinais de Alzheimer, por exemplo, dez anos antes. Parkinson pode ser identificado a partir dos primeiros sinais de tremores. No nosso laboratório, por exemplo, estamos realizando uma pesquisa chamada Viva-Bem. São dez áreas do conhecimento, dez doenças, nas quais identificamos precocemente as primeiras manifestações de ansiedade, hipertensão, diabetes e Parkinson, por exemplo.

A geração de conteúdo mudou. Quem tem pelo menos 35 anos sabe que, alguns anos atrás, no Brasil, quem gerava conteúdo eram grandes emissoras de televisão. Hoje em dia, todos geram conteúdo. Dentro desta sala, garantimos que mais da metade já postou algo hoje. Isso gera uma massiva quantidade de dados que precisamos entender.

Revolução na saúde com IA e tecnologia

No cenário médico, tudo está mudando com a inteligência artificial e tecnologia. Um relatório da Deloitte, por exemplo, destaca os principais aspectos ligados à saúde hoje, como técnicas para interação com pacientes e chatbots. Há uma revolução em cardiologia. Temos uma parceria com o Hospital do Coração, em São Paulo, para identificar complicações cardíacas após cirurgias. Utilizamos relógios inteligentes para monitorar pacientes em casa, o que é crucial para intervenções rápidas e tratamento adequado.

Na radiologia, ao contrário do que alguns pesquisadores previram anos atrás, os profissionais radiologistas não serão substituídos pela inteligência artificial. O melhor resultado é obtido quando trabalham juntos. O mesmo ocorre na oncologia, onde a combinação de humanos e algoritmos é a melhor abordagem para detecção.

Aplicações e desafios na área médica

As principais aplicações incluem diagnóstico, priorização e triagem. Conversamos com o pessoal do grupo Veracruz sobre a aceleração da triagem na chegada ao hospital, para que as equipes estejam preparadas o mais rápido possível. Diagnóstico de prevenção, ajuda no imaginamento, descoberta de medicamentos e biotecnologia são áreas quentes de investimento e pesquisa hoje. Tudo isso deve ser feito considerando a necessidade de entender os dados e a diversidade dos problemas que eles apresentam, além das legislações associadas à inteligência artificial, como na Europa e possivelmente no Brasil em breve.

A definição da União Europeia para IA é semelhante à que mencionamos de Kaplan e Heinlein. Um sistema de IA é baseado em máquina, feito para operar em níveis variados de autonomia, exibindo adaptatividade após o deploy (implantação), ou seja, um sistema que se adapta após a venda e o acesso do cliente. Com objetivos explícitos ou implícitos, faz inferências a partir da entrada que recebe para gerar predições, recomendações, conteúdo ou decisões que influenciam tanto o mundo físico quanto o virtual. Essa definição implica que qualquer empresa trabalhando com IA hoje precisa entender a sociedade e os impactos.

Desenvolvendo soluções com IA e metabolômica

Muitas pessoas veem a tecnologia como mágica e não a questionam, mas isso precisa mudar. Precisamos abrir a caixa de Pandora, pois os dados estão presentes em todos os lugares. É possível gerar arte com IA. Durante a Covid, desenvolvemos um detector de Covid que pudesse ser utilizado por enfermeiros com uma simples amostra de sangue. Foi um sucesso, patenteado e licenciado nos laboratórios LACEN da Anvisa.

O corpo humano produz metabólitos responsáveis por diferentes funções no organismo. Quando falamos de DNA, temos a genômica; quando falamos de efeitos do ambiente, temos a metabolômica. Na metabolômica, podemos realizar testes e encontrar biomarcadores. Trabalhamos com mais de mil pacientes de Covid no Brasil, com o objetivo de tirar uma amostra de sangue. Já tínhamos experiência com um detector para zika, obesidade, doenças fúngicas, etc., em mais de quatro anos de colaboração.

Utilizando tecnologia avançada para diagnósticos rápidos

Durante a Covid, utilizamos o melhor equipamento de análise de espectrometria de massas do Brasil, que era da CBF, para doping. A CBF fez uma parceria com nossa universidade e emprestou o equipamento durante alguns meses. Passávamos a amostra de sangue, separávamos o plasma e o passávamos pelo equipamento. A IA analisava quais metabólitos eram alterados com a presença do vírus. Conseguimos descobrir quais ácidos graxos e outros metabólitos estavam associados e desenvolvemos um novo teste com mais de 90% de acerto na presença do vírus, tudo em menos de uma hora, enquanto o PCR demorava dias.

Outro exemplo no nosso laboratório é o VivaBem. Nosso objetivo é trabalhar com relógios inteligentes para monitorar indivíduos e apontar possíveis melhorias na qualidade de vida e bem-estar. Utilizamos IA desde a coleta dos dados até a proposta da resposta. O relógio possui muitos sensores, como batimento cardíaco, eletrocardiograma e temperatura. Podemos ver, por exemplo, a viscosidade do sangue a partir dos sensores de luz.

Pesquisando saúde e bem-estar com IA

Dentro desse projeto, temos uma linha especialista em neurociência, onde pesquisamos Parkinson, educação física, como melhorar a performance em esportes e identificar perda de força em idosos, um problema chamado sarcopenia. As técnicas de IA e as técnicas para explicar os algoritmos de IA, que é IA explicável, são fundamentais. Muitas vezes, não podemos compartilhar os dados dos participantes, então utilizamos aprendizado federado, processando algo no dispositivo e compartilhando apenas o resultado do processamento, respeitando a privacidade.

No nosso laboratório, onde 80% da pesquisa é com a indústria, é necessário ter engenharia de software para a translação da pesquisa para o mercado. Fazemos todo o processamento em um cluster, um dos maiores da América Latina, em parceria com a Samsung. Esse cluster se chama Yara e está entre os 500 maiores do mundo.

Melhorando a qualidade de vida com tecnologia

Trabalhamos com a qualidade do sono, instalamos equipamentos de polissonografia para entender por que as pessoas dormem mal e, com o relógio, analisamos como melhorar o sono. Ansiedade, estresse, cuidados com idosos e pessoas com deficiência são áreas de foco. Utilizamos aprendizado não-supervisionado e auto-supervisionado, enfrentando problemas típicos de overfitting e trabalhando com poucos dados, pois é um cenário de saúde. Soluções de self-supervised learning são importantes, pois são eficazes quando temos poucos exemplos.

Identificação de outliers é crucial. Às vezes, o outlier precisa ser removido, outras vezes é o objeto de interesse. Nossa visão é realizar pesquisa para a saúde pró-ativa, identificando os primeiros sinais que podem se transformar em doença, para que a pessoa possa tomar medidas. Em Parkinson, por exemplo, coletamos dados em parceria com o hospital, realizamos exercícios com acompanhamento de especialistas e analisamos os sinais para verificar tremores associados ao Parkinson.

Analisando dados de saúde e propondo melhorias

Entendemos ações e atividades, como identificar quando alguém está comendo, para ativar sensores e coletar a quantidade de glicose no sangue, sem agulhas. Analisamos a biomecânica do movimento, coletando dados de participantes para entender atividades físicas e sedentárias e como isso afeta o corpo humano. Nosso objetivo é propor ações que melhorem a qualidade de vida.

Transformamos sinais de série temporal dos sensores do relógio em imagens para identificar padrões de sono. Temos um quarto do sono onde coletamos dados com um capacete desenvolvido na Unicamp, para entender quais áreas do cérebro estão ativas durante o sono. Também estudamos ansiedade e estresse, induzindo ansiedade em laboratório para medir as reações.

Utilizando IA para identificar níveis de ansiedade

Utilizamos IA para transformar sinais do relógio em imagens, identificando níveis de ansiedade. Quem tiver curiosidade pode visitar nosso site vivabem.unicamp.br para conhecer mais sobre nossa pesquisa em saúde e bem-estar. Para conhecer mais pesquisas do Recode AI, acesse recode.ai.

Precisamos reconhecer que a IA chegou e não vai desaparecer. Isso gera uma quantidade enorme de dados, muitas vezes falsos. Por exemplo, no ano passado, até agosto, cerca de 15 bilhões de imagens foram geradas com IA. Dados como nunca antes, com GPUs cada vez mais poderosas processando isso.

Desenvolvendo técnicas para identificar falsificações

Desenvolvemos técnicas que combinam diferentes algoritmos para identificar falsificações. Criamos um espaço probabilístico que combina métodos e dá a probabilidade de cada pixel ser falso. Essa técnica é útil em diferentes problemas. Também desenvolvemos redes neurais baseadas em transformers ou convolucionais para identificar características associadas à falsificação, como ruído.

Lançamos um paper explicando como isso acontece, disponível para todos. Temos um sistema em parceria com a NHS nos Estados Unidos para identificar falsificações em artigos de medicina e biologia. Também trabalhamos na área de segurança, com sistemas open source para verificar a veracidade de imagens e vídeos.

Explorando causalidade e verificando mídias

Recentemente, tivemos dois resultados interessantes. Um deles analisa a causalidade, uma área de grande interesse. Queremos entender o que causa o quê, saindo da análise de correlações para intervenções. Outro exemplo é o fake scope, onde treinamos uma LLM para identificar falsificações e explicar por quê.

Esse projeto, chamado Horus, é financiado pelo governo de São Paulo e federal, desenvolvendo soluções para verificar rapidamente a veracidade de mídias. Identificamos tentativas de golpes via WhatsApp ou SMS, filtrando mensagens no servidor para apontar links duvidosos.

Concluindo com recomendações e desafios futuros

Finalizando, precisamos nos adaptar à IA. O que fizemos aqui foi um conjunto de provocações e uma recomendação: leitura é fundamental. Não queremos o retorno dos mágicos da Idade Média, atribuindo magia ao que não conseguem explicar. Queremos soluções maduras, explicáveis, interpretáveis e justas, sem vieses. Esse é o novo desafio do desenvolvimento de software.

Não queremos falsas promessas, mas entender as consequências, sair da correlação e entender a causalidade. Hoje, as soluções de aprendizado de máquina e IA estão no nível de associação. O próximo passo é a intervenção, entender o que acontece se mudarmos algo. E, finalmente, o desafio do contra-factual, entender o que poderia ter acontecido.

Devemos lembrar que a IA pode ser inteligência aumentada, centrada no ser humano. Esse é o grande potencial: combinar nossa capacidade crítica com a capacidade da IA de analisar grandes quantidades de dados. Agradecemos a todos. Convidamos para uma visita à Unicamp à noite. Muito obrigado.

Palestras Keynotes - SERGIO LOPES - Do Vibeconding ao uso de IA por Devs Profissionais

Introduzindo a palestra sobre IA para desenvolvedores

Bom dia a todos. Somos da equipe da Alura e estamos aqui para falar sobre Inteligência Artificial (IA) para pessoas desenvolvedoras. Hoje, vamos discutir o estado atual das coisas e como utilizamos IA para programação. A palestra será breve, mas esperamos mostrar como a IA pode ser usada no desenvolvimento de software.

Atualmente, muitos utilizam o chat GPT para codificar, mas essa não é a melhor ferramenta. Vamos explorar algumas opções disponíveis no mercado. Muitas pessoas copiam e colam códigos no chat GPT, fazem alterações e testam, mas isso nem sempre funciona bem. O chat GPT gratuito não é tão eficaz quanto a versão paga, e muitos ainda o utilizam para tarefas diversas, como receitas de bolo e memes, o que não é ideal para programação.

Analisando o uso de IA na programação

Realizamos uma pesquisa com alunos da Alura sobre o uso de IA na programação. A maioria utiliza o chat GPT, com apenas 20% pagando por alguma ferramenta. Em uma pesquisa do Código Fonte, 70% dos desenvolvedores também usam o chat GPT, seguido por 11% que usam o GitHub Copilot. A IDE mais popular atualmente é o Cursor, com 3% de penetração.

Vamos discutir seis tipos de ferramentas de IA para desenvolvimento: chatbots, IDEs, IDEs na nuvem, extensões, linha de comando e agentes completos. Exemplos incluem o chat GPT, Gemini App, Cloud, Cursor, JetBrains, Replit, GitHub Copilot, Cloud Code, e agentes como Codex e Julius.

Explorando agentes de código e modelos de IA

O segredo das IAs hoje é o uso de agentes de código, que tomam decisões autônomas ao implementar funcionalidades. Eles podem navegar no codebase, executar testes e criar soluções de forma independente. Além disso, podemos interagir com nosso projeto, obter autocompletar e automatizar ações com IA.

Essas ferramentas são interfaces para modelos, como o GPT-5 da OpenAI, Gemini 2.5 Pro e Cloud Opus. A escolha de uma boa ferramenta e modelo é crucial, pois o custo pode ser alto. Modelos alternativos, como DeepSea R1 e CoinCoder, oferecem soluções mais acessíveis.

Escolhendo ferramentas e estratégias de IA

Para decidir a estratégia de IA para desenvolvimento, é importante escolher uma IDE ou extensão. A maioria utiliza VS Code, mas há opções como JetBrains. Atualmente, usamos o Cursor para autocompletar e o Quillocode para uso baseado em tokens.

O Cursor permite que agentes modifiquem o código de forma autônoma, enquanto o Quillocode oferece controle sobre o consumo de tokens e custo. Em um exemplo, gastamos um milhão e meio de tokens para um sistema simples, resultando em um produto funcional.

Avaliando o uso de chatbots e interfaces de linha de comando

Em resumo, o uso de chatbots para codificação não é recomendado. Devemos focar em ferramentas e agentes que potencializem nossa produtividade e ofereçam soluções eficazes.

Se formos realizar um teste simples, ele pode ser muito útil. Para quem já utilizou o Canvas ou os artefatos do Cloud, pequenas soluções de página única, é uma boa ferramenta para tirar dúvidas. É particularmente interessante para discutir e planejar soluções. Às vezes, antes de ir para o editor, não sabemos exatamente o que estamos fazendo ou para onde vamos. Queremos planejar, decidir entre frameworks, identificar problemas, e para isso, podemos usar o chat de APT para discutir com um bot. Isso poderia ser feito na IDE também, mas o chat de APT, especialmente o modelo mais avançado com Reasoning, pode ser útil. Não estou sugerindo usar o GPT Free, pois as dicas podem ser ruins, mas com um bom modelo, ele pode ser bastante útil.

Apresentando o Gemini CLI e full agents

Mostramos as IDEs, o chatbot, mas não vamos incluir imagens do chat de APT, pois vocês já conhecem. As Command Line Interfaces são algo mais recente e ainda pouco utilizadas. Quem iniciou essa tendência foi o pessoal do Cloud Code, mas existem várias outras, como o Gemini, que vamos mostrar aqui. O Klein, que estava no outro slide, também é um exemplo. Essas interfaces são flexíveis e automatizáveis, pois são baseadas em linha de comando, permitindo rodar várias tarefas em paralelo. Embora sejam interfaces de terminal, não se assustem, são bem apresentáveis. Hoje, em particular, vamos mostrar a interface do Gemini CLI. Utilizamos um projeto como exemplo e executamos uma tarefa. O processo demorou cerca de quatro minutos para fornecer uma solução, pois é um procedimento demorado e caro. Queremos que vocês saibam que obter bons resultados com IA pode ser demorado e caro.

O Gemini CLI, atualmente, oferece um free tier subsidiado pelo Google, permitindo acesso a tokens gratuitos. Se você está usando outra ferramenta gratuita, considere mudar para o Gemini CLI, pois ele oferece um modelo de alta qualidade com um bom limite. Não sabemos até quando isso estará disponível.

Discutindo o uso do Codex e a importância do contexto

Por último, discutimos a ideia dos full agents, como o Codex da OpenAI, que requer assinatura do chat GPT. A proposta é atuar como um desenvolvedor júnior sob sua supervisão, permitindo delegar ações, revisar, mesclar e solicitar alterações. O Codex é eficiente em tarefas paralelas, pois cada pedido é um pull request diferente no projeto. É importante gerenciar os conflitos ao mesclar, mas com pedidos bem isolados, é possível integrar com frequência.

O Codex é útil para quem tem ideias de código enquanto está no celular. Ao abrir o Codex, é possível solicitar uma tarefa e, ao chegar em casa, revisar e mesclar o pull request. A interface permite vincular o repositório no GitHub, solicitar de uma a quatro versões de uma tarefa e escolher a melhor. O processo pode demorar cerca de cinco minutos para gerar um pull request, pois não há mágica em criar código de qualidade instantaneamente.

Considerando o custo e a eficiência dos modelos de IA

O contexto é fundamental ao usar essas ferramentas. O modelo é a base, mas o contexto que passamos é o segredo. As ferramentas ajudam a criar esse contexto de maneira inteligente, indexando o codebase e buscando o código necessário para cada situação. Elas podem acessar contexto de outros lugares, como verificar se uma biblioteca está desatualizada e atualizá-la.

O principal trabalho é fornecer o contexto certo. Ao solicitar algo, é importante especificar o que está sendo alterado. Não é eficaz abrir um codebase extenso e pedir uma migração completa em um único comando. É necessário planejar e dividir o projeto em partes menores, assim como se faria com um desenvolvedor júnior.

Avaliando o impacto das IAs na produtividade

Modelos com janelas maiores, como o Gemini, que suporta um milhão de tokens, permitem exagerar nos prompts. No entanto, é preciso considerar o custo dos tokens. Ferramentas baseadas em usuário tendem a reduzir o consumo de tokens, enquanto as baseadas em tokens, como o Cloud Code, são mais extensivas no uso de contexto.

O preço por token varia conforme o modelo. O Cloud Opus, por exemplo, custa 75 dólares por um milhão de tokens, enquanto o CoinCoder custa 2 dólares. O GPT-5 está no meio, custando 10 dólares. É importante escolher o modelo certo para cada tarefa, usando modelos caros para planejamento e modelos baratos para codificação.

O Gemini CLI oferece um bom free tier, e o Codex da OpenAI também é acessível para assinantes do chat GPT. É importante considerar modelos mais rápidos e mais lentos, pois isso afeta o fluxo de desenvolvimento. Modelos mais rápidos podem aumentar a produtividade, evitando a perda de foco durante a espera por resultados.

Concluindo sobre o uso de IAs no desenvolvimento

Estudos mostram que assistentes de código podem aumentar a produtividade, especialmente em tarefas de baixa complexidade e em projetos iniciados do zero (Greenfield). Em projetos legados (Brownfield), o ganho é menor, mas ainda presente. A popularidade da linguagem também influencia, com linguagens mais comuns oferecendo maior ganho de performance.

Usar bem as IAs para desenvolvimento é desafiador e requer aprendizado contínuo. O mercado está em constante mudança, e é necessário adaptar-se, entender as ferramentas disponíveis e tomar decisões informadas. As IAs não substituem desenvolvedores, mas potencializam suas capacidades.

Por fim, haverá um painel à tarde sobre IAs para código, onde serão discutidas essas questões na prática. O mercado mudou, e precisamos nos dedicar a entender e utilizar essas ferramentas para criar soluções de qualidade.

Palestras Keynotes - STEPHEN WOLFRAM - Computation and the Future of Al

Discutindo a importância da computação e da IA

Primeiramente, pedimos desculpas por estar em um local um pouco inusitado e pela conexão com a rede, que está apresentando alguns problemas técnicos. Vamos falar sobre computação e o futuro da Inteligência Artificial (IA). Começaremos discutindo a ideia de computação, que consideramos a mais importante do século passado. Essa ideia de construir coisas complexas usando regras simples nos levou ao desenvolvimento de software e a muitas outras oportunidades na computação.

A IA é uma parte significativa dessa grande ideia de computação. Tivemos a sorte de passar a vida alternando entre ciência básica e tecnologia, ambas impulsionadas por essa ideia. Em certo sentido, vivemos o sonho da IA por 40 anos, tentando construir sistemas que nos permitam desenvolver ideias de forma automática. O objetivo final da IA é automatizar ao máximo as tarefas que desejamos realizar.

Explorando avanços em redes neurais e LLMs

Com o avanço da tecnologia, especialmente com redes neurais e LLMs (Large Language Models, ou Modelos de Linguagem Grande), estamos vendo algo inesperado. Trabalhamos com redes neurais desde os anos 80, mas foi em 2011 que elas começaram a identificar imagens de forma eficaz. Em 2022, com o avanço dos modelos de linguagem, as redes neurais passaram a lidar com dados linguísticos de maneira surpreendente.

A história das redes neurais é marcada por avanços significativos, semelhantes ao treinamento de uma rede neural individual, que progride até atingir um ponto de ruptura e continua evoluindo. A identificação de imagens melhorou significativamente após 2011, e as LLMs estão se tornando mais rápidas e baratas. O principal avanço é que agora podemos usar LLMs para criar uma interface linguística para nossas atividades.

Investigando o funcionamento das LLMs

Por que as LLMs funcionam? Ninguém sabe ao certo. Escrevemos um livro sobre LLMs e ChatGPT logo após seu lançamento, devido à curiosidade das pessoas sobre seu funcionamento. As LLMs processam dados da web e de outras fontes, tentando prever palavras e frases com base em padrões estatísticos. A dificuldade está em generalizar a partir de dados nunca vistos antes, de forma que consideremos razoável.

Mesmo em tarefas como identificação de imagens, as redes neurais tomam decisões semelhantes às humanas, possivelmente devido à similaridade entre a arquitetura dos cérebros e das redes neurais. As LLMs generalizam de maneira semelhante aos humanos, apesar de não haver uma precisão matemática em suas decisões.

Surpresas e desafios na linguagem fluente

A surpresa é que foi possível obter uma linguagem fluente de uma rede neural. Isso se deve, em parte, à regularidade na língua humana, que as LLMs descobriram implicitamente durante o treinamento. As LLMs oferecem uma interface linguística útil, mas a questão é como utilizá-las de forma eficaz.

A computação, por outro lado, é sobre precisão e formalização do mundo. Representamos o mundo em termos de regras e programas, descrevendo o que acontece. Passamos décadas formalizando o mundo em termos de computação, desenvolvendo a linguagem Wolfram, uma linguagem computacional que descreve o mundo de forma relevante para os humanos.

Utilizando a linguagem Wolfram para computação

A linguagem Wolfram é uma notação para computação, permitindo que humanos e AIs a utilizem. A consistência da linguagem facilita seu aprendizado por AIs. Usamos LLMs para transformar ideias em código preciso na linguagem Wolfram, permitindo construir sistemas complexos.

A linguagem Wolfram é usada para computar com qualquer coisa, desde imagens até dados reais do mundo. Podemos, por exemplo, identificar imagens, criar gráficos, manipular dados geográficos e muito mais. A ideia é codificar o conhecimento computacional do mundo na linguagem, permitindo que empresas e pesquisadores a utilizem para representar e manipular dados de forma simbólica.

Compreensão da língua natural e Wolfram Alpha

Nós pioneiramos a ideia de compreensão da língua natural com o Wolfram Alpha, permitindo análises de língua natural para computar dados. Independentemente de o dado ser texto, áudio, imagens ou qualquer outro tipo, na linguagem Wolfram, sabemos intrinsecamente sobre todas essas modalidades, permitindo uma interação limpa entre elas.

Podemos abrir o notebook assistant e desafiar a localização tecnológica, por exemplo, solicitando uma viagem mais curta entre capitais na América do Sul. Vamos ver se conseguimos sintetizar um código em Wolfram a partir da língua natural. Embora o resultado inicial não tenha sido útil, podemos tentar diretamente na linguagem Wolfram, gerando uma lista de cidades e encontrando a viagem mais curta entre elas.

Problemas de otimização e integração de dados

Ao resolver problemas de otimização combinatorial, como encontrar a viagem mais curta entre cidades, é importante integrar dados curados e representações de entidades, como cidades, em um mapa. Isso é algo que construímos ao longo de 40 anos, criando uma linguagem consistente que permite misturar diferentes modalidades de dados e representar o mundo computacionalmente.

Hoje, essa ferramenta pode ser usada por IAs, permitindo computação confiável e a construção de sistemas mais robustos. A integração de todo esse conhecimento computacional em LLMs facilita a construção de sistemas baseados em linguagem.

Desafios e oportunidades na computação

O desafio atual é pensar computacionalmente. No passado, a questão era como formular algo; agora, é como formalizar computacionalmente. Com essa formalização, podemos usar LLMs para explorar consequências e construir sistemas produtivos.

Estamos em tempos emocionantes, com a Inteligência Artificial e a computação oferecendo ferramentas poderosas. O desafio é descobrir como aproveitar ao máximo essas ferramentas, pois muitas coisas emocionantes estão por vir.

Automação e programação

A automação da programação tem avançado lentamente, mas é essencial. Muitas empresas ainda utilizam engenharia de software em um nível baixo, enquanto poderiam automatizar processos e implementar soluções rapidamente. A dinâmica entre CEOs e engenheiros de software é diferente, mas a automação pode facilitar a implementação de ideias.

LLMs surpreenderam ao escrever código, mas muitas vezes produzem blocos de código desnecessários. A linguagem Wolfram, por exemplo, já possui funções definidas que evitam a necessidade de escrever grandes blocos de código. A precisão na especificação do que se deseja é crucial, e a linguagem computacional precisa é fundamental para evitar erros.

LLMs e computação

LLMs são úteis como interfaces linguísticas para computação complexa, mas não substituem a necessidade de uma base computacional sólida. Elas podem realizar tarefas que antes não eram possíveis, mas a precisão computacional ainda é necessária para muitas aplicações.

A integração de LLMs com a linguagem Wolfram permite uma conexão robusta com a estrutura geral do que se deseja alcançar. No entanto, é importante saber que LLMs podem não ser 100% precisas e devem ser usadas em contextos onde 80% de sucesso é aceitável.

Conclusão

A programação pode ser muito mais automatizada, e a IA está ajudando a acelerar esse processo. A automação é a grande história, e a programação de IA é um chamado para mais automação. A combinação de automação sofisticada com LLMs é uma abordagem poderosa, e estamos construindo essa automação para beneficiar tanto humanos quanto IAs.

Agradecemos ao Sr. Wolfram por sua participação na IAConference Brasil 2025 e esperamos continuar explorando essas ideias no futuro.

Sobre o curso Palestras da IA CONFERENCE 2025

O curso Palestras da IA CONFERENCE 2025 possui 789 minutos de vídeos, em um total de 54 atividades. Gostou? Conheça nossos outros cursos de IA para Programação em Inteligência Artificial, ou leia nossos artigos de Inteligência Artificial.

Matricule-se e comece a estudar com a gente hoje! Conheça outros tópicos abordados durante o curso:

Aprenda IA para Programação acessando integralmente esse e outros cursos, comece hoje!

Conheça os Planos para Empresas