Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Javi Lopez ⛩️
"O software será uma mercadoria, como a eletricidade, e funcionará diretamente na camada LLM."
O que isso significa? Vou explicar em detalhes (post longo a caminho 🍿) e, uma vez que você termine, não haverá meio-termo. Você vai ou rejeitar completamente a ideia (e estar errado) ou vai sair um convertido e eu vou te dar as boas-vindas ao meu culto 😂
O post de ontem, onde disse que consigo ver isso muito claramente no futuro próximo, gerou muito burburinho e perguntas. Então, vou desenvolver a ideia que venho compartilhando aqui (e com qualquer um que não se canse de mim fora do X, estou cansado de mim mesmo neste ponto) há mais de um ano. Vamos lá.
1. ‘Todo software funcionará na camada LLM’
Primeiro, o óbvio.
Mesmo hoje, há pessoas que, inacreditavelmente, ainda negam que estamos caminhando para um mundo onde todo software (frontend, backend, infra, etc.) é criado com linguagem natural simples.
Na realidade, já estamos basicamente lá com LLMs como Claude, Grok ou ChatGPT e ferramentas como Cursor, Windsurf ou Lovable. Qualquer desenvolvedor decente que conheço não escreve mais uma única linha de código. Eles falam em linguagem natural e direcionam enxames de agentes para construir todo o aplicativo, depois apenas revisam (e discutem e imploram 🤣) para que a IA entregue sua visão.
Essa parte é trivial. Se você ainda não está lá, é porque não quer estar.
O próximo salto é muito maior, e é onde até pessoas profundamente envolvidas em IA me olham com ceticismo.
Não precisaremos dessa camada também. Sem Python, sem HTML, sem C++, sem CSS, nada.
Tudo (toda a camada de software, a lógica, a persistência ou memória (chame de banco de dados se quiser, mas será muito mais do que isso), funcionará ‘diretamente’ dentro do LLM.
Elon Musk resumiu em uma frase que ficará na história: "Qualquer fluxo de bits de entrada para qualquer fluxo de bits de saída."
Se você entende tecnologia, provavelmente não precisa de mais. Só para garantir, aqui está um exemplo rápido.
Hoje, se quisermos construir um upscaler como o Magnific, precisamos:
- Lógica de backend, o código que roda no servidor (no nosso caso, Python)
- Um banco de dados (Firebase, Postgres, Supabase, MySQL, etc.)
- A camada frontend, o que o usuário vê: HTML, CSS, JavaScript
- A camada infra: GPUs em nuvem onde a mágica acontece e onde chamamos fluxos de trabalho via APIs
Que circo!
E claro, você pode praticamente construir isso com Cursor + Claude já. Mas as linguagens de programação foram projetadas para humanos. As futuras IAs não precisarão delas. Elas são redundantes. Um parâmetro que devemos remover. Uma ineficiência.
Você realmente acha que tudo isso é necessário? Você realmente acha que ainda estaremos fazendo as coisas assim em 20 anos?
Não. Um futuro LLM, um que é difícil de imaginar hoje, mas que veremos mais cedo do que você pensa, poderia tirar uma captura de tela do Magnific de hoje e, com apenas essa imagem e um clique ou arraste do mouse, inferir o que precisa fazer a seguir.
INFERIR O QUE PRECISA FAZER A SEGUIR.
E não quero dizer que ele secretamente construirá um frontend, backend e banco de dados por trás das cenas (isso é medieval). Quero dizer que ele literalmente gerará o próximo quadro visual a ser mostrado ao usuário. Isso poderia ser a mesma captura de tela com o controle deslizante movido 1 pixel para a direita e a imagem exibida com um upscale ligeiramente mais detalhado.
Assim, desse jeito.
‘Mas… mas… mas… Javi… onde acontece a lógica? Onde está o programa fazendo isso?’
Diretamente dentro do LLM! Da mesma forma que os modelos de hoje podem pegar uma imagem e gerar um vídeo completo com física decente, eles entenderão o que atualmente chamamos de ‘lógica de negócios’ de qualquer aplicação, não importa quão complexa.
"Qualquer fluxo de bits de entrada para qualquer fluxo de bits de saída."
Lógica emergindo do próprio modelo, não de código feito à mão.
Agora você provavelmente entendeu. Se não, leve um minuto para refletir sobre a ideia antes de passar para o próximo ponto, não deixe que ela fique presa na sua garganta.
2. ‘O software será uma mercadoria, como a eletricidade’
E não apenas software. Todo entretenimento digital também (filmes, videogames, etc.). Em tempo real.
A maior parte do valor da tecnologia digital se concentrará em muito poucas empresas. Aqueles que vencerem a corrida multimodal de LLM e aqueles que fornecerem a infraestrutura em que eles operam. Imagine um mundo onde dizer ‘quero um SaaS que faça isso’ ou ‘faça um filme nesse estilo com meu cachorro como protagonista’ te dá um resultado instantâneo de um LLM com qualidade muito acima das melhores produções de hoje.
Basicamente, acho que toda a lógica e camadas visuais funcionarão em LLMs ultra-avançados que mal conseguimos imaginar hoje. Não fará sentido construir aplicativos, sites ou entretenimento da maneira que fazemos agora. A capacidade de fazê-lo se concentrará em empresas com os melhores LLMs e a computação para executá-los em escala.
Escolheremos provedores de IA principalmente com base no preço e muito menos em recursos ou capacidade. Pense nas empresas de eletricidade hoje, ou PS vs Xbox se eles travarem algumas IPs interessantes.
3. ‘Mas Javi, eles não são determinísticos e não têm memória. Eles nunca construirão aplicativos decentes assim’
Chamar isso de impossível é míope. Claro que eles terão persistência e memória. Apenas não da maneira simplista ‘como um banco de dados’ que usamos hoje.
4. ‘Ok, mas como você até construiria um LLM assim?’
Cuidadosamente 😂
Principalmente com dados sintéticos. Aqui está uma ideia óbvia que ainda é bastante revolucionária.
Como LLMs e agentes estão próximos de gerar aplicativos de ponta a ponta (backend e frontend), podemos instrumentá-los para construir em um ciclo fechado, com objetivos explícitos e funções de recompensa, registrando estados e entradas da interface do usuário. Essas trajetórias podem alimentar o treinamento para futuros modelos fundamentais.
Se eu consigo pensar nisso com meu conhecimento limitado (mesmo que nenhuma grande empresa tenha dito publicamente que está fazendo isso), posso assumir que mentes muito mais brilhantes já estão nisso.
5. ‘Se isso acabar se revelando verdade, como você consegue uma vantagem sobre os não-crentes?’
Você já está à frente se estiver certo sobre algo assim. Por enquanto, meu movimento é me posicionar através de investimentos, descobrindo quais empresas concentrarão mais poder ao garantir GPUs e a tecnologia. Vou deixar um link mais tarde no tópico, embora possa ser míope e focado no que existe hoje. O melhor que você pode fazer é acompanhar o jogo dia a dia e se manter afiado.
Como isso está aterrissando?
Qualquer pergunta, estou feliz em responder nos comentários.

6,6K
mano...


Javi Lopez ⛩️Há 5 horas
Os Airbnbs, e refiro-me a Airbnbs verdadeiramente premium, costumavam ser lugares onde se pagava menos do que num hotel e se recebia muito mais, como poder fazer o check-in mais cedo e o check-out mais tarde, etc.
Agora são muito mais caros do que hotéis de 5 estrelas e obrigam-no a tirar o lixo sob ameaça de multa, não o deixam entrar até às 16h, expulsam-no às 10h e dão-lhe uma longa lista de instruções sobre como deixar o lugar, mesmo que esteja a pagar €300 por uma limpeza supostamente feita e €700 por dia pelo próprio lugar.


2,81K
Os Airbnbs, e refiro-me a Airbnbs verdadeiramente premium, costumavam ser lugares onde se pagava menos do que num hotel e se recebia muito mais, como poder fazer o check-in mais cedo e o check-out mais tarde, etc.
Agora são muito mais caros do que hotéis de 5 estrelas e obrigam-no a tirar o lixo sob ameaça de multa, não o deixam entrar até às 16h, expulsam-no às 10h e dão-lhe uma longa lista de instruções sobre como deixar o lugar, mesmo que esteja a pagar €300 por uma limpeza supostamente feita e €700 por dia pelo próprio lugar.


6,67K
Notícias de amanhã:
Lovable matou a OpenAI.
E o Vídeo Matou a Estrela do Rádio!

Javi Lopez ⛩️8/08, 20:57
⚡ O GPT-5 acabou de eliminar o Loveable.
Eventualmente, todas as camadas de software funcionarão diretamente dentro dos LLMs.
A enorme quantidade de poder que as empresas de IA com GPUs e a capacidade de continuar a lançar novos LLMs terão levará a monopólios absolutos.
4,41K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável