Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

seth bloomberg
Investeringspartner @UnsupervisedCap | Föregående: @CrucibleLabs, forskning @MessariCrypto | Woo Gris 🐽
Instämmer i allt högre grad i denna uppfattning

will brown8 aug. 02:52
Jag blir alltmer övertygad om att "transformativ AI" kommer att se ut som ett överflöd av specialiserade modeller för allt från läkemedelsdesign till vädersimuleringar till robotik till leveranskedjor, inte en agent som styr dem alla. Vi kommer att behöva många fler AI-forskare
529
Målet med ATOM-projektet är enormt. Det är en samlad insats för att se till att USA har resurser för att bygga avancerade AI-modeller med öppen källkod.
Det är en av de rörelser inom open source/AI som jag är mest exalterad över, och jag är stolt över att finnas med i listan över undertecknare nedan.

Nathan Lambert7 aug. 09:21
En och en halv dag före lanseringen av ATOM är en sak mycket tydlig när det gäller öppna modeller jämfört med tidigare år: det är inte längre en minoritetsposition.
Nedan följer en lista över kända undertecknare (med över 200 totalt). Människor från alla hörn av AI-gemenskapen har skrivit på. Människor som skulle stämplas som en "doomer" och andra som är "accelerationister". Det finns ledande akademiker, statligt anställda, forskare på ledande laboratorier, ingenjörer, riskkapitalister och allt däremellan.
Nu börjar en lång process för att göra detta verkligt. OpenAI har gjort en bra sak för att göra det lättare för ledningen över hela fältet att godkänna öppna modellsläpp, men detta löser inte behovet av ATOM. Det förstärker att detta är en samhällsförändring som inte kan fixas av en öppen organisation eller en förespråkare.
Låt oss fortsätta pusha.
Här är de framträdande undertecknarna. Jag kommer att lägga ut en annan uppdatering med alla tack för som fick detta att hända snart också.
Clement Delangue (@ClementDelangue), VD för Hugging Face
Jeremy Howard (@jeremyphoward), medgrundare av Fast ai & Answer ai
Oleksii Kuchaiev (@kuchaev), chef för tillämpad forskning på Nvidia
Ross Taylor (@rosstaylor90), VD för General Reasoning
Sebastian Raschka (@rasbt), författare till Build A Large Language Model (From Scratch)
Soumith Chintala (@soumithchintala), medgrundare av PyTorch
Miles Brundage (@Miles_Brundage), tidigare chef för policyforskning på OpenAI
Ali Farhadi, VD för Ai2
Sergey Levine (@svlevine), professor vid U.C. Berkeley, medgrundare av Physical Intelligence
Bill Gurley (@bgurley), General Partner på Benchmark
Vincent Weisser (@vincentweisser), VD för Prime Intellect
Dylan Patel (@dylan522p), grundare och VD för SemiAnalysis
Christopher D. Manning (@chrmanning), professor vid Stanford University
Andrew Trask (@iamtrask), grundare av OpenMined
Percy Liang (@percyliang), professor vid Stanford University
Seth Bloomberg (@bloomberg_seth), investeringspartner på Unsupervised Capital
Jason Lee (@jasondeanlee), professor vid UC Berkeley
Animesh Garg (@animesh_garg), professor i databehandling, Georgia Institute of Technology
Thomas Wolf (@Thom_Wolf), medgrundare och CSO på Hugging Face
Matt White (@matthew_d_white), verkställande direktör, PyTorch Foundation
Prof Dylan Hadfield-Menell (@dhadfieldmenell), docent i EECS, MIT
Kevin Xu (@kevinsxu), grundare, Interconnected
Andy Konwinski (@andykonwinski), grundare, Laude Institute
Jason Kwon (@jasonkwon), strategichef, OpenAI
Will Brown (@willccbb), forskningsledare, Prime Intellect
Paige Bailey (@DynamicWebPaige), DevX Engineering Lead på Google DeepMind
Mike Abbott, medgrundare och VD, Open Athena
Helen Toner (@hlntnr), Georgetown University
Mark Surman (@msurman), ordförande, Mozilla Foundation
Jordan Schnieder (@jordanschnyc), grundare ChinaTalk
Finbarr Timbers (@finbarrtimbers), Lead Research Engineer på Ai2
Andrew Carr (@andrew_n_carr), medgrundare och Chief Scientist på Cartwheel
Swyx (@swyx), medgrundare Smol . AI och latent rymd
8,33K
seth bloomberg delade inlägget
En och en halv dag före lanseringen av ATOM är en sak mycket tydlig när det gäller öppna modeller jämfört med tidigare år: det är inte längre en minoritetsposition.
Nedan följer en lista över kända undertecknare (med över 200 totalt). Människor från alla hörn av AI-gemenskapen har skrivit på. Människor som skulle stämplas som en "doomer" och andra som är "accelerationister". Det finns ledande akademiker, statligt anställda, forskare på ledande laboratorier, ingenjörer, riskkapitalister och allt däremellan.
Nu börjar en lång process för att göra detta verkligt. OpenAI har gjort en bra sak för att göra det lättare för ledningen över hela fältet att godkänna öppna modellsläpp, men detta löser inte behovet av ATOM. Det förstärker att detta är en samhällsförändring som inte kan fixas av en öppen organisation eller en förespråkare.
Låt oss fortsätta pusha.
Här är de framträdande undertecknarna. Jag kommer att lägga ut en annan uppdatering med alla tack för som fick detta att hända snart också.
Clement Delangue (@ClementDelangue), VD för Hugging Face
Jeremy Howard (@jeremyphoward), medgrundare av Fast ai & Answer ai
Oleksii Kuchaiev (@kuchaev), chef för tillämpad forskning på Nvidia
Ross Taylor (@rosstaylor90), VD för General Reasoning
Sebastian Raschka (@rasbt), författare till Build A Large Language Model (From Scratch)
Soumith Chintala (@soumithchintala), medgrundare av PyTorch
Miles Brundage (@Miles_Brundage), tidigare chef för policyforskning på OpenAI
Ali Farhadi, VD för Ai2
Sergey Levine (@svlevine), professor vid U.C. Berkeley, medgrundare av Physical Intelligence
Bill Gurley (@bgurley), General Partner på Benchmark
Vincent Weisser (@vincentweisser), VD för Prime Intellect
Dylan Patel (@dylan522p), grundare och VD för SemiAnalysis
Christopher D. Manning (@chrmanning), professor vid Stanford University
Andrew Trask (@iamtrask), grundare av OpenMined
Percy Liang (@percyliang), professor vid Stanford University
Seth Bloomberg (@bloomberg_seth), investeringspartner på Unsupervised Capital
Jason Lee (@jasondeanlee), professor vid UC Berkeley
Animesh Garg (@animesh_garg), professor i databehandling, Georgia Institute of Technology
Thomas Wolf (@Thom_Wolf), medgrundare och CSO på Hugging Face
Matt White (@matthew_d_white), verkställande direktör, PyTorch Foundation
Prof Dylan Hadfield-Menell (@dhadfieldmenell), docent i EECS, MIT
Kevin Xu (@kevinsxu), grundare, Interconnected
Andy Konwinski (@andykonwinski), grundare, Laude Institute
Jason Kwon (@jasonkwon), strategichef, OpenAI
Will Brown (@willccbb), forskningsledare, Prime Intellect
Paige Bailey (@DynamicWebPaige), DevX Engineering Lead på Google DeepMind
Mike Abbott, medgrundare och VD, Open Athena
Helen Toner (@hlntnr), Georgetown University
Mark Surman (@msurman), ordförande, Mozilla Foundation
Jordan Schnieder (@jordanschnyc), grundare ChinaTalk
Finbarr Timbers (@finbarrtimbers), Lead Research Engineer på Ai2
Andrew Carr (@andrew_n_carr), medgrundare och Chief Scientist på Cartwheel
Swyx (@swyx), medgrundare Smol . AI och latent rymd
33,94K
seth bloomberg delade inlägget
🌸 Hur öppen källkod driver innovation
Här är en visualisering av agenter som skickats in över tid
Ju närmare punkterna är varandra, desto mer lik är agentkoden
Lägg märke till hur kluster av agenter dyker upp - varje gång en gruvarbetare kommer på ett innovativt nytt sätt att lösa problem, släpps många liknande agenter som bygger på den logiken
Vi tycker att det är vackert att se. Lägg också märke till hur klustren visas snabbare och snabbare mot slutet - agenterna förbättras i en accelererande takt
14,5K
Upplägget för Max och @webuildscore-teamet är fenomenalt:
• Exceptionell grundare/team
• Bygga en differentierad produkt för en underbetjänad/växande marknad
• Utnyttja Bittensors incitamentsmekanism för att konsekvent skapa en bättre produkt
Väldigt exalterad över den här.

Sami Kassab5 aug. 22:49
Vi publicerar vårt interna investerings-PM på Score—Subnet 44 på Bittensor.
Score bygger ett datorseendesystem för sportanalys och bearbetar redan hela fotbollsmatcher på under 2 minuter.
Vi bedömde den omedelbara, användbara marknaden till 1,8 miljarder dollar, vilket innebär en uppsida på 51x för token vid dagens värdering.
Fullständigt memo nedan.
3,67K
seth bloomberg delade inlägget
Vi publicerar vårt interna investerings-PM på Score—Subnet 44 på Bittensor.
Score bygger ett datorseendesystem för sportanalys och bearbetar redan hela fotbollsmatcher på under 2 minuter.
Vi bedömde den omedelbara, användbara marknaden till 1,8 miljarder dollar, vilket innebär en uppsida på 51x för token vid dagens värdering.
Fullständigt memo nedan.
44,86K
Skulle älska att se detta hända också. Men i praktiken är jag osäker på hur man ska genomföra något sådant här.
Subventionerar den federala regeringen helt enkelt kostnaden för öppna laboratorier att skaffa denna hårdvara? Detta skulle vara en pågående subvention (behöver ny hårdvara ofta nu), och hur väljer man vilka laboratorier som får subventionen? Servettmatematik för 10K H200 är förmodligen norr om $300M om vi använder ett enkelt antagande på ~$30K per H200. Och det här är bara förvärv av GPU-hårdvara. Du behöver någonstans att köra dessa tillsammans med opex för att underhålla dem.
Om du tvingar befintliga beräkningsägare att ta bort en viss mängd av sitt utbud för att tillhandahålla dessa labb behöver de också någon form av subvention. De flesta av dessa företag säger att de också har ett begränsat utbud just nu.
I vilket fall som helst verkar det som om vi är på väg mot skapandet av ett nytt beräkningsparadigm. Paradigmet har hittills kretsat kring att skala upp samlokaliserad beräkning. Utan tvekan kommer det fortfarande att finnas utbyggnader av datacenter i Manhattan-storlek i USA och på andra håll. Men det kommer också att finnas mindre beräkningsöar som varierar i storlek, som är anslutna med fiber etc. När detta är de nya/standardbegränsningarna och grundläggande begränsningarna kommer det att driva det bredare AI-forskarsamhället i nya, outforskade riktningar.
Nedströmseffekterna av detta kan innebära en stor och växande skillnad mellan den forskning, modellarkitekturer, ekonomi etc. som produceras mellan de största, slutna AI-laboratorierna (de som arbetar med effektivt massiva enskilda datacenter) och de (sannolikt akademiker och decentraliserade AI-företag) som använder mer distribuerade beräkningskluster (dvs. de små men talrika beräkningsöarna). Oklart hur det går för båda sidor (och i slutändan konsumenterna av de modeller som produceras av varje), men det verkar som om det är i den riktningen saker och ting är på väg.
Man kan till och med hävda att vi redan har sett glimtar av detta. Kinesiska laboratorier har fundamentalt andra beräkningsbegränsningar än till exempel OpenAI. Dessa kinesiska laboratorier var tvungna att förnya sig när det gäller tränings-/inferenstekniker på grund av detta. Inte en perfekt analogi, men kanske kan den hjälpa till att belysa hur "små steg" mot ett nytt paradigm ser ut, och över tid sammansätts dessa små steg och producerar något som ser ut/fungerar helt annorlunda än vad den andra vägen producerar.

Nathan Lambert4 aug. 22:08
För att lösa detta är den viktigaste resurströskeln att ha flera öppna labb med 10000+ GPU:er vardera.
Flera labb gör att vi inte är beroende av de stora teknikföretagens goda nåd att vilja släppa modeller. Dessa institutioner ökar innovationen + minskar riskerna för denna viktiga teknik.
613
Mycket intressant läsning, några saker som stack ut:
-- börjar med att notera att de ser AI-system självförbättras (växande trend) men med få detaljer
-- Att göra stor skillnad mellan "personlig/konsument" AI och att ersätta arbetare/arbetskraft
-- glasögon som blir våra "primära datorenheter", fördelaktiga eftersom de har mer sammanhang
Superintelligens innebär att de måste ompröva sin strategi för öppen källkod, vilket är en rejäl omsvängning från förra året.

AI at Meta30 juli 2025
Idag delade Mark med sig av Metas vision för framtiden för personlig superintelligens för alla.
Läs hela hans brev här:
1,12K
Kunde inte hålla med mer.
Svårt att föreställa sig nu, men före mitten av 2019 nådde stablecoins bara 20% av den dagliga volymen på Ethereum. Stablecoins slutliga volymdominans gjorde det möjligt för DeFi att accelerera.
Vi behöver liknande katalysatorer för decentraliserad AI.

anand iyer30 juli 2025
Decentraliserad AI är idag där DeFi och stablecoins befann sig runt 2020.
De flesta tekniska verkligt transformativa AI kommer inte att leva i slutna stackar. Den byggs på öppna, transparenta, decentraliserade skenor.
En banbrytande händelse kommer att inleda en allmän adoption. Som Stripe som förvärvar Bridge. Och då kommer decentraliserad AI bara att kallas AI.
1,14K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda