Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

seth bloomberg
Investeringspartner @UnsupervisedCap | Prev: @CrucibleLabs, forskning @MessariCrypto | Woo Pig 🐽
Stadig mer enig i denne oppfatningen

will brown8. aug., 02:52
Jeg blir stadig mer overbevist om at «transformativ AI» kommer til å se ut som en overflod av spesialiserte modeller for alt fra legemiddeldesign til værsimuleringer til robotikk til forsyningskjeder, ikke én agent som styrer dem alle. Vi kommer til å trenge mange flere AI-forskere
533
Målet med ATOM-prosjektet er enormt. Det er en samordnet innsats for å sikre at USA har ressursene til å bygge grensesprengende AI-modeller med åpen kildekode.
Det er en av bevegelsene innen åpen kildekode/AI jeg er mest begeistret for, og jeg er stolt over å være inkludert i listen over underskrivere nedenfor.

Nathan Lambert7. aug., 09:21
Halvannen dag etter lanseringen av ATOM, er én ting veldig klart om åpne modeller sammenlignet med tidligere år: det er ikke lenger en minoritetsposisjon.
Nedenfor er en liste over bemerkelsesverdige underskrivere (med over 200 totalt). Folk fra alle hjørner av AI-fellesskapet har meldt seg på. Folk som ville bli stemplet som en «dommedags» og andre som er «akselerasjonister». Det er ledende akademikere, offentlig ansatte, forskere ved ledende laboratorier, ingeniører, risikokapitalister og alt i mellom.
Nå starter en lang prosess med å gjøre dette virkelig. OpenAI har gjort en god ting for å gjøre det lettere for ledere på tvers av feltet å godkjenne åpne modellutgivelser, men dette løser ikke behovet for ATOM. Det forsterker at dette er en samfunnsendring som ikke kan fikses av åpen organisasjon eller én talsmann.
La oss fortsette å presse på.
Her er de fremtredende underskriverne. Jeg kommer til å legge ut en ny oppdatering med alle takkene for hvem som fikk dette til å skje snart også.
Clement Delangue (@ClementDelangue), administrerende direktør i Hugging Face
Jeremy Howard (@jeremyphoward), medgründer av Fast ai & Answer ai
Oleksii Kuchaiev (@kuchaev), direktør for anvendt forskning hos Nvidia
Ross Taylor (@rosstaylor90), administrerende direktør i General Reasoning
Sebastian Raschka (@rasbt), forfatter av Build A Large Language Model (From Scratch)
Soumith Chintala (@soumithchintala), medgründer av PyTorch
Miles Brundage (@Miles_Brundage), tidligere leder for politisk forskning ved OpenAI
Ali Farhadi, administrerende direktør i Ai2
Sergey Levine (@svlevine), professor ved U.C. Berkeley, medgründer av Physical Intelligence
Bill Gurley (@bgurley), General Partner i Benchmark
Vincent Weisser (@vincentweisser), administrerende direktør i Prime Intellect
Dylan Patel (@dylan522p), grunnlegger og administrerende direktør i SemiAnalysis
Christopher D. Manning (@chrmanning), professor ved Stanford University
Andrew Trask (@iamtrask), grunnlegger av OpenMined
Percy Liang (@percyliang), professor ved Stanford University
Seth Bloomberg (@bloomberg_seth), investeringspartner i Unsupervised Capital
Jason Lee (@jasondeanlee), professor ved UC Berkeley
Animesh Garg (@animesh_garg), professor i databehandling, Georgia Institute of Technology
Thomas Wolf (@Thom_Wolf), medgründer og CSO i Hugging Face
Matt White (@matthew_d_white), administrerende direktør, PyTorch Foundation
Prof Dylan Hadfield-Menell (@dhadfieldmenell), førsteamanuensis i EECS, MIT
Kevin Xu (@kevinsxu), grunnlegger, Interconnected
Andy Konwinski (@andykonwinski), grunnlegger, Laude Institute
Jason Kwon (@jasonkwon), strategisjef, OpenAI
Will Brown (@willccbb), forskningsleder, førsteklasses intellekt
Paige Bailey (@DynamicWebPaige), teknisk leder for DevX hos Google DeepMind
Mike Abbott, medgründer og administrerende direktør, Open Athena
Helen Toner (@hlntnr), Georgetown University
Mark Surman (@msurman), President, Mozilla Foundation
Jordan Schnieder (@jordanschnyc), grunnlegger ChinaTalk
Finbarr Timbers (@finbarrtimbers), ledende forskningsingeniør ved Ai2
Andrew Carr (@andrew_n_carr), medgründer og sjefsforsker ved Cartwheel
Swyx (@swyx), medgründer Smol . ai og latent rom
8,35K
seth bloomberg lagt ut på nytt
Halvannen dag etter lanseringen av ATOM, er én ting veldig klart om åpne modeller sammenlignet med tidligere år: det er ikke lenger en minoritetsposisjon.
Nedenfor er en liste over bemerkelsesverdige underskrivere (med over 200 totalt). Folk fra alle hjørner av AI-fellesskapet har meldt seg på. Folk som ville bli stemplet som en «dommedags» og andre som er «akselerasjonister». Det er ledende akademikere, offentlig ansatte, forskere ved ledende laboratorier, ingeniører, risikokapitalister og alt i mellom.
Nå starter en lang prosess med å gjøre dette virkelig. OpenAI har gjort en god ting for å gjøre det lettere for ledere på tvers av feltet å godkjenne åpne modellutgivelser, men dette løser ikke behovet for ATOM. Det forsterker at dette er en samfunnsendring som ikke kan fikses av åpen organisasjon eller én talsmann.
La oss fortsette å presse på.
Her er de fremtredende underskriverne. Jeg kommer til å legge ut en ny oppdatering med alle takkene for hvem som fikk dette til å skje snart også.
Clement Delangue (@ClementDelangue), administrerende direktør i Hugging Face
Jeremy Howard (@jeremyphoward), medgründer av Fast ai & Answer ai
Oleksii Kuchaiev (@kuchaev), direktør for anvendt forskning hos Nvidia
Ross Taylor (@rosstaylor90), administrerende direktør i General Reasoning
Sebastian Raschka (@rasbt), forfatter av Build A Large Language Model (From Scratch)
Soumith Chintala (@soumithchintala), medgründer av PyTorch
Miles Brundage (@Miles_Brundage), tidligere leder for politisk forskning ved OpenAI
Ali Farhadi, administrerende direktør i Ai2
Sergey Levine (@svlevine), professor ved U.C. Berkeley, medgründer av Physical Intelligence
Bill Gurley (@bgurley), General Partner i Benchmark
Vincent Weisser (@vincentweisser), administrerende direktør i Prime Intellect
Dylan Patel (@dylan522p), grunnlegger og administrerende direktør i SemiAnalysis
Christopher D. Manning (@chrmanning), professor ved Stanford University
Andrew Trask (@iamtrask), grunnlegger av OpenMined
Percy Liang (@percyliang), professor ved Stanford University
Seth Bloomberg (@bloomberg_seth), investeringspartner i Unsupervised Capital
Jason Lee (@jasondeanlee), professor ved UC Berkeley
Animesh Garg (@animesh_garg), professor i databehandling, Georgia Institute of Technology
Thomas Wolf (@Thom_Wolf), medgründer og CSO i Hugging Face
Matt White (@matthew_d_white), administrerende direktør, PyTorch Foundation
Prof Dylan Hadfield-Menell (@dhadfieldmenell), førsteamanuensis i EECS, MIT
Kevin Xu (@kevinsxu), grunnlegger, Interconnected
Andy Konwinski (@andykonwinski), grunnlegger, Laude Institute
Jason Kwon (@jasonkwon), strategisjef, OpenAI
Will Brown (@willccbb), forskningsleder, førsteklasses intellekt
Paige Bailey (@DynamicWebPaige), teknisk leder for DevX hos Google DeepMind
Mike Abbott, medgründer og administrerende direktør, Open Athena
Helen Toner (@hlntnr), Georgetown University
Mark Surman (@msurman), President, Mozilla Foundation
Jordan Schnieder (@jordanschnyc), grunnlegger ChinaTalk
Finbarr Timbers (@finbarrtimbers), ledende forskningsingeniør ved Ai2
Andrew Carr (@andrew_n_carr), medgründer og sjefsforsker ved Cartwheel
Swyx (@swyx), medgründer Smol . ai og latent rom
33,94K
seth bloomberg lagt ut på nytt
🌸 Hvordan åpen kildekode driver innovasjon
Her er en visualisering av agenter som sendes inn over tid
Jo nærmere prikkene er hverandre, jo mer lik er agentkoden
Legg merke til hvordan klynger av agenter dukker opp - hver gang en gruvearbeider kommer opp med en innovativ ny måte å løse problemer på, frigjøres mange lignende agenter som bygger på den logikken
Vi synes det er vakkert å se. Legg også merke til hvordan klyngene vises raskere og raskere mot slutten - agenter forbedrer seg i et akselererende tempo
14,5K
Oppsettet for Max og det @webuildscore teamet er fenomenalt:
• Eksepsjonell grunnlegger/team
• Bygge et differensiert produkt for et underbetjent/voksende marked
• Utnytte Bittensors insentivmekanismeteknologi for konsekvent å skape et bedre produkt
Veldig spent på denne.

Sami Kassab5. aug., 22:49
Vi publiserer vårt interne investeringsnotat på Score – Subnet 44 på Bittensor.
Score bygger et datasynssystem for sportsanalyse, og behandler allerede fotballkamper i full lengde på under 2 minutter.
Vi dimensjonerte det umiddelbare, brukbare markedet til 1,8 milliarder dollar, noe som antyder en 51x oppside til tokenet ved dagens verdsettelse.
Fullstendig notat nedenfor.
3,67K
seth bloomberg lagt ut på nytt
Vi publiserer vårt interne investeringsnotat på Score – Subnet 44 på Bittensor.
Score bygger et datasynssystem for sportsanalyse, og behandler allerede fotballkamper i full lengde på under 2 minutter.
Vi dimensjonerte det umiddelbare, brukbare markedet til 1,8 milliarder dollar, noe som antyder en 51x oppside til tokenet ved dagens verdsettelse.
Fullstendig notat nedenfor.
44,86K
Vil gjerne se dette skje også. Men i praksis er jeg usikker på hvordan jeg skal implementere noe slikt.
Subsidierer Fed-regjeringen ganske enkelt kostnadene for åpne laboratorier for å anskaffe denne maskinvaren? Dette vil være et løpende tilskudd (trenger ny maskinvare ofte nå), og hvordan velge hvilke laboratorier som får tilskuddet? Serviettmatematikk for 10K H200-er er sannsynligvis nord for $300M hvis vi bruker enkel antagelse på ~$30K per H200. Og dette er bare GPU-maskinvareanskaffelse. Du trenger et sted å kjøre disse sammen med opex for å vedlikeholde dem.
Hvis du tvinger eksisterende dataeiere til å skille ut en viss mengde av forsyningen sin for å gi til disse laboratoriene, trenger de også en form for subsidie. De fleste av disse selskapene sier at de er forsyningsbegrenset akkurat nå også.
Uansett ser det ut til at vi er på vei mot å skape et nytt dataparadigme. Paradigmet så langt har dreid seg om å skalere opp samlokalisert databehandling. Ingen tvil om at det fortsatt vil være utbygginger av datasentre på størrelse med Manhattan i USA og andre steder. Men det vil også være mindre dataøyer i varierende størrelse, som er forbundet med fiber osv. Når dette er de nye/standard begrensningene og grunnleggende begrensningene, vil det presse det bredere AI-forskningsmiljøet i nye, uutforskede retninger.
Nedstrømseffekten av dette kan bety en stor og økende divergens mellom forskningen, modellarkitekturene, økonomien etc produsert mellom de største, lukkede AI-laboratoriene (de som jobber med effektivt massive enkeltdatasentre) og de (sannsynligvis akademikere og desentraliserte AI-selskaper) som bruker mer distribuerte dataklynger (dvs. de små, men mange dataøyene). Uklart hvordan det blir for begge sider (og til syvende og sist forbrukerne av modellene produsert av hver), men det virker som retningen ting er på vei i.
Du kan til og med hevde at vi har sett glimt av dette allerede. Kinesiske laboratorier har fundamentalt forskjellige databehandlingsbegrensninger enn for eksempel OpenAI. Disse kinesiske laboratoriene måtte innovere på trenings-/slutningsteknikker på grunn av dette. Ikke en perfekt analogi, men kanskje det kan bidra til å belyse hvordan "små skritt" mot et nytt paradigme ser ut, og over tid sammensetter og produserer disse små skrittene noe som ser ut/fungerer ganske annerledes enn det den andre veien produserer.

Nathan Lambert4. aug., 22:08
For å løse dette er nøkkelressursterskelen å ha flere åpne laboratorier med 10000+ GPUer hver.
Flere laboratorier gjør det slik at vi ikke står i gjeld til big technology cos gode nåde for å ønske å gi ut modeller. Disse institusjonene øker innovasjonen + reduserer risikoen for denne viktige teknologien.
615
Veldig interessant lesning, noen ting som stakk seg ut:
-- starter artikkelen med å bemerke at de ser AI-systemer selvforbedre (voksende trend), men med få detaljer
-- å trekke stor forskjell b/t "personlig/forbruker" AI vs å erstatte arbeidere/arbeidskraft
-- briller blir våre "primære dataenheter", fordelaktig bc de har mer kontekst
-- Superintelligens betyr at de må revurdere sin åpen kildekode-strategi, litt av et omdreiningspunkt fra i fjor.

AI at Meta30. juli 2025
I dag delte Metas visjon for fremtiden for personlig superintelligens for alle.
Les hele brevet hans her:
1,12K
Kunne ikke vært mer enig.
Vanskelig å forestille seg nå, men før midten av 2019 nådde stablecoins bare 20 % av det daglige volumet på Ethereum. Stablecoins eventuelle volumdominans gjorde det mulig for DeFi å akselerere.
Vi trenger lignende katalysatorer for desentralisert AI.

anand iyer30. juli 2025
Decentralized AI today is where DeFi & stablecoins were circa 2020.
Most tech truly transformative AI won’t live inside closed stacks. It is being built on open, transparent, decentralized rails.
A breakthrough event will usher in mainstream adoption. Like Stripe acquiring Bridge. And then decentralized AI will just be called AI.
1,15K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til