Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

seth bloomberg
Investment Partner @UnsupervisedCap | Zurück: @CrucibleLabs, Forschung @MessariCrypto | Woo Schwein 🐽
Ich stimme dieser Meinung zunehmend zu.

will brown8. Aug., 02:52
Ich bin zunehmend überzeugt, dass "transformative KI" wie eine Fülle von spezialisierten Modellen für alles aussehen wird, von der Arzneimittelentwicklung über Wettersimulationen bis hin zu Robotik und Lieferketten, und nicht wie ein Agent, der sie alle beherrscht. Wir werden viel mehr KI-Forscher benötigen.
537
Das Ziel des ATOM-Projekts ist gewaltig. Es ist eine konzertierte Anstrengung, um sicherzustellen, dass die USA die Ressourcen haben, um fortschrittliche, Open-Source-AI-Modelle zu entwickeln.
Es ist eine der Bewegungen im Bereich Open Source/AI, auf die ich am meisten gespannt bin, und ich bin stolz, in der folgenden Liste der Unterzeichner aufgeführt zu sein.

Nathan Lambert7. Aug., 09:21
Eineinhalb Tage vor dem Start von ATOM ist eines sehr klar im Vergleich zu den vergangenen Jahren: Es ist keine Minderheitsposition mehr.
Unten ist eine Liste bemerkenswerter Unterzeichner (über 200 insgesamt). Menschen aus allen Ecken der KI-Community haben unterschrieben. Menschen, die als "Doomer" bezeichnet werden würden, und andere, die "Accelerationists" sind. Es gibt führende Akademiker, Regierungsangestellte, Forscher in führenden Laboren, Ingenieure, Risikokapitalgeber und alles dazwischen.
Jetzt beginnt ein langer Prozess, um dies Realität werden zu lassen. OpenAI hat etwas Gutes getan, indem es die Genehmigung von offenen Modellveröffentlichungen für die Führungskräfte im Bereich erleichtert hat, aber das löst nicht das Bedürfnis nach ATOM. Es verstärkt, dass dies eine Veränderung in der Gemeinschaft ist, die nicht durch eine offene Organisation oder einen Befürworter behoben werden kann.
Lass uns weiter drängen.
Hier sind die prominenten Unterzeichner. Ich werde bald ein weiteres Update mit allen Dankesworten für diejenigen herausgeben, die dies möglich gemacht haben.
Clement Delangue (@ClementDelangue), CEO von Hugging Face
Jeremy Howard (@jeremyphoward), Mitbegründer von Fast ai & Answer ai
Oleksii Kuchaiev (@kuchaev), Direktor für angewandte Forschung bei Nvidia
Ross Taylor (@rosstaylor90), CEO von General Reasoning
Sebastian Raschka (@rasbt), Autor von Build A Large Language Model (From Scratch)
Soumith Chintala (@soumithchintala), Mitbegründer von PyTorch
Miles Brundage (@Miles_Brundage), Ehemaliger Leiter der Politikforschung bei OpenAI
Ali Farhadi, CEO von Ai2
Sergey Levine (@svlevine), Professor an der U.C. Berkeley, Mitbegründer von Physical Intelligence
Bill Gurley (@bgurley), General Partner bei Benchmark
Vincent Weisser (@vincentweisser), CEO von Prime Intellect
Dylan Patel (@dylan522p), Gründer und CEO von SemiAnalysis
Christopher D. Manning (@chrmanning), Professor an der Stanford University
Andrew Trask (@iamtrask), Gründer von OpenMined
Percy Liang (@percyliang), Professor an der Stanford University
Seth Bloomberg (@bloomberg_seth), Investment Partner bei Unsupervised Capital
Jason Lee (@jasondeanlee), Professor an der UC Berkeley
Animesh Garg (@animesh_garg), Professor für Informatik, Georgia Institute of Technology
Thomas Wolf (@Thom_Wolf), Mitbegründer und CSO von Hugging Face
Matt White (@matthew_d_white), Exekutivdirektor, PyTorch Foundation
Prof Dylan Hadfield-Menell (@dhadfieldmenell), außerordentlicher Professor für EECS, MIT
Kevin Xu (@kevinsxu), Gründer, Interconnected
Andy Konwinski (@andykonwinski), Gründer, Laude Institute
Jason Kwon (@jasonkwon), Chief Strategy Officer, OpenAI
Will Brown (@willccbb), Forschungsleiter, Prime Intellect
Paige Bailey (@DynamicWebPaige), DevX Engineering Lead bei Google DeepMind
Mike Abbott, Mitbegründer & CEO, Open Athena
Helen Toner (@hlntnr), Georgetown University
Mark Surman (@msurman), Präsident, Mozilla Foundation
Jordan Schnieder (@jordanschnyc), Gründer von ChinaTalk
Finbarr Timbers (@finbarrtimbers), leitender Forschungsingenieur bei Ai2
Andrew Carr (@andrew_n_carr), Mitbegründer und Chief Scientist bei Cartwheel
Swyx (@swyx), Mitbegründer von Smol . ai & Latent Space
8,36K
seth bloomberg erneut gepostet
Eineinhalb Tage vor dem Start von ATOM ist eines sehr klar im Vergleich zu den vergangenen Jahren: Es ist keine Minderheitsposition mehr.
Unten ist eine Liste bemerkenswerter Unterzeichner (über 200 insgesamt). Menschen aus allen Ecken der KI-Community haben unterschrieben. Menschen, die als "Doomer" bezeichnet werden würden, und andere, die "Accelerationists" sind. Es gibt führende Akademiker, Regierungsangestellte, Forscher in führenden Laboren, Ingenieure, Risikokapitalgeber und alles dazwischen.
Jetzt beginnt ein langer Prozess, um dies Realität werden zu lassen. OpenAI hat etwas Gutes getan, indem es die Genehmigung von offenen Modellveröffentlichungen für die Führungskräfte im Bereich erleichtert hat, aber das löst nicht das Bedürfnis nach ATOM. Es verstärkt, dass dies eine Veränderung in der Gemeinschaft ist, die nicht durch eine offene Organisation oder einen Befürworter behoben werden kann.
Lass uns weiter drängen.
Hier sind die prominenten Unterzeichner. Ich werde bald ein weiteres Update mit allen Dankesworten für diejenigen herausgeben, die dies möglich gemacht haben.
Clement Delangue (@ClementDelangue), CEO von Hugging Face
Jeremy Howard (@jeremyphoward), Mitbegründer von Fast ai & Answer ai
Oleksii Kuchaiev (@kuchaev), Direktor für angewandte Forschung bei Nvidia
Ross Taylor (@rosstaylor90), CEO von General Reasoning
Sebastian Raschka (@rasbt), Autor von Build A Large Language Model (From Scratch)
Soumith Chintala (@soumithchintala), Mitbegründer von PyTorch
Miles Brundage (@Miles_Brundage), Ehemaliger Leiter der Politikforschung bei OpenAI
Ali Farhadi, CEO von Ai2
Sergey Levine (@svlevine), Professor an der U.C. Berkeley, Mitbegründer von Physical Intelligence
Bill Gurley (@bgurley), General Partner bei Benchmark
Vincent Weisser (@vincentweisser), CEO von Prime Intellect
Dylan Patel (@dylan522p), Gründer und CEO von SemiAnalysis
Christopher D. Manning (@chrmanning), Professor an der Stanford University
Andrew Trask (@iamtrask), Gründer von OpenMined
Percy Liang (@percyliang), Professor an der Stanford University
Seth Bloomberg (@bloomberg_seth), Investment Partner bei Unsupervised Capital
Jason Lee (@jasondeanlee), Professor an der UC Berkeley
Animesh Garg (@animesh_garg), Professor für Informatik, Georgia Institute of Technology
Thomas Wolf (@Thom_Wolf), Mitbegründer und CSO von Hugging Face
Matt White (@matthew_d_white), Exekutivdirektor, PyTorch Foundation
Prof Dylan Hadfield-Menell (@dhadfieldmenell), außerordentlicher Professor für EECS, MIT
Kevin Xu (@kevinsxu), Gründer, Interconnected
Andy Konwinski (@andykonwinski), Gründer, Laude Institute
Jason Kwon (@jasonkwon), Chief Strategy Officer, OpenAI
Will Brown (@willccbb), Forschungsleiter, Prime Intellect
Paige Bailey (@DynamicWebPaige), DevX Engineering Lead bei Google DeepMind
Mike Abbott, Mitbegründer & CEO, Open Athena
Helen Toner (@hlntnr), Georgetown University
Mark Surman (@msurman), Präsident, Mozilla Foundation
Jordan Schnieder (@jordanschnyc), Gründer von ChinaTalk
Finbarr Timbers (@finbarrtimbers), leitender Forschungsingenieur bei Ai2
Andrew Carr (@andrew_n_carr), Mitbegründer und Chief Scientist bei Cartwheel
Swyx (@swyx), Mitbegründer von Smol . ai & Latent Space
34,18K
seth bloomberg erneut gepostet
🌸 Wie Open Source Innovation antreibt
Hier ist eine Visualisierung von Agenten, die im Laufe der Zeit eingereicht wurden.
Je näher die Punkte beieinander liegen, desto ähnlicher ist der Agentencode.
Beachten Sie, wie Cluster von Agenten erscheinen - jedes Mal, wenn ein Miner eine innovative neue Methode zur Problemlösung findet, werden viele ähnliche Agenten veröffentlicht, die auf dieser Logik basieren.
Wir finden es schön, das zu sehen. Beachten Sie auch, wie die Cluster immer schneller erscheinen - die Agenten verbessern sich in einem beschleunigten Tempo.
14,5K
Die Einrichtung für Max und das @webuildscore-Team ist phänomenal:
• Außergewöhnlicher Gründer/Team
• Entwicklung eines differenzierten Produkts für einen unterversorgten/wachsenden Markt
• Nutzung der Anreizmechanismus-Technologie von Bittensor, um kontinuierlich ein besseres Produkt zu schaffen
Ich bin sehr aufgeregt wegen diesem.

Sami Kassab5. Aug., 22:49
Wir veröffentlichen unser internes Investitionsmemo zu Score—Subnetz 44 auf Bittensor.
Score entwickelt ein Computer Vision-System für Sportanalysen, das bereits vollständige Fußballspiele in weniger als 2 Minuten verarbeitet.
Wir haben den sofort verfügbaren, bedienbaren Markt auf 1,8 Milliarden USD geschätzt, was einen 51-fachen Aufwärtstrend für den Token bei der heutigen Bewertung impliziert.
Vollständiges Memo unten.
3,68K
seth bloomberg erneut gepostet
Wir veröffentlichen unser internes Investitionsmemo zu Score—Subnetz 44 auf Bittensor.
Score entwickelt ein Computer Vision-System für Sportanalysen, das bereits vollständige Fußballspiele in weniger als 2 Minuten verarbeitet.
Wir haben den sofort verfügbaren, bedienbaren Markt auf 1,8 Milliarden USD geschätzt, was einen 51-fachen Aufwärtstrend für den Token bei der heutigen Bewertung impliziert.
Vollständiges Memo unten.
44,87K
Ich würde auch gerne sehen, dass dies passiert. Aber in der Praxis bin ich mir unsicher, wie man so etwas umsetzen kann.
Subventioniert die Bundesregierung einfach die Kosten für offene Labore, um diese Hardware zu erwerben? Das wäre eine fortlaufende Subvention (man benötigt häufig neue Hardware), und wie wählt man aus, welche Labore die Subvention erhalten? Eine grobe Rechnung für 10.000 H200s liegt wahrscheinlich über 300 Millionen Dollar, wenn wir von einer einfachen Annahme von etwa 30.000 Dollar pro H200 ausgehen. Und das ist nur der Erwerb von GPU-Hardware. Man braucht auch einen Ort, um diese zu betreiben, sowie Betriebskosten, um sie zu warten.
Wenn man bestehende Rechenzentrumsbesitzer zwingt, einen Teil ihres Angebots für diese Labore bereitzustellen, benötigen sie ebenfalls eine Form von Subvention. Die meisten dieser Unternehmen sagen, dass sie derzeit ebenfalls unter Versorgungsengpässen leiden.
In jedem Fall scheint es, als würden wir auf die Schaffung eines neuen Rechenparadigmas zusteuern. Das Paradigma drehte sich bisher um die Skalierung von ko-lokierten Rechenressourcen. Zweifellos wird es weiterhin große, Manhattan-große Rechenzentren in den USA und anderswo geben. Aber es wird auch kleinere Recheninseln in unterschiedlichen Größen geben, die mit Glasfaser usw. verbunden sind. Wenn dies die neuen/standardmäßigen Einschränkungen und grundlegenden Limitierungen sind, wird es die breitere KI-Forschungsgemeinschaft in neue, unerforschte Richtungen drängen.
Die nachgelagerten Auswirkungen könnten eine große und wachsende Divergenz zwischen der Forschung, den Modellarchitekturen, der Wirtschaft usw. bedeuten, die zwischen den größten, geschlossenen KI-Labors (die effektiv mit riesigen einzelnen Rechenzentren arbeiten) und denen (wahrscheinlich Akademikern und dezentralen KI-Unternehmen), die mehr verteilte Rechencluster nutzen (d.h. die kleinen, aber zahlreichen Recheninseln), produziert werden. Unklar, wie es für beide Seiten ausgeht (und letztendlich für die Verbraucher der von jedem produzierten Modelle), aber es scheint, als würde sich die Richtung, in die sich die Dinge entwickeln, abzeichnen.
Man könnte sogar argumentieren, dass wir bereits erste Einblicke in dies gesehen haben. Chinesische Labore haben grundlegend andere Rechenbeschränkungen als OpenAI, zum Beispiel. Diese chinesischen Labore mussten aufgrund dessen bei Trainings-/Inference-Techniken innovativ sein. Keine perfekte Analogie, aber vielleicht kann es helfen zu verdeutlichen, wie "kleine Schritte" in Richtung eines neuen Paradigmas aussehen, und im Laufe der Zeit summieren sich diese kleinen Schritte und produzieren etwas, das ganz anders aussieht/funktioniert als das, was der andere Weg produziert.

Nathan Lambert4. Aug., 22:08
Um dies zu lösen, ist die entscheidende Ressourcen-Schwelle, mehrere offene Labore mit jeweils über 10.000 GPUs zu haben.
Mehrere Labore sorgen dafür, dass wir nicht auf die Gunst großer Technologieunternehmen angewiesen sind, um Modelle freizugeben. Diese Institutionen fördern Innovation und verringern das Risiko dieser entscheidenden Technologie.
620
Sehr interessante Lektüre, einige Punkte, die herausstachen:
-- beginnt den Artikel mit der Feststellung, dass sie sehen, wie KI-Systeme sich selbst verbessern (wachsender Trend), aber mit wenig Detail
-- große Unterscheidung zwischen "persönlicher/verbraucherorientierter" KI und dem Ersetzen von Arbeitskräften
-- Brillen werden zu unseren "primären Computergeräten", im Vorteil, weil sie mehr Kontext haben
-- Superintelligenz bedeutet, dass sie ihre Open-Source-Strategie überdenken müssen, ein ziemlicher Pivot im Vergleich zum letzten Jahr.

AI at Meta30. Juli 2025
Heute hat Mark Metas Vision für die Zukunft der persönlichen Superintelligenz für alle geteilt.
Lese seinen vollständigen Brief hier:
1,12K
Konnte nicht mehr zustimmen.
Es ist schwer vorstellbar, aber vor Mitte 2019 erreichten Stablecoins gerade einmal 20 % des täglichen Volumens auf Ethereum. Die letztendliche Volumendominanz der Stablecoins ermöglichte es DeFi, sich zu beschleunigen.
Wir brauchen ähnliche Katalysatoren für dezentrale KI.

anand iyer30. Juli 2025
Dezentrale KI ist heute dort, wo DeFi und Stablecoins um 2020 waren.
Die meisten technologisch wirklich transformierenden KI-Lösungen werden nicht in geschlossenen Systemen leben. Sie werden auf offenen, transparenten, dezentralen Infrastrukturen aufgebaut.
Ein bahnbrechendes Ereignis wird die breite Akzeptanz einleiten. Wie Stripe, das Bridge übernimmt. Und dann wird dezentrale KI einfach als KI bezeichnet.
1,16K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten