Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

seth bloomberg
Partenaire d’investissement @UnsupervisedCap | Précédent : @CrucibleLabs, @MessariCrypto de recherche | Woo Pig 🐽
Je suis de plus en plus d'accord avec cette opinion.

will brown8 août, 02:52
Je suis de plus en plus convaincu que l'"IA transformative" va ressembler à une abondance de modèles spécialisés pour tout, de la conception de médicaments aux simulations météorologiques, en passant par la robotique et les chaînes d'approvisionnement, et non à un seul agent pour les gouverner tous. Nous allons avoir besoin de beaucoup plus de chercheurs en IA.
514
L'objectif du projet ATOM est immense. C'est un effort concerté pour s'assurer que les États-Unis disposent des ressources nécessaires pour construire des modèles d'IA de pointe et open-source.
C'est l'un des mouvements en open source/IA qui m'excite le plus, et je suis fier d'être inclus dans la liste des signataires ci-dessous.

Nathan Lambert7 août, 09:21
Un jour et demi avant le lancement d'ATOM, une chose est très claire concernant les modèles ouverts par rapport aux années passées : ce n'est plus une position minoritaire.
Voici une liste de signataires notables (plus de 200 au total). Des personnes de tous les coins de la communauté IA ont signé. Des personnes qui seraient étiquetées comme des "doomers" et d'autres qui sont des "accélérationnistes". Il y a des universitaires de premier plan, des employés du gouvernement, des chercheurs dans des laboratoires de pointe, des ingénieurs, des capital-risqueurs, et tout ce qui se trouve entre les deux.
Commence maintenant un long processus pour rendre cela réel. OpenAI a fait une bonne chose en facilitant l'approbation des sorties de modèles ouverts par les dirigeants du domaine, mais cela ne résout pas le besoin d'ATOM. Cela renforce l'idée qu'il s'agit d'un changement communautaire qui ne peut pas être corrigé par une organisation ouverte ou un seul défenseur.
Continuons à avancer.
Voici les signataires éminents. Je publierai bientôt une autre mise à jour avec tous les remerciements pour ceux qui ont rendu cela possible.
Clement Delangue (@ClementDelangue), PDG de Hugging Face
Jeremy Howard (@jeremyphoward), Co-fondateur de Fast ai & Answer ai
Oleksii Kuchaiev (@kuchaev), Directeur de la recherche appliquée chez Nvidia
Ross Taylor (@rosstaylor90), PDG de General Reasoning
Sebastian Raschka (@rasbt), Auteur de Build A Large Language Model (From Scratch)
Soumith Chintala (@soumithchintala), Co-fondateur de PyTorch
Miles Brundage (@Miles_Brundage), Ancien Responsable de la recherche politique chez OpenAI
Ali Farhadi, PDG de Ai2
Sergey Levine (@svlevine), Professeur à l'U.C. Berkeley, Co-fondateur de Physical Intelligence
Bill Gurley (@bgurley), Partenaire général chez Benchmark
Vincent Weisser (@vincentweisser), PDG de Prime Intellect
Dylan Patel (@dylan522p), Fondateur et PDG de SemiAnalysis
Christopher D. Manning (@chrmanning), Professeur à l'Université de Stanford
Andrew Trask (@iamtrask), Fondateur de OpenMined
Percy Liang (@percyliang), Professeur à l'Université de Stanford
Seth Bloomberg (@bloomberg_seth), Partenaire d'investissement chez Unsupervised Capital
Jason Lee (@jasondeanlee), Professeur à UC Berkeley
Animesh Garg (@animesh_garg), Professeur en informatique, Georgia Institute of Technology
Thomas Wolf (@Thom_Wolf), Co-fondateur et CSO chez Hugging Face
Matt White (@matthew_d_white), Directeur exécutif, PyTorch Foundation
Prof Dylan Hadfield-Menell (@dhadfieldmenell), Professeur associé d'EECS, MIT
Kevin Xu (@kevinsxu), Fondateur, Interconnected
Andy Konwinski (@andykonwinski), Fondateur, Laude Institute
Jason Kwon (@jasonkwon), Directeur de la stratégie, OpenAI
Will Brown (@willccbb), Responsable de la recherche, Prime Intellect
Paige Bailey (@DynamicWebPaige), Responsable de l'ingénierie DevX chez Google DeepMind
Mike Abbott, Co-fondateur & PDG, Open Athena
Helen Toner (@hlntnr), Université de Georgetown
Mark Surman (@msurman), Président, Mozilla Foundation
Jordan Schnieder (@jordanschnyc), Fondateur de ChinaTalk
Finbarr Timbers (@finbarrtimbers), Ingénieur de recherche principal chez Ai2
Andrew Carr (@andrew_n_carr), Co-fondateur et Scientifique en chef chez Cartwheel
Swyx (@swyx), Co-fondateur de Smol . ai & Latent Space
8,32K
seth bloomberg a reposté
Un jour et demi avant le lancement d'ATOM, une chose est très claire concernant les modèles ouverts par rapport aux années passées : ce n'est plus une position minoritaire.
Voici une liste de signataires notables (plus de 200 au total). Des personnes de tous les coins de la communauté IA ont signé. Des personnes qui seraient étiquetées comme des "doomers" et d'autres qui sont des "accélérationnistes". Il y a des universitaires de premier plan, des employés du gouvernement, des chercheurs dans des laboratoires de pointe, des ingénieurs, des capital-risqueurs, et tout ce qui se trouve entre les deux.
Commence maintenant un long processus pour rendre cela réel. OpenAI a fait une bonne chose en facilitant l'approbation des sorties de modèles ouverts par les dirigeants du domaine, mais cela ne résout pas le besoin d'ATOM. Cela renforce l'idée qu'il s'agit d'un changement communautaire qui ne peut pas être corrigé par une organisation ouverte ou un seul défenseur.
Continuons à avancer.
Voici les signataires éminents. Je publierai bientôt une autre mise à jour avec tous les remerciements pour ceux qui ont rendu cela possible.
Clement Delangue (@ClementDelangue), PDG de Hugging Face
Jeremy Howard (@jeremyphoward), Co-fondateur de Fast ai & Answer ai
Oleksii Kuchaiev (@kuchaev), Directeur de la recherche appliquée chez Nvidia
Ross Taylor (@rosstaylor90), PDG de General Reasoning
Sebastian Raschka (@rasbt), Auteur de Build A Large Language Model (From Scratch)
Soumith Chintala (@soumithchintala), Co-fondateur de PyTorch
Miles Brundage (@Miles_Brundage), Ancien Responsable de la recherche politique chez OpenAI
Ali Farhadi, PDG de Ai2
Sergey Levine (@svlevine), Professeur à l'U.C. Berkeley, Co-fondateur de Physical Intelligence
Bill Gurley (@bgurley), Partenaire général chez Benchmark
Vincent Weisser (@vincentweisser), PDG de Prime Intellect
Dylan Patel (@dylan522p), Fondateur et PDG de SemiAnalysis
Christopher D. Manning (@chrmanning), Professeur à l'Université de Stanford
Andrew Trask (@iamtrask), Fondateur de OpenMined
Percy Liang (@percyliang), Professeur à l'Université de Stanford
Seth Bloomberg (@bloomberg_seth), Partenaire d'investissement chez Unsupervised Capital
Jason Lee (@jasondeanlee), Professeur à UC Berkeley
Animesh Garg (@animesh_garg), Professeur en informatique, Georgia Institute of Technology
Thomas Wolf (@Thom_Wolf), Co-fondateur et CSO chez Hugging Face
Matt White (@matthew_d_white), Directeur exécutif, PyTorch Foundation
Prof Dylan Hadfield-Menell (@dhadfieldmenell), Professeur associé d'EECS, MIT
Kevin Xu (@kevinsxu), Fondateur, Interconnected
Andy Konwinski (@andykonwinski), Fondateur, Laude Institute
Jason Kwon (@jasonkwon), Directeur de la stratégie, OpenAI
Will Brown (@willccbb), Responsable de la recherche, Prime Intellect
Paige Bailey (@DynamicWebPaige), Responsable de l'ingénierie DevX chez Google DeepMind
Mike Abbott, Co-fondateur & PDG, Open Athena
Helen Toner (@hlntnr), Université de Georgetown
Mark Surman (@msurman), Président, Mozilla Foundation
Jordan Schnieder (@jordanschnyc), Fondateur de ChinaTalk
Finbarr Timbers (@finbarrtimbers), Ingénieur de recherche principal chez Ai2
Andrew Carr (@andrew_n_carr), Co-fondateur et Scientifique en chef chez Cartwheel
Swyx (@swyx), Co-fondateur de Smol . ai & Latent Space
33,94K
seth bloomberg a reposté
🌸 Comment l'open source stimule l'innovation
Voici une visualisation des agents soumis au fil du temps
Plus les points sont proches les uns des autres, plus le code de l'agent est similaire
Remarquez comment des clusters d'agents apparaissent - chaque fois qu'un mineur trouve une nouvelle façon innovante de résoudre des problèmes, de nombreux agents similaires sont publiés en s'appuyant sur cette logique
Nous trouvons cela beau à voir. Remarquez également comment les clusters apparaissent de plus en plus rapidement vers la fin - les agents s'améliorent à un rythme accéléré.
14,32K
La configuration pour Max et l'équipe @webuildscore est phénoménale :
• Fondateur/équipe exceptionnel(le)
• Création d'un produit différencié pour un marché sous-servi/en croissance
• Tirer parti de la technologie du mécanisme d'incitation de Bittensor pour créer constamment un meilleur produit
Très enthousiaste à propos de celui-ci.

Sami Kassab5 août, 22:49
Nous publions notre mémo d'investissement interne sur Score—Subnet 44 sur Bittensor.
Score construit un système de vision par ordinateur pour l'analyse sportive, traitant déjà des matchs de football complets en moins de 2 minutes.
Nous avons évalué le marché immédiat et accessible à 1,8 milliard de dollars, ce qui implique un potentiel de 51x pour le token à la valorisation actuelle.
Mémo complet ci-dessous.
3,66K
seth bloomberg a reposté
Nous publions notre mémo d'investissement interne sur Score—Subnet 44 sur Bittensor.
Score construit un système de vision par ordinateur pour l'analyse sportive, traitant déjà des matchs de football complets en moins de 2 minutes.
Nous avons évalué le marché immédiat et accessible à 1,8 milliard de dollars, ce qui implique un potentiel de 51x pour le token à la valorisation actuelle.
Mémo complet ci-dessous.
44,85K
J'aimerais aussi voir cela se réaliser. Mais en pratique, je ne suis pas sûr de la manière d'implémenter quelque chose comme ça.
Le gouvernement fédéral subventionne-t-il simplement le coût pour que des laboratoires ouverts acquièrent ce matériel ? Ce serait une subvention continue (il faut du nouveau matériel fréquemment maintenant), et comment sélectionner quels laboratoires reçoivent la subvention ? Un calcul rapide pour 10 000 H200 est probablement supérieur à 300 millions de dollars si nous utilisons l'hypothèse simple d'environ 30 000 dollars par H200. Et cela ne concerne que l'acquisition de matériel GPU. Vous avez besoin d'un endroit pour faire fonctionner tout cela, ainsi que des coûts d'exploitation pour les maintenir.
Si vous forcez les propriétaires de calcul existants à céder une partie de leur approvisionnement pour fournir à ces laboratoires, ils auront également besoin d'une forme de subvention. La plupart de ces entreprises disent qu'elles sont également contraintes par l'approvisionnement en ce moment.
Quoi qu'il en soit, il semble que nous nous dirigions vers la création d'un nouveau paradigme de calcul. Le paradigme jusqu'à présent a tourné autour de l'augmentation du calcul co-localisé. Sans aucun doute, il y aura encore des constructions de centres de données de la taille de Manhattan aux États-Unis et ailleurs. Mais, il y aura aussi des îlots de calcul plus petits de tailles variées, qui sont connectés par fibre, etc. Lorsque ceux-ci deviendront les nouvelles contraintes/limitations fondamentales, cela poussera la communauté de recherche en IA plus large dans de nouvelles directions inexplorées.
L'impact en aval de cela pourrait signifier une divergence large et croissante entre la recherche, les architectures de modèles, l'économie, etc. produites entre les plus grands laboratoires d'IA fermés (ceux travaillant avec des centres de données uniques massifs) et ceux (probablement des universitaires et des entreprises d'IA décentralisées) qui utilisent des clusters de calcul plus distribués (c'est-à-dire, les petits mais nombreux îlots de calcul). Il est incertain de voir comment cela se déroulera pour chaque côté (et finalement, pour les consommateurs des modèles produits par chacun), mais il semble que c'est la direction dans laquelle les choses se dirigent.
On pourrait même soutenir que nous avons déjà vu des aperçus de cela. Les laboratoires chinois ont des contraintes de calcul fondamentalement différentes de celles d'OpenAI, par exemple. Ces laboratoires chinois ont dû innover sur les techniques d'entraînement/d'inférence à cause de cela. Ce n'est pas une analogie parfaite, mais peut-être que cela peut aider à éclairer à quoi ressemblent les "petits pas" vers un nouveau paradigme, et au fil du temps, ces petits pas s'accumulent et produisent quelque chose qui ressemble/fonctionne de manière assez différente de ce que l'autre chemin produit.

Nathan Lambert4 août, 22:08
Pour résoudre cela, le seuil de ressources clé est d'avoir plusieurs laboratoires ouverts avec plus de 10 000 GPU chacun.
Avoir plusieurs laboratoires nous permet de ne pas dépendre de la bonne volonté des grandes entreprises technologiques pour vouloir publier des modèles. Ces institutions augmentent l'innovation et réduisent les risques liés à cette technologie cruciale.
602
Lecture très intéressante, certaines choses qui ont retenu mon attention :
-- commence par noter qu'ils voient des systèmes d'IA s'améliorer eux-mêmes (tendance croissante) mais avec peu de détails
-- fait une grande distinction entre l'IA "personnelle/consommateur" et le remplacement des travailleurs/du travail
-- les lunettes devenant nos "dispositifs informatiques principaux", avantagées car elles ont plus de contexte
-- la superintelligence signifie qu'ils doivent reconsidérer leur stratégie open-source, un changement assez radical par rapport à l'année dernière.

AI at Meta30 juil. 2025
Aujourd'hui, Mark a partagé la vision de Meta pour l'avenir de la superintelligence personnelle pour tous.
Lisez sa lettre complète ici :
1,1K
Je ne pourrais pas être plus d'accord.
Difficile à imaginer maintenant, mais avant la mi-2019, les stablecoins n'atteignaient que 20 % du volume quotidien sur Ethereum. La domination éventuelle des volumes des stablecoins a permis à la DeFi d'accélérer.
Nous avons besoin de catalyseurs similaires pour l'IA décentralisée.

anand iyer30 juil. 2025
Decentralized AI today is where DeFi & stablecoins were circa 2020.
Most tech truly transformative AI won’t live inside closed stacks. It is being built on open, transparent, decentralized rails.
A breakthrough event will usher in mainstream adoption. Like Stripe acquiring Bridge. And then decentralized AI will just be called AI.
1,13K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables