Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

seth bloomberg
Socio Inversor @UnsupervisedCap | Ant: @CrucibleLabs, Investigación @MessariCrypto | Woo Cerdo 🐽
Cada vez estoy más de acuerdo con esta opinión.

will brown8 ago, 02:52
estoy cada vez más convencido de que la "IA transformadora" va a parecerse a una abundancia de modelos especializados para todo, desde el diseño de fármacos hasta simulaciones meteorológicas, robótica y cadenas de suministro, no a un agente que los gobierne a todos. Vamos a necesitar muchos más investigadores en IA.
523
El objetivo del proyecto ATOM es enorme. Es un esfuerzo concertado para asegurar que EE. UU. tenga los recursos para construir modelos de IA de vanguardia y de código abierto.
Es uno de los movimientos en código abierto/IA que más me entusiasma, y estoy orgulloso de estar incluido en la lista de firmantes a continuación.

Nathan Lambert7 ago, 09:21
A día y medio del lanzamiento de ATOM, una cosa queda muy clara sobre los modelos abiertos en comparación con años anteriores: ya no es una posición minoritaria.
A continuación se presenta una lista de firmantes notables (con más de 200 en total). Personas de todos los rincones de la comunidad de IA han firmado. Personas que serían etiquetadas como "doomers" y otras que son "aceleracionistas". Hay académicos destacados, empleados del gobierno, investigadores en laboratorios líderes, ingenieros, capitalistas de riesgo y todo lo que hay en medio.
Ahora comienza un largo proceso para hacer esto realidad. OpenAI ha hecho algo bueno al facilitar que el liderazgo en el campo apruebe los lanzamientos de modelos abiertos, pero esto no resuelve la necesidad de ATOM. Refuerza que este es un cambio comunitario que no se puede solucionar con una organización abierta o un solo defensor.
Sigamos adelante.
Aquí están los firmantes prominentes. También publicaré otra actualización con todos los agradecimientos a quienes hicieron esto posible pronto.
Clement Delangue (@ClementDelangue), CEO de Hugging Face
Jeremy Howard (@jeremyphoward), Co-fundador de Fast ai & Answer ai
Oleksii Kuchaiev (@kuchaev), Director de Investigación Aplicada en Nvidia
Ross Taylor (@rosstaylor90), CEO de General Reasoning
Sebastian Raschka (@rasbt), Autor de Build A Large Language Model (From Scratch)
Soumith Chintala (@soumithchintala), Co-fundador de PyTorch
Miles Brundage (@Miles_Brundage), Ex Jefe de Investigación de Políticas en OpenAI
Ali Farhadi, CEO de Ai2
Sergey Levine (@svlevine), Profesor en U.C. Berkeley, Co-fundador de Physical Intelligence
Bill Gurley (@bgurley), Socio General en Benchmark
Vincent Weisser (@vincentweisser), CEO de Prime Intellect
Dylan Patel (@dylan522p), Fundador y CEO de SemiAnalysis
Christopher D. Manning (@chrmanning), Profesor en la Universidad de Stanford
Andrew Trask (@iamtrask), Fundador de OpenMined
Percy Liang (@percyliang), Profesor en la Universidad de Stanford
Seth Bloomberg (@bloomberg_seth), Socio de Inversión en Unsupervised Capital
Jason Lee (@jasondeanlee), Profesor en UC Berkeley
Animesh Garg (@animesh_garg), Profesor de Computación, Instituto de Tecnología de Georgia
Thomas Wolf (@Thom_Wolf), Co-fundador y CSO en Hugging Face
Matt White (@matthew_d_white), Director Ejecutivo, Fundación PyTorch
Prof Dylan Hadfield-Menell (@dhadfieldmenell), Profesor Asociado de EECS, MIT
Kevin Xu (@kevinsxu), Fundador, Interconnected
Andy Konwinski (@andykonwinski), Fundador, Laude Institute
Jason Kwon (@jasonkwon), Director de Estrategia, OpenAI
Will Brown (@willccbb), Líder de Investigación, Prime Intellect
Paige Bailey (@DynamicWebPaige), Líder de Ingeniería DevX en Google DeepMind
Mike Abbott, Co-fundador y CEO, Open Athena
Helen Toner (@hlntnr), Universidad de Georgetown
Mark Surman (@msurman), Presidente, Fundación Mozilla
Jordan Schnieder (@jordanschnyc), Fundador de ChinaTalk
Finbarr Timbers (@finbarrtimbers), Ingeniero de Investigación Principal en Ai2
Andrew Carr (@andrew_n_carr), Co-fundador y Científico Jefe en Cartwheel
Swyx (@swyx), Co-fundador de Smol . ai & Latent Space
8,33K
seth bloomberg republicó
A día y medio del lanzamiento de ATOM, una cosa queda muy clara sobre los modelos abiertos en comparación con años anteriores: ya no es una posición minoritaria.
A continuación se presenta una lista de firmantes notables (con más de 200 en total). Personas de todos los rincones de la comunidad de IA han firmado. Personas que serían etiquetadas como "doomers" y otras que son "aceleracionistas". Hay académicos destacados, empleados del gobierno, investigadores en laboratorios líderes, ingenieros, capitalistas de riesgo y todo lo que hay en medio.
Ahora comienza un largo proceso para hacer esto realidad. OpenAI ha hecho algo bueno al facilitar que el liderazgo en el campo apruebe los lanzamientos de modelos abiertos, pero esto no resuelve la necesidad de ATOM. Refuerza que este es un cambio comunitario que no se puede solucionar con una organización abierta o un solo defensor.
Sigamos adelante.
Aquí están los firmantes prominentes. También publicaré otra actualización con todos los agradecimientos a quienes hicieron esto posible pronto.
Clement Delangue (@ClementDelangue), CEO de Hugging Face
Jeremy Howard (@jeremyphoward), Co-fundador de Fast ai & Answer ai
Oleksii Kuchaiev (@kuchaev), Director de Investigación Aplicada en Nvidia
Ross Taylor (@rosstaylor90), CEO de General Reasoning
Sebastian Raschka (@rasbt), Autor de Build A Large Language Model (From Scratch)
Soumith Chintala (@soumithchintala), Co-fundador de PyTorch
Miles Brundage (@Miles_Brundage), Ex Jefe de Investigación de Políticas en OpenAI
Ali Farhadi, CEO de Ai2
Sergey Levine (@svlevine), Profesor en U.C. Berkeley, Co-fundador de Physical Intelligence
Bill Gurley (@bgurley), Socio General en Benchmark
Vincent Weisser (@vincentweisser), CEO de Prime Intellect
Dylan Patel (@dylan522p), Fundador y CEO de SemiAnalysis
Christopher D. Manning (@chrmanning), Profesor en la Universidad de Stanford
Andrew Trask (@iamtrask), Fundador de OpenMined
Percy Liang (@percyliang), Profesor en la Universidad de Stanford
Seth Bloomberg (@bloomberg_seth), Socio de Inversión en Unsupervised Capital
Jason Lee (@jasondeanlee), Profesor en UC Berkeley
Animesh Garg (@animesh_garg), Profesor de Computación, Instituto de Tecnología de Georgia
Thomas Wolf (@Thom_Wolf), Co-fundador y CSO en Hugging Face
Matt White (@matthew_d_white), Director Ejecutivo, Fundación PyTorch
Prof Dylan Hadfield-Menell (@dhadfieldmenell), Profesor Asociado de EECS, MIT
Kevin Xu (@kevinsxu), Fundador, Interconnected
Andy Konwinski (@andykonwinski), Fundador, Laude Institute
Jason Kwon (@jasonkwon), Director de Estrategia, OpenAI
Will Brown (@willccbb), Líder de Investigación, Prime Intellect
Paige Bailey (@DynamicWebPaige), Líder de Ingeniería DevX en Google DeepMind
Mike Abbott, Co-fundador y CEO, Open Athena
Helen Toner (@hlntnr), Universidad de Georgetown
Mark Surman (@msurman), Presidente, Fundación Mozilla
Jordan Schnieder (@jordanschnyc), Fundador de ChinaTalk
Finbarr Timbers (@finbarrtimbers), Ingeniero de Investigación Principal en Ai2
Andrew Carr (@andrew_n_carr), Co-fundador y Científico Jefe en Cartwheel
Swyx (@swyx), Co-fundador de Smol . ai & Latent Space
33,94K
seth bloomberg republicó
🌸 Cómo el código abierto impulsa la innovación
Aquí hay una visualización de los agentes enviados a lo largo del tiempo
Cuanto más cerca están los puntos entre sí, más similar es el código del agente
Observa cómo aparecen los grupos de agentes: cada vez que un minero encuentra una nueva forma innovadora de resolver problemas, se lanzan muchos agentes similares basándose en esa lógica
Nos parece hermoso verlo. También observa cómo los grupos aparecen cada vez más rápido hacia el final: los agentes están mejorando a un ritmo acelerado.
14,33K
La configuración para Max y el equipo de @webuildscore es fenomenal:
• Fundador/equipo excepcional
• Creando un producto diferenciado para un mercado desatendido/en crecimiento
• Aprovechando la tecnología del mecanismo de incentivos de Bittensor para crear consistentemente un mejor producto
Estoy muy emocionado por este.

Sami Kassab5 ago, 22:49
Estamos publicando nuestro memorando interno de inversión sobre Score—Subnet 44 en Bittensor.
Score está construyendo un sistema de visión por computadora para análisis deportivos, ya procesando partidos de fútbol completos en menos de 2 minutos.
Dimensionamos el mercado inmediato y atendible en $1.8B, lo que implica un potencial de 51x para el token a la valoración actual.
Memorando completo a continuación.
3,66K
seth bloomberg republicó
Estamos publicando nuestro memorando interno de inversión sobre Score—Subnet 44 en Bittensor.
Score está construyendo un sistema de visión por computadora para análisis deportivos, ya procesando partidos de fútbol completos en menos de 2 minutos.
Dimensionamos el mercado inmediato y atendible en $1.8B, lo que implica un potencial de 51x para el token a la valoración actual.
Memorando completo a continuación.
44,86K
Me encantaría ver que esto suceda también. Pero en la práctica, no estoy seguro de cómo implementar algo así.
¿El gobierno federal simplemente subsidia el costo para que los laboratorios abiertos adquieran este hardware? Esto sería un subsidio continuo (necesitan nuevo hardware con frecuencia ahora), y ¿cómo seleccionar qué laboratorios reciben el subsidio? Un cálculo aproximado para 10K H200s probablemente supere los $300M si usamos la suposición simple de ~$30K por H200. Y esto es solo la adquisición de hardware GPU. Necesitas un lugar para ejecutar estos junto con los gastos operativos para mantenerlos.
Si obligas a los propietarios de computación existentes a destinar una parte de su suministro para proporcionar a estos laboratorios, también necesitarán algún tipo de subsidio. La mayoría de estas empresas dicen que están limitadas en su suministro en este momento también.
En cualquier caso, parece que nos dirigimos hacia la creación de un nuevo paradigma de computación. El paradigma hasta ahora ha girado en torno a escalar la computación co-localizada. Sin duda, todavía habrá construcciones de centros de datos del tamaño de Manhattan en los EE. UU. y en otros lugares. Pero también habrá islas de computación más pequeñas de diferentes tamaños, que estarán conectadas con fibra, etc. Cuando estas sean las nuevas/estándar limitaciones y restricciones fundamentales, empujará a la comunidad de investigación en IA más amplia hacia nuevas direcciones inexploradas.
El impacto a largo plazo de esto podría significar una gran y creciente divergencia entre la investigación, arquitecturas de modelos, economías, etc., producidas entre los laboratorios de IA más grandes y cerrados (aquellos que trabajan con efectivamente enormes centros de datos únicos) y aquellos (probablemente académicos y empresas de IA descentralizadas) que utilizan clústeres de computación más distribuidos (es decir, las pequeñas pero numerosas islas de computación). No está claro cómo resultará para cada lado (y, en última instancia, para los consumidores de los modelos producidos por cada uno), pero parece que esa es la dirección hacia la que nos dirigimos.
Incluso podrías argumentar que ya hemos visto vislumbres de esto. Los laboratorios chinos tienen restricciones de computación fundamentalmente diferentes a las de OpenAI, por ejemplo. Estos laboratorios chinos tuvieron que innovar en técnicas de entrenamiento/inferencia debido a esto. No es una analogía perfecta, pero tal vez pueda ayudar a esclarecer cómo se ven los "pequeños pasos" hacia un nuevo paradigma, y con el tiempo, estos pequeños pasos se acumulan y producen algo que se ve/funciona de manera bastante diferente a lo que produce el otro camino.

Nathan Lambert4 ago, 22:08
Para resolver esto, el umbral de recursos clave es tener múltiples laboratorios abiertos con más de 10000 GPUs cada uno.
Múltiples laboratorios hacen que no dependamos de la buena voluntad de las grandes empresas tecnológicas para querer liberar modelos. Estas instituciones aumentan la innovación y reducen el riesgo de esta tecnología crucial.
610
Lectura muy interesante, algunas cosas que destacaron:
-- comienza el artículo señalando que están viendo sistemas de IA auto-mejorarse (tendencia creciente) pero con pocos detalles
-- dibujando una gran distinción entre IA "personal/consumidor" vs reemplazo de trabajadores/labor
-- las gafas se están convirtiendo en nuestros "dispositivos de computación primarios", con ventaja porque tienen más contexto
-- la superinteligencia significa que necesitan reconsiderar su estrategia de código abierto, un cambio bastante drástico respecto al año pasado.

AI at Meta30 jul 2025
Hoy Mark compartió la visión de Meta para el futuro de la superinteligencia personal para todos.
Lee su carta completa aquí:
1,11K
No podría estar más de acuerdo.
Es difícil imaginarlo ahora, pero antes de mediados de 2019, las stablecoins apenas alcanzaban el 20% del volumen diario en Ethereum. El eventual dominio de volumen de las stablecoins permitió que DeFi se acelerara.
Necesitamos catalizadores similares para la IA descentralizada.

anand iyer30 jul 2025
La IA descentralizada hoy es donde estaban DeFi y las stablecoins alrededor de 2020.
La mayoría de las tecnologías verdaderamente transformadoras de IA no vivirán dentro de pilas cerradas. Se están construyendo sobre rieles abiertos, transparentes y descentralizados.
Un evento revolucionario dará paso a la adopción masiva. Como Stripe adquiriendo Bridge. Y luego la IA descentralizada simplemente se llamará IA.
1,14K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado