Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mi piacerebbe vedere anche questo realizzarsi. Ma in pratica, non sono sicuro di come implementare qualcosa del genere.
Il governo federale semplicemente subsidia il costo per i laboratori aperti per acquisire questo hardware? Questo sarebbe un sussidio continuo (è necessario nuovo hardware frequentemente ora), e come selezionare quali laboratori ricevono il sussidio? Un calcolo approssimativo per 10K H200 è probabilmente superiore a $300M se usiamo l'assunzione semplice di ~$30K per H200. E questo è solo l'acquisizione dell'hardware GPU. Hai bisogno di un posto dove eseguire questi insieme ai costi operativi per mantenerli.
Se costringi i proprietari di calcolo esistenti a ritagliare una certa quantità della loro fornitura per fornire a questi laboratori, avranno bisogno di qualche forma di sussidio anche loro. La maggior parte di queste aziende dice che sono attualmente vincolate nella fornitura.
In ogni caso, sembra che stiamo andando verso la creazione di un nuovo paradigma di calcolo. Il paradigma finora si è concentrato sull'aumento del calcolo co-locato. Non c'è dubbio che ci saranno ancora costruzioni di datacenter delle dimensioni di Manhattan negli Stati Uniti e altrove. Ma ci saranno anche isole di calcolo più piccole di varie dimensioni, collegate con fibra ottica, ecc. Quando questi saranno i nuovi vincoli standard e le limitazioni fondamentali, spingerà la comunità di ricerca sull'IA in nuove direzioni inesplorate.
L'impatto a valle di questo potrebbe significare una grande e crescente divergenza tra la ricerca, le architetture dei modelli, l'economia, ecc. prodotte tra i più grandi laboratori di IA chiusi (quelli che lavorano con effettivamente enormi datacenter singoli) e quelli (probabilmente accademici e aziende di IA decentralizzate) che utilizzano cluster di calcolo più distribuiti (cioè, le piccole ma numerose isole di calcolo). Non è chiaro come si sviluppi per entrambi i lati (e, in ultima analisi, per i consumatori dei modelli prodotti da ciascuno), ma sembra che questa sia la direzione in cui ci stiamo dirigendo.
Si potrebbe anche sostenere che abbiamo già visto scorci di questo. I laboratori cinesi hanno vincoli di calcolo fondamentalmente diversi rispetto a quelli di OpenAI, per esempio. Questi laboratori cinesi hanno dovuto innovare sulle tecniche di addestramento/inferenza a causa di questo. Non è un'analogia perfetta, ma forse può aiutare a chiarire come appaiono i "piccoli passi" verso un nuovo paradigma, e nel tempo, questi piccoli passi si accumulano e producono qualcosa che appare/funziona in modo abbastanza diverso rispetto a ciò che produce l'altro percorso.

4 ago, 22:08
Per risolvere questo, la soglia delle risorse chiave è avere più laboratori aperti con oltre 10000 GPU ciascuno.
Avere più laboratori ci consente di non dipendere dalla benevolenza delle grandi aziende tecnologiche per voler rilasciare modelli. Queste istituzioni aumentano l'innovazione e riducono il rischio di questa tecnologia cruciale.
646
Principali
Ranking
Preferiti