Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ich würde auch gerne sehen, dass dies passiert. Aber in der Praxis bin ich mir unsicher, wie man so etwas umsetzen kann.
Subventioniert die Bundesregierung einfach die Kosten für offene Labore, um diese Hardware zu erwerben? Das wäre eine fortlaufende Subvention (man benötigt häufig neue Hardware), und wie wählt man aus, welche Labore die Subvention erhalten? Eine grobe Rechnung für 10.000 H200s liegt wahrscheinlich über 300 Millionen Dollar, wenn wir von einer einfachen Annahme von etwa 30.000 Dollar pro H200 ausgehen. Und das ist nur der Erwerb von GPU-Hardware. Man braucht auch einen Ort, um diese zu betreiben, sowie Betriebskosten, um sie zu warten.
Wenn man bestehende Rechenzentrumsbesitzer zwingt, einen Teil ihres Angebots für diese Labore bereitzustellen, benötigen sie ebenfalls eine Form von Subvention. Die meisten dieser Unternehmen sagen, dass sie derzeit ebenfalls unter Versorgungsengpässen leiden.
In jedem Fall scheint es, als würden wir auf die Schaffung eines neuen Rechenparadigmas zusteuern. Das Paradigma drehte sich bisher um die Skalierung von ko-lokierten Rechenressourcen. Zweifellos wird es weiterhin große, Manhattan-große Rechenzentren in den USA und anderswo geben. Aber es wird auch kleinere Recheninseln in unterschiedlichen Größen geben, die mit Glasfaser usw. verbunden sind. Wenn dies die neuen/standardmäßigen Einschränkungen und grundlegenden Limitierungen sind, wird es die breitere KI-Forschungsgemeinschaft in neue, unerforschte Richtungen drängen.
Die nachgelagerten Auswirkungen könnten eine große und wachsende Divergenz zwischen der Forschung, den Modellarchitekturen, der Wirtschaft usw. bedeuten, die zwischen den größten, geschlossenen KI-Labors (die effektiv mit riesigen einzelnen Rechenzentren arbeiten) und denen (wahrscheinlich Akademikern und dezentralen KI-Unternehmen), die mehr verteilte Rechencluster nutzen (d.h. die kleinen, aber zahlreichen Recheninseln), produziert werden. Unklar, wie es für beide Seiten ausgeht (und letztendlich für die Verbraucher der von jedem produzierten Modelle), aber es scheint, als würde sich die Richtung, in die sich die Dinge entwickeln, abzeichnen.
Man könnte sogar argumentieren, dass wir bereits erste Einblicke in dies gesehen haben. Chinesische Labore haben grundlegend andere Rechenbeschränkungen als OpenAI, zum Beispiel. Diese chinesischen Labore mussten aufgrund dessen bei Trainings-/Inference-Techniken innovativ sein. Keine perfekte Analogie, aber vielleicht kann es helfen zu verdeutlichen, wie "kleine Schritte" in Richtung eines neuen Paradigmas aussehen, und im Laufe der Zeit summieren sich diese kleinen Schritte und produzieren etwas, das ganz anders aussieht/funktioniert als das, was der andere Weg produziert.

4. Aug., 22:08
Um dies zu lösen, ist die entscheidende Ressourcen-Schwelle, mehrere offene Labore mit jeweils über 10.000 GPUs zu haben.
Mehrere Labore sorgen dafür, dass wir nicht auf die Gunst großer Technologieunternehmen angewiesen sind, um Modelle freizugeben. Diese Institutionen fördern Innovation und verringern das Risiko dieser entscheidenden Technologie.
667
Top
Ranking
Favoriten