Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Chciałbym, aby to się również wydarzyło. Ale w praktyce nie jestem pewien, jak wdrożyć coś takiego.
Czy rząd federalny po prostu subsydiuje koszty dla otwartych laboratoriów, aby mogły nabyć ten sprzęt? To byłaby ciągła subsydia (potrzebują nowego sprzętu często teraz), a jak wybrać, które laboratoria otrzymają subsydia? Prosta matematyka dla 10K H200s to prawdopodobnie ponad 300 milionów dolarów, jeśli przyjmiemy prostą zasadę około 30 tysięcy dolarów za H200. A to tylko nabycie sprzętu GPU. Potrzebujesz miejsca, aby to uruchomić, wraz z kosztami operacyjnymi na ich utrzymanie.
Jeśli zmusisz istniejących właścicieli mocy obliczeniowej do wydzielenia części swojej podaży dla tych laboratoriów, będą potrzebować jakiejś formy subsydiów. Większość z tych firm mówi, że obecnie również mają ograniczenia w podaży.
W każdym razie wydaje się, że zmierzamy w kierunku stworzenia nowego paradygmatu obliczeniowego. Paradygmat do tej pory koncentrował się na skalowaniu współlokalizowanych obliczeń. Nie ma wątpliwości, że nadal będą budowane centra danych wielkości Manhattanu w USA i gdzie indziej. Ale będą też mniejsze wyspy obliczeniowe o różnej wielkości, które będą połączone światłowodami itd. Kiedy te nowe/standardowe ograniczenia i fundamentalne ograniczenia staną się rzeczywistością, popchnie to szerszą społeczność badawczą AI w nowe, nieodkryte kierunki.
Skutki tego mogą oznaczać dużą i rosnącą różnicę między badaniami, architekturami modeli, ekonomią itd. produkowanymi przez największe, zamknięte laboratoria AI (te, które pracują z efektywnie ogromnymi pojedynczymi centrami danych) a tymi (prawdopodobnie akademikami i zdecentralizowanymi firmami AI), które korzystają z bardziej rozproszonych klastrów obliczeniowych (tj. małych, ale licznych wysp obliczeniowych). Nie jest jasne, jak to się skończy dla obu stron (a ostatecznie dla konsumentów modeli produkowanych przez każdą z nich), ale wydaje się, że w tym kierunku zmierzają sprawy.
Można nawet argumentować, że już widzieliśmy tego oznaki. Chińskie laboratoria mają fundamentalnie różne ograniczenia obliczeniowe niż OpenAI, na przykład. Te chińskie laboratoria musiały innowować w technikach treningowych/wnioskowania z tego powodu. To nie jest idealna analogia, ale może pomóc wyjaśnić, jak wyglądają "małe kroki" w kierunku nowego paradygmatu, a z czasem te małe kroki kumulują się i produkują coś, co wygląda/funkcjonuje zupełnie inaczej niż to, co produkuje inna ścieżka.

4 sie, 22:08
Aby to rozwiązać, kluczowym zasobem jest posiadanie wielu otwartych laboratoriów z ponad 10000 GPU każde.
Wiele laboratoriów sprawia, że nie jesteśmy zależni od dobrej woli dużych firm technologicznych, które chcą udostępniać modele. Te instytucje zwiększają innowacyjność i zmniejszają ryzyko tej kluczowej technologii.
640
Najlepsze
Ranking
Ulubione