Wielu czekało na GPT-5, który w końcu nadszedł. Jednak dwaj nowi testerzy modelu, z którymi rozmawiała agencja Reuters, powiedzieli, że mimo że zdolności programistyczne GPT-5 oraz umiejętności rozwiązywania problemów naukowych i matematycznych są bardzo silne, uważają, że skok z GPT-4 do GPT-5 nie jest tak duży jak z GPT-3 do GPT-4. Przyczyny tego wąskiego gardła są łatwe do zrozumienia — brakuje danych. Jest takie bardzo nieformalne, ale obrazowe powiedzenie, że podczas treningu GPT-4 praktycznie wyczerpano wszystkie dane, które można było zebrać z internetu, co daje poczucie, jakby zobaczyło się wszystkie bogactwa świata. Dlatego były główny naukowiec OpenAI, Ilya Sutskever, powiedział w zeszłym roku, że chociaż moc obliczeniowa rośnie, ilość danych nie wzrasta w tym samym tempie. Szczerze mówiąc, szczytem wszechstronnej AI przez długi czas może być właśnie GPT-5, a następnie różne firmy AI będą koncentrować się na AI specjalistycznej. Na przykład w tym wywiadzie ekspert AI z OpenLedger, Ram Kumar, wspomniał, że wiele firm (np. Trust Wallet) chce wprowadzić AI do portfela, ale nie mogą bezpośrednio używać ogólnych modeli — nie spełniają one specyficznych potrzeb, muszą być dostosowane do konkretnego kontekstu, a OL oferuje protokoły i narzędzia, które to umożliwiają. Na przykład, Bloomberg od razu rozpoczął rozwój BloombergGPT, oparty na ogromnych, prywatnych danych terminalowych, wiadomościach, danych o firmach i tekstach (łącznie ponad 700 miliardów znaczników). To właśnie dzięki temu zamkniętemu zbiorowi danych, w zadaniach finansowych będzie znacznie lepszy niż ogólne LLM. Inny przykład to autonomiczna jazda Tesli (FSD), która jest trenowana na podstawie miliardów mil danych wideo/telemetrii zbieranych przez Teslę, czego nie mają jej konkurenci. Dlatego kilka dni temu Musk zasugerował, że jeśli mógłby również uzyskać lokalne dane dotyczące jazdy w Chinach, Tesla mogłaby całkowicie przejść przez rywalizację z Dongchedi. Zatem przyszła konkurencja AI na pewno będzie miała miejsce na torze danych specjalistycznych, poleganie tylko na masowych danych z internetu na pewno nie wystarczy. Dlatego system przypisania danych (Data Attribution) opracowywany przez OpenLedger stanie się nową infrastrukturą. Wyobraź sobie, że cenne dane są cenne nie tylko dlatego, że są rzadkie, ale także dlatego, że mogą przynosić zyski ich posiadaczom (jeśli traktujesz dane jako aktywa), tak jak domy generują czynsz, dane również powinny generować „czynsz danych”. Ram w wideo powiedział, że Hugging Face jest wspaniałe, ale 90% zbiorów danych na nim nie jest tak przydatnych do zastosowań komercyjnych. Dlatego, aby stworzyć komercyjnie użyteczną AI specjalistyczną, najpierw musi istnieć system przypisania danych, który pozwoli posiadaczom cennych danych na ich udostępnienie i umożliwi im uzyskanie zysków, co z kolei zachęci więcej posiadaczy cennych danych do ich udostępnienia, tworząc pozytywną pętlę. Równość, którą przynosi AI, może być ukryta w tym, że w przeszłości zasoby ekspertów były cenne, były przywilejem klasy uprzywilejowanej, ponieważ czas ekspertów jest ograniczony. A w erze AI, co jeśli to AI specjalistyczne? Znacząco obniża to koszty marginalne, umożliwiając zwykłym ludziom korzystanie z usług na poziomie eksperckim lub quasi-eksperckim. Czekam na uruchomienie OL na głównym łańcuchu.
Openledger
Openledger5 sie, 14:11
.@TrustWallet jest teraz klientem @OpenLedgerHQ, oficjalnie budującym z naszą technologią. Dumni, że wspieramy jeden z najbardziej zaufanych portfeli Web3, który przyjmuje weryfikowalną sztuczną inteligencję. Posłuchaj @Ramkumartweet i @EowynChen, którzy to wyjaśniają na @therollupco.
5,07K