De langverwachte GPT-5 is eindelijk hier. Echter, twee nieuwe modeltesters die door Reuters zijn geïnterviewd, zeiden dat hoewel de programmeer- en probleemoplossende capaciteiten van GPT-5 sterk zijn, ze van mening zijn dat de sprong van GPT-4 naar GPT-5 niet zo groot is als van GPT-3 naar GPT-4. De reden voor deze bottleneck is niet moeilijk te begrijpen - er is niet genoeg data. Er is een zeer onzorgvuldige maar zeer beeldende uitspraak die zegt dat tijdens de training van GPT-4 de data die van het internet kon worden verzameld, al bijna volledig was verzameld, wat een gevoel geeft van het hebben gezien van de pracht van de wereld. Daarom zei de voormalige chief scientist van OpenAI, Ilya Sutskever, vorig jaar dat hoewel de rekenkracht toeneemt, de hoeveelheid data niet in gelijke mate toeneemt. Eerlijk gezegd is de piek van een algemene AI waarschijnlijk ook gewoon GPT-5 voor een lange tijd, en de komende tijd zullen verschillende AI-bedrijven zich zeker richten op specialistische AI. Bijvoorbeeld, de AI-expert Ram Kumar van OpenLedger noemde in dit interview dat veel opdrachtgevers (zoals Trust Wallet) AI in hun wallets willen integreren, maar ze kunnen geen algemeen model gebruiken - dat voldoet niet aan specifieke behoeften, het moet op maat worden gemaakt voor de situatie, en OL biedt de protocollen en tools die dat mogelijk maken. Een ander voorbeeld is dat Bloomberg al snel begon met de ontwikkeling van BloombergGPT, getraind op de enorme hoeveelheid exclusieve terminal-, nieuws-, bedrijfsdata en tekst van Bloomberg (in totaal meer dan 700 miljard labels). Juist vanwege deze gesloten corpus zal het aanzienlijk beter presteren op financiële taken dan algemene LLM's. Een ander voorbeeld is Tesla's (FSD) autonome rijden, dat is getraind op de miljarden kilometers aan videodata/telemetrie die Tesla zelf heeft verzameld, iets wat concurrenten niet hebben. Dus enkele dagen geleden suggereerde Musk dat als hij ook toegang zou hebben tot lokale rijgegevens uit China, Tesla volledig zou kunnen slagen in de eerdere competitie met Dongchedi. Dus de toekomstige felle concurrentie in AI zal zeker plaatsvinden op het gebied van specialistische data; alleen maar profiteren van enorme hoeveelheden algemene internetdata is zeker niet genoeg. Daarom zal het Data Attribution-systeem dat OpenLedger ontwikkelt, de nieuwe infrastructuur worden. Stel je voor, waardevolle data is waardevol, niet alleen omdat het schaars is, maar ook omdat het de houder van de data rendement kan opleveren (als je data als een activum beschouwt), net zoals huizen huur kunnen genereren, zou data ook datahuur moeten genereren. Ram zei in de video dat Hugging Face geweldig is, maar 90% van de datasets daar niet zo nuttig zijn voor commerciële toepassingen. Daarom, om commerciële specialistische AI te hebben, moet er eerst een data-attributiesysteem zijn, zodat de houders van waardevolle data hun waardevolle data kunnen delen en ervoor kunnen worden beloond, wat hen aanmoedigt om meer waardevolle data te delen en zo een positieve cyclus te creëren. De gelijkheid die AI met zich meebrengt, kan hier verborgen zijn; in het verleden waren de middelen van experts waardevol, een voorrecht van de elite, omdat de tijd van experts beperkt is. Maar in het AI-tijdperk, wat als het specialistische AI is? Het verlaagt de marginale kosten enorm, waardoor het voor gewone mensen mogelijk wordt om gebruik te maken van expert- of quasi-expert diensten. Ik kijk uit naar de lancering van het OL-hoofdkantoor.
Openledger
Openledger5 aug, 14:11
.@TrustWallet is nu een @OpenLedgerHQ-klant, die officieel met onze technologie bouwt. Trots om een van de meest vertrouwde wallets van Web3 te ondersteunen terwijl het verifieerbare AI omarmt. Luister naar @Ramkumartweet en @EowynChen die het uitleggen op @therollupco.
5,07K