Den mycket efterlängtade GPT-5 är äntligen här. Två nya modelltestare som intervjuades av Reuters sa dock att trots GPT-5:s starka programmeringsförmåga och förmåga att lösa vetenskapliga och matematiska problem, tror de att steget från GPT-4 till GPT-5 inte är lika stort som från GPT-3 till GPT-4. Orsaken till flaskhalsen är inte svår att förstå - det finns inte tillräckligt med data. Det finns ett mycket oprecist men mycket levande talesätt om att GPT-4 i princip har tagit all data som kan hämtas från Internet under träning, vilket har en känsla som liknar att läsa världens välstånd. Därför sa Ilya Sutskever, en gång chefsforskare för OpenAI, förra året att även om datorkraften växer, ökar inte mängden data samtidigt. Faktum är att ärligt talat är toppen för en generalistisk AI under lång tid förmodligen GPT-5, och nästa AI-företag måste vara experter på AI. I den här intervjun nämnde till exempel Ram Kumar, en AI-expert på OpenLedger, att många parter (t.ex. Trust Wallet) vill integrera AI i sina plånböcker, men att de inte direkt kan använda allmänna modeller - de kan inte uppfylla specifika behov och måste anpassas efter scenariot. Till exempel började Bloomberg omedelbart utveckla BloombergGPT, som tränades på Bloombergs stora proprietära terminaler, nyheter, företagsdata och text (totalt mer än 700 miljarder tokens). Det är just på grund av denna slutna korpus som den definitivt kommer att överträffa LLM:er för allmänna ändamål i finansiella uppgifter. Ett annat exempel är Musks Tesla (FSD) autonoma körning, som tränas på miljarder mil av video- och telemetridata för fordonsflottor som samlats in enbart av Tesla, vilket Teslas konkurrenter inte har. Så för några dagar sedan antydde Musk att om han också kunde ta lokal körrelaterad data i Kina, skulle Tesla kunna klara tullen helt och hållet i den tidigare tävlingen för att förstå bilkejsaren. Därför måste den framtida AI-vitglödgade konkurrensen vara i expertdataspåret, och det räcker definitivt inte att förlita sig på den massiva internetdata som den fria prostitutionen utgör. Därför kommer dataattributionssystem som OpenLedger att bli den nya infrastrukturen. Föreställ dig att värdefulla data är värdefulla inte bara för att de är knappa, utan också för att de kan ge avkastning till den som har data (om du tänker på det som en tillgång), precis som ett hus genererar hyra, och data bör generera datahyra. Ram sa i videon att Hugging Face är bra, men 90% av datamängden ovan är inte så användbar för kommersiell implementering. Om du vill använda expert-AI kommersiellt måste du därför först ha ett system för dataägande, så att innehavaren av värdefulla data kan ta ut sina värdefulla data och låta honom få belöningar och smaka på sötman, och sedan uppmuntra fler innehavare av värdefulla data att ta bort dem, vilket bildar en positiv cykel. Förr i tiden var experternas resurser värdefulla och unika för den privilegierade klassen, trots allt var experternas tid begränsad. Och i AI-eran, vad händer om det är expert-AI? Det minskar avsevärt marginalkostnaderna och gör det möjligt för vanliga människor att använda expert- eller kvasiexperttjänster. Ser fram emot lanseringen av OL mainnet.
Openledger
Openledger5 aug. 14:11
.@TrustWallet är nu en @OpenLedgerHQ kund som officiellt bygger med vår teknik. Vi är stolta över att stödja en av Web3:s mest pålitliga plånböcker eftersom den omfattar verifierbar AI. Hör @Ramkumartweet och @EowynChen bryta ner det på @therollupco.
5,07K