Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Den etterlengtede GPT-5 er endelig her.
To nye modelltestere intervjuet av Reuters sa imidlertid at til tross for GPT-5s sterke programmeringsevner og evne til å løse vitenskapelige og matematiske problemer, mener de at spranget fra GPT-4 til GPT-5 ikke er like stort som fra GPT-3 til GPT-4.
Årsaken til flaskehalsen er ikke vanskelig å forstå - det er ikke nok data.
Det er et veldig upresist, men veldig levende ordtak at GPT-4 i utgangspunktet har hentet alle dataene som kan hentes fra Internett under trening, noe som har en følelse som ligner på å lese verdens velstand.
Derfor sa Ilya Sutskever, en gang sjefsforsker for OpenAI, i fjor at selv om datakraften vokser, øker ikke datamengden samtidig.
Faktisk, ærlig talt, er toppen av en generalistisk AI i lang tid sannsynligvis GPT-5, og de neste AI-selskapene må være ekspert-AI.
For eksempel, i dette intervjuet, nevnte Ram Kumar, en AI-ekspert ved OpenLedger, at mange parter (som Trust Wallet) ønsker å integrere AI i lommebøkene sine, men de kan ikke direkte bruke generelle modeller - de kan ikke møte spesifikke behov og må tilpasses i henhold til scenariet.
For eksempel begynte Bloomberg umiddelbart å utvikle BloombergGPT, som ble trent på Bloombergs enorme proprietære terminaler, nyheter, bedriftsdata og tekst (totalt mer enn 700 milliarder tokens). Det er nettopp på grunn av dette lukkede korpuset at det definitivt vil overgå generelle LLM-er i økonomiske oppgaver.
Et annet eksempel er Musks Tesla (FSD) autonome kjøring, som er trent på milliarder av miles med flåtevideo-/telemetridata samlet inn av Tesla alene, som Teslas konkurrenter ikke har. Så for noen dager siden antydet Musk at hvis han også kunne ta lokale kjørerelaterte data i Kina, kunne Tesla fullt ut klarere tollen i den forrige konkurransen for å forstå bilkeiseren.
Derfor må den fremtidige AI-konkurransen være i ekspertdatasporet, og det er definitivt ikke nok å stole på de massive ordinære dataene om gratis prostitusjon på Internett. Derfor vil dataattribusjonssystemer som OpenLedger bli den nye infrastrukturen.
Tenk deg at verdifulle data er verdifulle, ikke bare fordi de er knappe, men også fordi de kan gi avkastning til innehaveren av dataene (hvis du tenker på det som en eiendel), akkurat som et hus genererer husleie, og data skal generere dataleie.
Ram sa i videoen at Hugging Face er flott, men 90 % av datasettet ovenfor er ikke så nyttig for kommersiell implementering.
Derfor, hvis du ønsker å bruke ekspert-AI kommersielt, må du først ha et dataeierskapssystem, slik at innehaveren av dyrebare data kan ta ut sine dyrebare data og la ham få belønninger og smake på sødmen, og deretter oppmuntre flere dyrebare dataholdere til å ta dem ut, og danne en positiv syklus.
Tidligere var ressursene til eksperter verdifulle og unike for den privilegerte klassen, tross alt var ekspertenes tid begrenset. Og i AI-æraen, hva om det er ekspert-AI? Det reduserer marginalkostnadene betraktelig og gjør det mulig for vanlige folk å bruke ekspert- eller kvasi-eksperttjenester.
Ser frem til lanseringen av OL-hovednettet.



5. aug., 14:11
.@TrustWallet er nå en @OpenLedgerHQ kunde, og bygger offisielt med vår teknologi.
Stolt over å støtte en av Web3s mest pålitelige lommebøker ettersom den omfavner verifiserbar AI.
Hør @Ramkumartweet og @EowynChen bryt det ned på @therollupco.
5,06K
Topp
Rangering
Favoritter