Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Trissy
Et siste okseløp
Det kommer til å være en periode hvor ferdighetene dine i stor grad oppveier porteføljen din.
Det er det mest følelsesmessig ustabile punktet på reisen din.
Dag etter dag foredler du utførelsen din, skjerper lesningen din på markedet, og likevel forblir nettoformuen din fanget i et vilkårlig "helvete". Du ser på andre med 100 ganger størrelsen din og innser at de ikke har noen hemmelig kunnskap, bare mer kapital.
Dette er make or break-sonen.
Å være lav kapital betyr at du har et lite vindu med muligheter til å gamble inn i eliterikdom som degenspartan ville sagt.
Hver handel er som å gå over landminer, en eller to feil trekk kan utslette deg fullstendig.
Likevel vet du at du har det som trengs for å bli med i de store ligaene, nettoformuen din beviser det bare ikke ennå.
Hvis du generelt ønsker å bryte gjennom, må du finne en flyttilstand som er så sterk at du nekter å bli ristet ut av den, for på den andre siden venter en 9-5-jobb på deg.
Gjør det som trengs. På dette stadiet vil du føle at du blir gal til du får den ene heldige pausen som gjør det hele verdt offeret.
3,5K
Den beste fordelen du kan ha som trader i disse dager er å tenke selv.
AI har trent oss til å outsource tenkning, noe som forårsaker generasjonshjerneråte. Hvis du kan bryte ned en oppgave trinn for trinn, uten å stole på at en terminal spytter ut forhåndsbestemte tekststrenger, vil du holde deg i topp 1%, siden du ikke lar din kognitive fordel sakte erodere.
Akkurat nå er den virkelige trusselen mot samfunnet ikke monetær inflasjon, det er kognitiv inflasjon. Folk outsourcer hjernekraften og verdensbildet sitt til ChatGPT, og behandler det som kilden til sannhet.
Disiplinen med å danne dine egne konklusjoner gjennom skriving, analyse og intuisjon er det som vil skille vinnere fra resten. Det har aldri vært enklere å være passiv og la informasjon bli matet med skje til deg.
Ja, hastigheten på AI vil bare akselerere. Jeg sier ikke at du ikke skal bruke den, du burde, for å ignorere den vil etterlate deg. Selv om du trenger å bruke deler av dagen på å lese dypt, kontekstualisere hendelser og oversette dem til dine egne ord. Gjør det til en vane å tenke av høy kvalitet.
Ellers er du bare en annen hamster som løper på hjulet og reagerer på at verden flyr forbi deg.
6,48K
Morsomt faktum:
$REI var alltid en av mine mest bullish vesker, og dette designet ble laget tilbake i mars, hvor jeg planla å skrive en grundig forskningsrapport om infrastrukturen og størrelsen på rundt 10-15 mil.
Dessverre gjorde jeg ikke det på grunn av manglende tro på Base-teamet for å støtte økobyggere etter å ha sett dem fullstendig ignorere de høyeste mindshare-prosjektene i kjeden deres som Virtuals.
Noen uker senere ser jeg innlegg som går rundt om at @Delphi_Digital har vært involvert bak kulissene og jobbet med Rei-teamet og til slutt lagt ut forskningsrapporter.
Det viser seg at min vurdering av infrastrukturen deres var veldig godt undersøkt, og diagrammet har bare vært oppe, og har gjort en 15x siden den gang.
Siden den gang har det bare vært ett forsyningsprosjekt som har gitt meg enda mer overbevisning enn Rei: $CODEC
Akkurat som Rei, har ikke Codec helt gitt mening for folk, da det de bygger er helt unikt fra alt vi har sett på det nåværende markedet.
Deres tilnærming til infrastruktur er ikke fokusert på hva markedet spør om i dag, men hva det vil be om 6-12 måneder på veien.
Denne typen infrastrukturprosjekter er de jeg liker å satse huset på, ikke bare med portefølje, men med min overbevisning, siden hvis jeg har rett og har tålmodighet til å holde, kan du tjene generasjonsrikdom.
Jeg tror at etter hvert som Codec slipper mer informasjon om produktene deres og begynner å tilby betaer til plattformen deres, vil vi se en stor tilstrømning av forskningsarmer og tekniske VC-er som Delphi som blir ekstremt positive til det de bygger.
Svært få team i dette rommet bygger ut fra de første prinsippene, og grubler med de dypere filosofiske spørsmålene om hvordan samfunnet vil tilpasse seg, utvikle seg og omorganisere seg under vekten av eksponentiell fremgang drevet av AI og robotikk.
Når forskere som meg selv eller Delphi kommer over dem, blir vi helt røde piller og ønsker å gjøre alt i vår makt for å se dem lykkes når vi stemmer så sterkt overens med deres visjon.
Den dag i dag er Reis markedsføring, design og optikk fortsatt en av mine favoritter av ethvert prosjekt, enn si produktet deres. Ethvert lag som ønsker å gå opp i nivå bør bruke dem som referanse, siden de tydeligvis har et lag og tankesett på S-nivå.
Jeg lot en ekstern faktor påvirke det som burde vært en ganske intern beslutning basert på infrastruktur og produkt. Kommer ikke til å la det skje igjen.
Kodek kodet.

4,61K
Feiret ikke 6 mil og feiret ikke 17 mil heller.
Legg merke til hvordan jeg i alt innholdet mitt bare har snakket om arkitekturen?
Den som vinner operatør- og robotarkitekturen vil være beslektet med blokkjedekrigene i 2021 og finne den mest skalerbare konsensusmekanismen.
Codec bygger ikke for å fange oppmerksomheten de neste 2 ukene, og derfor ser du ikke en haug med prangende innlegg av lav kvalitet som kommer ut på daglig basis.
Dette produktet er et så sjeldent tilfelle at planen for det de bygger utkonkurrerer andre prosjekter som allerede er maks på optikken med eksisterende produkter (investorer, team, partnere osv.).
Jeg får mange meldinger som spør i stil med "men det gir bare ikke helt mening ennå, hvordan klikker alle brikkene sammen?".
En tryllekunstner avslører aldri hemmelighetene sine (ennå).
Kommer favoritt-DJ-en din ut på begynnelsen eller slutten av kvelden? Spiser du dessert eller hovedretter først? Popper du champagne før løpet eller etter seieren?
Så hva skjer når vi begynner å se de morsomme tingene?
$CODEC kodet.


Trissy3. juli 2025
Folk fortsetter å gratulere meg med $CODEC, hvorfor?
Så langt har vi ikke engang sett:
- Token-verktøy
-Insentiver
- Veikart
-Demoer
- Ny nettside
-Markedsplass
- Fremtidige partnerskap
- Bruksområder
+ mer
Alt vi har sett er noen få partnerskap og utgivelsen av ressursaggregatoren deres (Fabric).
Jeg skrev ikke flere tråder, flere telegraminnlegg, snakket med teamet nesten daglig, ga råd om markedsføring, merkevarebygging, posisjonering for å feire en 6 mil mcap.
En chatgpt-innpakning av en anime-jente med rosa hår var nok til en 6 mil mcap tilbake i AI szn.
Prosjekter ble sendt til 9 figurer over natten for å vinne et hackathon eller bli satt i søkelyset fra store KOL-er/forskere.
Alle har glemt hva som skjer når lysene tennes og folk tror igjen.
Grunnen til at jeg har byttet så bullish den siste uken for onchain er troen på at det er på alle tiders laveste nivåer. Den siste måneden har vært noen av de største fremskrittene vi har gjort i denne bransjen sammen med positivt makrobakteppe.
Husker du følelsen av penger som falt ned fra himmelen? Det tar kanskje ikke så lang tid før vi får oppleve det igjen.

10,81K
Protokoller og lag bør slutte å betale KOL-er for innhold.
Den eneste gangen lagene bør dele ut tokens er til KOL-er eller fellesskapsmedlemmer som skaper høy verdi for prosjektet sitt og returnerer resultater.
Produktet eller fortellingen din bør være interessant nok til at folk med innflytelse automatisk bør ønske å kjøpe og skrive om det naturlig.
Dette er de du bør tildele tokens til, ikke gjøre 3 betalte tråder for ambassadører som boter følgerne sine.
«Hva om jeg ikke kan få noen som er interessert i produktet mitt til å tvitre?» Så fortsett å bygge, du har tydeligvis ikke funnet den rette nisjen eller nettverket nok hvis du ikke kan bygge noen få kjernestøttespillere.
Mitt budskap til byggherrene: bygg noe kult nok til at folk naturlig vil kjøpe og skrive om, gi tokens til de største støttespillerne som stemmer overens med visjonen din. Siden:
1. Det er mye mer sannsynlig at de jobber overtid og går utover for å hjelpe deg med å lykkes siden du viste sterk moralsk oppførsel (en sjeldenhet i dette rommet)
2. De du betaler for en viss mengde innlegg vil flasse så snart avtalen deres er ute og dumpe tokenene
Jeg gjør ikke betalte kampanjer av noe slag, men jeg kommer åpenbart ikke til å avslå gratis tokens for et prosjekt jeg er ekstremt bullish på uten forpliktelser. De beste forfatterne kan ikke kjøpes og vil bli avvist hvis du prøver.
Spill det lange spillet og ikke ta snarveier, det vil gjenspeiles i handlingene dine på tvers av alle vertikaler i virksomheten, og smarte tradere kan lukte det på en mils avstand.
KOL-kampanjer er døde, 99,9 % av markedsføringsbyråene er bortkastede penger og vil være -ev for virksomheten din.
Den eneste måten å trenge inn i dette markedet på er å ha kryptoinnfødte teammedlemmer som er villige til å skitne til hendene.
3,47K
OpenAI bekreftet nettopp min nordlige stjerneoppgave for AI i dag ved å frigi operatøragenten deres.
Ikke bare var dette min veiledende oppgave for $CODEC, men alle andre AI-investeringer jeg gjorde, inkludert de fra tidligere på året under AI-mani.
Det har vært mye diskusjon med Codec med hensyn til robotikk, mens den vertikalen vil ha sin egen fortelling veldig snart, er den underliggende grunnen til at jeg var så positiv til Codec fra dag 1 på grunn av hvordan arkitekturen driver operatøragenter.
Folk undervurderer fortsatt hvor mye markedsandel som står på spill ved å bygge programvare som kjører autonomt, og overgår menneskelige arbeidere uten behov for konstante spørsmål eller tilsyn.
Jeg har sett mange sammenligninger med $NUIT. For det første vil jeg si at jeg er en stor fan av det Nuit bygger og ønsker ingenting annet enn suksess. Hvis du skriver "nuit" i telegrammet mitt, vil du se at jeg tilbake i april sa at hvis jeg måtte holde en mynt i flere måneder, ville det ha vært Nuit på grunn av operatøroppgaven min.
Nuit var det mest lovende operatørprosjektet på papiret, men etter omfattende undersøkelser fant jeg ut at arkitekturen deres manglet dybden som trengs for å rettferdiggjøre en stor investering eller legge omdømmet mitt bak det.
Med dette i tankene var jeg allerede klar over de arkitektoniske hullene i eksisterende operatøragentteam og søkte aktivt etter et prosjekt som adresserte dem. Kort tid etter dukket Codec opp (takket være at @0xdetweiler insisterte på at jeg ser dypere inn i dem), og dette er forskjellen mellom de to:
$CODEC mot $NUIT
Codecs arkitektur er bygget over tre lag; Maskin, system og intelligens, som skiller infrastruktur, miljøgrensesnitt og AI-logikk. Hver operatøragent i Codec kjører i sin egen isolerte virtuelle maskin eller beholder, noe som gir nesten opprinnelig ytelse og feilisolering. Denne lagdelte designen betyr at komponenter kan skaleres eller utvikles uavhengig uten å ødelegge systemet.
Nuits arkitektur tar en annen vei ved å være mer monolitisk. Stabelen deres dreier seg om en spesialisert nettleseragent som kombinerer parsing, AI-resonnement og handling. Det betyr at de dypt analyserer nettsider til strukturerte data som AI kan konsumere og er avhengige av skybehandling for tunge AI-oppgaver.
Codecs tilnærming med å bygge inn en lett Vision-Language-Action (VLA)-modell i hver agent betyr at den kan kjøre helt lokalt. Noe som ikke krever konstant ping tilbake til skyen for instruksjoner, kutter ut ventetid og unngår avhengighet av oppetid og båndbredde.
Nuits agent behandler oppgaver ved først å konvertere nettsider til et semantisk format og deretter bruke en LLM-hjerne for å finne ut hva de skal gjøre, noe som forbedres over tid med forsterkende læring. Selv om denne flyten er effektiv for nettautomatisering, avhenger den av tung AI-behandling på skysiden og forhåndsdefinerte sidestrukturer. Codecs lokale enhetsintelligens betyr at beslutninger skjer nærmere dataene, noe som reduserer overhead og gjør systemet mer stabilt for uventede endringer (ingen skjøre skript eller DOM-antakelser).
Codecs operatører følger en kontinuerlig oppfatte-tenke-handle-sløyfe. Maskinlaget strømmer miljøet (f.eks. en live-app eller robotfeed) til intelligenslaget via systemlagets optimaliserte kanaler, noe som gir AI "øyne" på den nåværende tilstanden. Agentens VLA-modell tolker deretter bildene og instruksjonene sammen for å bestemme en handling, som systemlaget utfører gjennom tastatur-/musehendelser eller robotkontroll. Denne integrerte sløyfen betyr at den tilpasser seg live-arrangementer, selv om brukergrensesnittet skifter rundt, vil du ikke bryte flyten.
For å sette alt dette i en enklere analogi, tenk på Codecs operatører som en selvforsynt ansatt som tilpasser seg overraskelser på jobben. Nuits agent er som en ansatt som må ta en pause, beskrive situasjonen til en veileder over telefon og vente på instruksjoner.
Uten å gå for mye ned i et teknisk kaninhull, bør dette gi deg en idé på høyt nivå om hvorfor jeg valgte Codec som min primære innsats på operatører.
Ja, Nuit har støtte fra YC, et stablet team og S-nivå github. Selv om Codecs arkitektur er bygget med horisontal skalering i tankene, noe som betyr at du kan distribuere tusenvis av agenter parallelt med null delt minne eller utførelseskontekst mellom agenter. Codecs team er heller ikke dine gjennomsnittlige utviklere.
VLA-arkitekturen deres åpner en rekke brukstilfeller som ikke var mulig med tidligere agentmodeller på grunn av å se gjennom piksler, ikke skjermbilder.
Jeg kunne fortsette, men jeg sparer det til fremtidige innlegg.
16,3K
Saken er at hvis du virkelig ønsker å klare deg i dette rommet, vil alle rundt deg tro at det er noe galt med deg.
For å virkelig være 0,001 %, er livet utenfor skyttergravene nesten ikke-eksisterende.
Ingen jenter, ingen hobbyer, ingen sosiale utflukter, ingen netflix eller noe som tar deg bort fra grinden.
Det er en type tankegang som er ekstremt urelaterbar for selv profesjonelle idrettsutøvere fordi det ikke er noen grunn til at du ikke kan være online 24/7.
Vi sitter fast i vårt eget frihetsparadoks.
Alle vil ha den magiske muligheten til å klikke på knapper for penger, til det er på tide å si nei til 95 % av gledene.
Venner og familie vil stadig komme med hint som tyder på at du har en form for psykisk lidelse og aldri virkelig vil se visjonen.
Sjalu stiger når biter av suksess sniker seg gjennom, hvis du ser nøye nok på folk, avslører de alltid sine sanne intensjoner, selv om de ikke mente det.
De minste hintene vil avsløre dem, vanligvis fra spontane følelsesmessige reaksjoner i øyeblikket hvor du bare trenger å høre noen få ord glippe, mesteparten av tiden er det alt som trengs.
Etter hvert som du lykkes bedre, lær å være stille. Det er ikke nødvendig å nevne fremgangen din, så flott som det ville være å dele med alle og nyte fruktene av arbeidet ditt, vil det bare tiltrekke seg grådighet fra andre.
De fleste mislykkes med dette ettersom de gjør det å være "kryptofyren" eller "investoren" til hele sin persona. Selv om du er online 16 timer i døgnet, må du fortsatt ha interesser og ambisjoner utenfor denne bransjen.
Venner bør ønske å henge med deg for kvaliteten på tilstedeværelsen din og humørforskjellen du gjør mens du er der, ikke hvor mange tall du har laget på en skjerm.
Å leve et privat, bortgjemt liv med en liten krets av kvalitetsindivider er det beste livshacket for trygghet.
Hvis din tilstedeværelse ikke får folk til å føle noe uten å snakke om penger, har du allerede tapt.
6,08K
Hva er $CODEC
Robotikk, operatører, spill?
Alt det ovennevnte og mer.
Codecs vision-language-action (VLA) er en rammeagnostisk modell, som gir mulighet for dusinvis av brukstilfeller på grunn av dens unike evne til å visualisere feil sammenlignet med LLM-er.
I løpet av de siste 12 månedene har vi sett at LLM-er først og fremst fungerer som looping-mekanismer, drevet av forhåndsdefinerte data og responsmønstre.
Fordi de er bygget på tale og tekst, har LLM-er en begrenset evne til å utvikle seg utover vinduet med språklig kontekst de er trent på. De kan ikke tolke sanseinntrykk, som ansiktsuttrykk eller emosjonelle signaler i sanntid, da resonnementet deres er bundet til språk, ikke persepsjon.
De fleste agenter i dag kombinerer transformatorbaserte LLM-er med visuelle kodere. De "ser" grensesnittet gjennom skjermbilder, tolker hva som er på skjermen og genererer sekvenser av handlinger, klikk, tastetrykk, rulling for å følge instruksjoner og fullføre oppgaver.
Dette er grunnen til at AI ikke har erstattet store kategorier av jobber ennå: LLM-er ser skjermbilder, ikke piksler. De forstår ikke den dynamiske visuelle semantikken i omgivelsene, bare hva som kan leses gjennom statiske rammer.
Deres typiske arbeidsflyt er repeterende: ta et skjermbilde, resonnere om neste handling, utfør den, ta deretter et nytt bilde og gjenta. Denne oppfatte-tenke-sløyfen fortsetter til oppgaven er fullført eller agenten mislykkes.
For å virkelig generalisere må AI oppfatte omgivelsene, resonnere om tilstanden og handle riktig for å oppnå mål, ikke bare tolke øyeblikksbilder.
Vi har allerede makroer, RPA-roboter og automatiseringsskript, men de er svake og ustabile. En liten pikselforskyvning eller layoutendring bryter flyten og krever manuell oppdatering. De kan ikke tilpasse seg når noe endres i arbeidsflyten. Det er flaskehalsen.
Visjon-Språk-Handling (VLA)
Codecs VLA-agenter kjører på en intuitiv, men kraftig sløyfe: oppfatte, tenke, handle. I stedet for bare å spytte ut tekst som de fleste LLM-er, ser disse agentene miljøet, bestemmer hva de skal gjøre og deretter utfører. Alt er pakket i ett enhetlig datasamlebånd, som du kan visualisere i tre kjernelag:
Visjon
Agenten oppfatter først omgivelsene gjennom synet. For en stasjonær operatøragent betyr dette å ta et skjermbilde eller visuelle inndata av gjeldende tilstand (f.eks. et appvindu eller en tekstboks). VLA-modellens visjonskomponent tolker disse inndataene, leser tekst på skjermen og gjenkjenner grensesnittelementer eller objekter. Aka øynene til agenten.
Språk
Så kommer tankene. Gitt den visuelle konteksten (og eventuelle instruksjoner eller mål), analyserer modellen hvilken handling som kreves. I hovedsak "tenker" AI på riktig respons omtrent som en person ville gjort. VLA-arkitekturen slår sammen visjon og språk internt, slik at agenten for eksempel kan forstå at en popup-dialogboks stiller et ja/nei-spørsmål. Den vil da bestemme riktig handling (f.eks. klikk "OK") basert på målet eller ledeteksten. Fungerer som agentens hjerne, og kartlegger opplevde innspill til en handling.
Handling
Til slutt handler agenten ved å sende ut en kontrollkommando til miljøet. I stedet for tekst genererer VLA-modellen en handling (for eksempel et museklikk, tastetrykk eller API-kall) som samhandler direkte med systemet. I dialogeksemplet vil agenten utføre klikket på "OK" -knappen. Dette lukker sløyfen: etter handling kan agenten visuelt sjekke resultatet og fortsette oppfatte-tenke-handle-syklusen. Handlinger er nøkkelskilletegnet som gjør dem fra chattebokser til faktiske operatører.
Bruksområder
Som jeg nevnte, på grunn av arkitekturen, er Codec narrativ agnostisk. Akkurat som LLM ikke er begrenset av hvilke tekstutdata de kan produsere, er ikke VLA-er begrenset av hvilke oppgaver de kan fullføre.
Robotics
I stedet for å stole på gamle skript eller ufullkommen automatisering, tar VLA-agenter inn visuelle input (kamerafeed eller sensorer), sender det gjennom en språkmodell for planlegging, og sender deretter ut faktiske kontrollkommandoer for å bevege seg eller samhandle med verden.
I utgangspunktet ser roboten hva som er foran den, behandler instruksjoner som "flytt Pepsi-boksen ved siden av appelsinen", finner ut hvor alt er, hvordan den skal bevege seg uten å velte noe, og gjør det uten behov for hardkoding.
Dette er samme systemklasse som Googles RT-2 eller PaLM-E. Store modeller som slår sammen visjon og språk for å skape handlinger i den virkelige verden. CogActs VLA-arbeid er et godt eksempel, roboten skanner et rotete bord, får en naturlig melding og kjører en full sløyfe: objekt-ID, baneplanlegging, bevegelsesutførelse.
Operatører
I skrivebords- og nettmiljøet fungerer VLA-agenter i utgangspunktet som digitale arbeidere. De "ser" skjermen gjennom et skjermbilde eller live-feed, kjører det gjennom et resonnementslag bygget på en språkmodell for å forstå både brukergrensesnittet og oppgavemeldingen, og utfører deretter handlingene med ekte mus- og tastaturkontroll, som et menneske ville gjort.
Denne fulle loopen, oppfatte, tenke, handle går kontinuerlig. Så agenten reagerer ikke bare én gang, den navigerer aktivt i grensesnittet og håndterer flertrinnsflyter uten å trenge noen hardkodede skript. Arkitekturen er en blanding av OCR-stilvisjon for å lese tekst/knapper/ikoner, semantisk resonnement for å bestemme hva som skal gjøres, og et kontrolllag som kan klikke, rulle, skrive osv.
Der dette blir virkelig interessant er i feilhåndtering. Disse agentene kan reflektere etter handlinger og planlegge på nytt hvis noe ikke går som forventet. I motsetning til RPA-skript som brytes hvis et brukergrensesnitt endres litt, for eksempel en knapp som skifter posisjon eller en etikett som får nytt navn, kan en VLA-agent tilpasse seg det nye oppsettet ved hjelp av visuelle signaler og språkforståelse. Gjør den langt mer motstandsdyktig for automatisering i den virkelige verden der grensesnitt stadig endres.
Noe jeg personlig har slitt med når jeg har kodet mine egne forskningsroboter gjennom verktøy som dramatiker.
Gaming
Gaming er et av de tydeligste brukstilfellene der VLA-agenter kan skinne, tenke på dem mindre som roboter og mer som oppslukende AI-spillere. Hele flyten er den samme, agenten ser spillskjermen (rammer, menyer, tekstmeldinger), begrunner om hva den skal gjøre, og spiller deretter ved hjelp av mus, tastatur eller kontrollerinnganger.
Det er ikke fokusert på brute force, dette er AI som lærer å spille som et menneske ville gjort. Persepsjon + tenkning + kontroll, alt bundet sammen. DeepMinds SIMA-prosjekt har låst opp dette ved å kombinere en visjonsspråkmodell med et prediktivt lag og sluppet det inn i spill som No Man's Sky og Minecraft. Fra bare å se på skjermen og følge instruksjonene, kunne agenten fullføre abstrakte oppgaver som "bygge et bål" ved å lenke sammen de riktige trinnene, samle ved, finne fyrstikker og bruke inventar. Og det var ikke begrenset til bare én kamp heller. Den overførte denne kunnskapen mellom ulike miljøer.
VLA-spillagenter er ikke låst til ett regelsett. Den samme agenten kan tilpasse seg helt forskjellige mekanikker, bare fra visjon og språkjording. Og fordi den er bygget på LLM-infrastruktur, kan den forklare hva den gjør, følge instruksjoner på naturlig språk midt i spillet eller samarbeide med spillere i sanntid.
Vi er ikke langt unna å ha AI-lagkamerater som tilpasser seg spillestilen og personaliseringene dine, alt takket være Codec.

9,59K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til