Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Trissy
Een laatste bull run
Er komt een periode waarin je vaardigheden veel groter zijn dan je portefeuille.
Het is het meest emotioneel onvoorspelbare punt in je reis.
Dag na dag verfijn je je uitvoering, verscherp je je inzicht in de markt, en toch blijft je netto waarde vastzitten in een of ander willekeurig cijfer "hel". Je kijkt naar anderen met 100x jouw grootte en realiseert je dat zij geen geheime kennis hebben, alleen meer kapitaal.
Dit is de maak-of-breekzone.
Weinig kapitaal hebben betekent dat je een klein venster van kansen hebt om te gokken op elite rijkdom, zoals degenspartan zou zeggen.
Elke trade is als het lopen over landmijnen, één of twee verkeerde zetten kunnen je volledig uitwissen.
Toch weet je dat je hebt wat nodig is om bij de grote jongens te horen, je netto waarde bewijst het alleen nog niet.
Als je echt wilt doorbreken, moet je een flowstaat vinden die zo sterk is dat je weigert eruit geschud te worden, want aan de andere kant wacht een 9-tot-5 baan op je.
Doe wat nodig is. In deze fase voel je je misschien gek worden totdat je die ene gelukkige doorbraak krijgt die het allemaal de opoffering waard maakt.
3,51K
De beste voorsprong die je als trader tegenwoordig kunt hebben, is zelf nadenken.
AI heeft ons geleerd om het denken uit te besteden, wat leidt tot generatiebreinrot. Als je een thesis stap voor stap kunt ontleden, zonder te vertrouwen op een terminal die vooraf bepaalde tekststrings uitspuugt, blijf je in de top 1%, omdat je je cognitieve voorsprong niet langzaam laat eroderen.
Op dit moment is de echte bedreiging voor de samenleving niet monetaire inflatie, maar cognitieve inflatie. Mensen besteden hun denkkracht en wereldbeeld uit aan ChatGPT en beschouwen het als de bron van waarheid.
De discipline om je eigen conclusies te vormen door middel van schrijven, analyse en intuïtie is wat winnaars van de rest zal scheiden. Het is nog nooit zo gemakkelijk geweest om passief te blijven en informatie aan je te laten voeden.
Ja, de snelheid van AI zal alleen maar toenemen. Ik zeg niet dat je het niet moet gebruiken, dat moet je wel, want het negeren ervan zal je achterlaten. Maar je moet een deel van je dag besteden aan diep lezen, gebeurtenissen contextualiseren en ze in je eigen woorden vertalen. Maak er een gewoonte van om van hoge kwaliteit te denken.
Anders ben je gewoon een andere hamster die op het wiel rent, reagerend op de wereld die aan je voorbijraast.
6,49K
Leuke feitje:
$REI was altijd een van mijn meest optimistische investeringen en dit ontwerp is gemaakt in maart, waar ik van plan was om een diepgaand onderzoeksrapport te schrijven over de infrastructuur en omvang van ongeveer 10-15 miljoen.
Helaas heb ik dat niet gedaan vanwege een gebrek aan vertrouwen in het Base-team om eco-bouwers te ondersteunen, nadat ik had gezien dat ze de hoogste mindshare-projecten op hun keten, zoals Virtuals, volledig negeerden.
Een paar weken later zie ik berichten rondgaan dat @Delphi_Digital achter de schermen betrokken is geweest en samenwerkt met het Rei-team en uiteindelijk onderzoeksrapporten plaatst.
Het blijkt dat mijn beoordeling van hun infrastructuur zeer goed onderzocht was en de grafiek alleen maar omhoog is gegaan, met een stijging van 15x sindsdien.
Sindsdien is er maar één utility-project geweest dat me nog meer overtuiging heeft gegeven dan Rei: $CODEC.
Net als Rei, heeft Codec voor veel mensen nog niet volledig zin, omdat wat ze bouwen volledig uniek is in vergelijking met alles wat we op de huidige markt hebben gezien.
Hun benadering van infrastructuur is niet gericht op wat de markt vandaag vraagt, maar op wat het over 6-12 maanden zal vragen.
Dit soort infrastructuurprojecten zijn de projecten waarop ik graag alles inzet, niet alleen met mijn portefeuille maar ook met mijn overtuiging, want als ik gelijk heb en de geduld heb om vast te houden, kun je generatiewaarde creëren.
Ik geloof dat naarmate Codec meer informatie over hun producten vrijgeeft en begint met het aanbieden van beta's voor hun platform, we een grote instroom van onderzoeksafdelingen en technische VC's zoals Delphi zullen zien die extreem optimistisch worden over wat ze bouwen.
Er zijn maar weinig teams in deze ruimte die bouwen vanuit eerste principes, nadenkend over de diepere filosofische vragen over hoe de samenleving zich zal aanpassen, evolueren en reorganiseren onder het gewicht van exponentiële vooruitgang gedreven door AI en robotica.
Wanneer onderzoekers zoals ik of Delphi hen tegenkomen, worden we volledig 'red pilled' en willen we alles doen wat in onze macht ligt om hen te laten slagen, omdat we zo sterk aansluiten bij hun visie.
Tot op de dag van vandaag is de marketing, het ontwerp en de optiek van Rei nog steeds een van mijn favorieten van elk project, laat staan hun product. Elk team dat zich wil verbeteren, zou hen als referentie moeten gebruiken, aangezien ze duidelijk een S-tier team en mindset hebben.
Ik liet een externe factor invloed uitoefenen op wat een vrij interne beslissing had moeten zijn, gebaseerd op infrastructuur en product. Ik ga het niet nog eens laten gebeuren.
Codec gecodeerd.

4,61K
Vierde niet 6 miljoen en vier ook 17 miljoen niet.
Opmerkelijk is dat ik in al mijn content alleen over de architectuur heb gesproken?
Wie de operator- en robotica-architectuur wint, zal vergelijkbaar zijn met de blockchain-oorlogen van 2021 en het vinden van het meest schaalbare consensusmechanisme.
Codec bouwt niet om de aandacht te trekken voor de komende 2 weken, daarom zie je geen hoop flashy, lage kwaliteit berichten die dagelijks verschijnen.
Dit product is zo'n zeldzaam geval dat het blauwdruk voor wat ze bouwen andere projecten overtreft die al maximaal zijn met hun optics met bestaande producten (investeerders, team, partners, enz.).
Ik krijg veel berichten met vragen als "maar het maakt gewoon nog niet helemaal sense, hoe passen alle stukjes samen?".
Een goochelaar onthult nooit zijn geheimen (nog niet).
Komt jouw favoriete DJ aan het begin of aan het einde van de avond? Eet je eerst dessert of voorgerechten? Pop je champagne voor de race of na de overwinning?
Wat gebeurt er dus als we de leuke dingen beginnen te zien?
$CODEC gecodeerd.


Trissy3 jul 2025
Mensen blijven me feliciteren met $CODEC, waarvoor?
Tot nu toe hebben we zelfs niet gezien:
- Token nut
- Incentives
- Roadmap
- Demos
- Nieuwe website
- Marketplace
- Toekomstige partnerschappen
- Gebruikscases
+ meer
Wat we tot nu toe hebben gezien, zijn een paar partnerschappen en de release van hun resource aggregator (Fabric).
Ik heb geen meerdere threads geschreven, geen meerdere telegramberichten gepost, niet bijna dagelijks met het team gesproken, niet geadviseerd over de marketing, branding, positionering om een mcap van 6 miljoen te vieren.
Een chatgpt-wrapper van een anime-meisje met roze haar was genoeg voor een mcap van 6 miljoen tijdens de AI-periode.
Projecten gingen naar 9 cijfers van de ene op de andere dag voor het winnen van een hackathon of het in de schijnwerpers komen van grote KOLs/onderzoekers.
Iedereen is vergeten wat er gebeurt als de lichten aangaan en mensen weer geloven.
De reden dat ik deze afgelopen week zo bullish ben geworden voor onchain is dat het geloof op een historisch laag niveau is. De afgelopen maand heeft enkele van de grootste vooruitgangen opgeleverd die we in deze industrie hebben gemaakt, samen met een positieve macro-achtergrond.
Vergeet dat gevoel van geld dat uit de lucht valt niet? Het kan niet lang duren voordat we het weer kunnen ervaren.

10,81K
Protocollen en teams moeten stoppen met het betalen van KOLs voor content.
De enige keer dat teams tokens zouden moeten uitdelen, is aan KOLs of communityleden die hoge waarde creëren voor hun project en resultaten teruggeven.
Je product of verhaal moet interessant genoeg zijn zodat invloedrijke mensen automatisch willen kopen en er natuurlijk over willen schrijven.
Dit zijn de mensen aan wie je tokens zou moeten toekennen, niet door 3 betaalde threads te doen voor ambassadeurs die hun volgers botten.
"Wat als ik niemand geïnteresseerd kan krijgen in mijn product om te tweeten?" Blijf dan bouwen, je hebt duidelijk de juiste niche niet gevonden of niet genoeg genetworked als je geen paar kernondersteuners kunt opbouwen.
Mijn boodschap aan de bouwers: bouw iets cools genoeg zodat mensen van nature willen kopen en erover willen schrijven, geef tokens aan de grootste supporters die aansluiten bij jouw visie. Aangezien:
1. Ze zullen veel waarschijnlijker overuren werken en verder gaan om je te helpen slagen, omdat je sterk moreel gedrag hebt getoond (een zeldzaamheid in deze ruimte)
2. Degenen die je betaalt voor een bepaald aantal berichten zullen afhaken zodra hun deal voorbij is en de tokens dumpen.
Ik doe geen betaalde promoties van welke aard dan ook, maar ik ga duidelijk geen gratis tokens voor een project dat ik extreem bullish op ben met geen voorwaarden afslaan. De beste schrijvers kunnen niet gekocht worden en zullen worden afgewezen als je het probeert.
Speel het lange spel en neem geen shortcuts, het zal zich weerspiegelen in je acties in elke verticale van het bedrijf en slimme traders kunnen het van een mijl afstand ruiken.
KOL-campagnes zijn dood, 99,9% van de marketingbureaus zijn een verspilling van geld en zullen -ev voor je bedrijf zijn.
De enige manier om deze markt te penetreren is door crypto-native teamleden te hebben die bereid zijn om hun handen vuil te maken.
3,48K
OpenAI heeft vandaag mijn noordelijke sterthese voor AI bevestigd door hun operatoragent vrij te geven.
Dit was niet alleen mijn leidende these voor $CODEC, maar ook voor elke andere AI-investering die ik heb gedaan, inclusief die van eerder dit jaar tijdens de AI-manie.
Er is veel discussie geweest met Codec met betrekking tot Robotica, terwijl die verticale binnenkort zijn eigen verhaal zal hebben, is de onderliggende reden waarom ik vanaf dag 1 zo optimistisch was over Codec, vanwege hoe de architectuur operatoragents aanstuurt.
Mensen onderschatten nog steeds hoeveel marktaandeel op het spel staat door software te bouwen die autonoom draait, menselijke werknemers overtreft zonder de noodzaak voor constante aansturing of toezicht.
Ik heb veel vergelijkingen gezien met $NUIT. Ten eerste wil ik zeggen dat ik een grote fan ben van wat Nuit aan het bouwen is en wens niets dan succes voor hen. Als je "nuit" in mijn telegram typt, zie je dat ik in april zei dat als ik één munt meerdere maanden moest vasthouden, het Nuit zou zijn vanwege mijn operatorthese.
Nuit was het meest veelbelovende operatorproject op papier, maar na uitgebreid onderzoek ontdekte ik dat hun architectuur de diepgang miste die nodig was om een grote investering te rechtvaardigen of mijn reputatie erachter te zetten.
Met dit in gedachten was ik me al bewust van de architecturale hiaten in bestaande operatoragentteams en actief op zoek naar een project dat deze aanpakte. Kort nadat Codec verscheen (dank aan @0xdetweiler die aandrong dat ik dieper naar hen keek) en dit is het verschil tussen de twee:
$CODEC vs $NUIT
De architectuur van Codec is opgebouwd uit drie lagen; Machine, Systeem en Intelligentie, die infrastructuur, omgevingsinterface en AI-logica scheiden. Elke operatoragent in Codec draait in zijn eigen geïsoleerde VM of container, wat bijna native prestaties en foutisolatie mogelijk maakt. Dit gelaagde ontwerp betekent dat componenten onafhankelijk kunnen schalen of evolueren zonder het systeem te breken.
De architectuur van Nuit volgt een andere weg door meer monolithisch te zijn. Hun stack draait om een gespecialiseerde webbrowseragent die parseren, AI-redenering en actie combineert. Dit betekent dat ze webpagina's diepgaand parseren in gestructureerde gegevens voor de AI om te consumeren en afhankelijk zijn van cloudverwerking voor zware AI-taken.
De aanpak van Codec om een lichtgewicht Vision-Language-Action (VLA) model binnen elke agent in te bedden, betekent dat het volledig lokaal kan draaien. Dit vereist geen constante terugkoppeling naar de cloud voor instructies, waardoor latentie wordt verminderd en afhankelijkheid van uptime en bandbreedte wordt vermeden.
De agent van Nuit verwerkt taken door eerst webpagina's om te zetten in een semantisch formaat en vervolgens een LLM-brein te gebruiken om te bepalen wat te doen, wat in de loop van de tijd verbetert met versterkend leren. Hoewel effectief voor webautomatisering, hangt deze stroom af van zware cloudzijde AI-verwerking en vooraf gedefinieerde paginstructuren. De lokale apparaatintelligentie van Codec betekent dat beslissingen dichter bij de gegevens plaatsvinden, waardoor overhead wordt verminderd en het systeem stabieler wordt voor onverwachte veranderingen (geen fragiele scripts of DOM-aannames).
De operators van Codec volgen een continue perceive–think–act-lus. De machinelayer streamt de omgeving (bijv. een live-app of robotfeed) naar de intelligentielaag via de geoptimaliseerde kanalen van de systeemlaag, waardoor de AI "ogen" krijgt op de huidige staat. Het VLA-model van de agent interpreteert vervolgens de visuals en instructies samen om een actie te bepalen, die de systeemlaag uitvoert via toetsenbord/muisgebeurtenissen of robotbesturing. Deze geïntegreerde lus betekent dat het zich aanpast aan live-evenementen, zelfs als de UI verschuift, je zult de stroom niet onderbreken.
Om dit alles in een eenvoudigere analogie te plaatsen, denk aan de operators van Codec als een zelfvoorzienende werknemer die zich aanpast aan verrassingen op de werkvloer. De agent van Nuit is als een werknemer die moet pauzeren, de situatie aan een supervisor aan de telefoon moet beschrijven en op instructies moet wachten.
Zonder te veel in een technische konijnenhol te duiken, zou dit je een hoog niveau idee moeten geven over waarom ik Codec heb gekozen als mijn primaire inzet op Operators.
Ja, Nuit heeft steun van YC, een sterk team en S-tier github. Hoewel de architectuur van Codec is gebouwd met horizontale schaalbaarheid in gedachten, wat betekent dat je duizenden agents parallel kunt inzetten zonder gedeeld geheugen of uitvoeringscontext tussen agents. Het team van Codec is ook geen gemiddelde ontwikkelaars.
Hun VLA-architectuur opent een veelvoud aan gebruikscases die niet mogelijk waren met eerdere agentmodellen vanwege het zien door pixels, niet door screenshots.
Ik zou verder kunnen gaan, maar ik bewaar dat voor toekomstige berichten.
16,3K
Het ding is, als je echt wilt slagen in deze ruimte, zal iedereen om je heen denken dat er iets mis met je is.
Om echt de 0,001% te zijn, is het leven buiten de loopgraven bijna niet-bestaand.
Geen meisjes, geen hobby's, geen sociale uitjes, geen Netflix of iets dat je wegneemt van de grind.
Het is een soort mindset die extreem moeilijk te relateren is, zelfs voor professionele atleten, omdat er geen reden is waarom je niet 24/7 online kunt zijn.
We zitten vast in onze eigen paradox van vrijheid.
Iedereen wil de magische mogelijkheid om op knoppen te klikken voor geld, totdat het tijd is om nee te zeggen tegen 95% van de geneugten.
Vrienden en familie zullen constant hints geven die suggereren dat je een vorm van een mentale ziekte hebt en zullen de visie nooit echt begrijpen.
Jaloezie stijgt wanneer stukjes succes naar boven komen, als je mensen nauwlettend in de gaten houdt, onthullen ze altijd hun ware bedoelingen, zelfs als ze dat niet bedoelden.
De kleinste hints zullen hen verraden, meestal door spontane emotionele reacties in het moment waar je alleen maar een paar woorden hoeft te horen, meestal is dat alles wat nodig is.
Naarmate je succesvoller wordt, leer dan stil te blijven. Er is geen reden om je vooruitgang te vermelden, hoe geweldig het ook zou zijn om met iedereen te delen en te genieten van de vruchten van je arbeid, het zal alleen maar hebzucht van anderen aantrekken.
De meesten falen hierin omdat ze de "crypto guy" of "investeerder" hun hele persona maken. Zelfs als je 16 uur per dag online bent, moet je nog steeds interesses en ambities buiten deze industrie hebben.
Vrienden zouden met je willen omgaan om de kwaliteit van je aanwezigheid en de stemming die je daar maakt, niet om hoeveel cijfers je op een scherm hebt gemaakt.
Een privé, afgezonderd leven leiden met een kleine kring van kwaliteitsindividuen is de grootste levenshack voor gemoedsrust.
Als je aanwezigheid mensen niets laat voelen zonder over geld te praten, ben je al verloren.
6,08K
Wat is $CODEC
Robotica, Operators, Gaming?
Alles hierboven en meer.
Codec’s vision-language-action (VLA) is een framework-agnostisch model, dat tientallen gebruikscases mogelijk maakt dankzij de unieke mogelijkheid om fouten te visualiseren in vergelijking met LLM's.
In de afgelopen 12 maanden hebben we gezien dat LLM's voornamelijk functioneren als lusmechanismen, aangedreven door vooraf gedefinieerde gegevens en responspatronen.
Omdat ze zijn gebouwd op spraak en tekst, hebben LLM's een beperkte mogelijkheid om zich verder te ontwikkelen dan het venster van linguïstische context waarop ze zijn getraind. Ze kunnen geen sensorische input interpreteren, zoals gezichtsuitdrukkingen of realtime emotionele signalen, omdat hun redenering gebonden is aan taal, niet aan perceptie.
De meeste agenten van vandaag combineren transformer-gebaseerde LLM's met visuele encoders. Ze "zien" de interface via screenshots, interpreteren wat op het scherm staat en genereren reeksen van acties, klikken, toetsaanslagen, scrollen om instructies te volgen en taken te voltooien.
Dit is waarom AI nog niet grote categorieën banen heeft vervangen: LLM's zien screenshots, geen pixels. Ze begrijpen de dynamische visuele semantiek van de omgeving niet, alleen wat leesbaar is door statische frames.
Hun typische workflow is repetitief: maak een screenshot, redeneer over de volgende actie, voer deze uit, maak dan een ander frame en herhaal. Deze perceive-think loop gaat door totdat de taak is voltooid of de agent faalt.
Om echt te generaliseren, moet AI zijn omgeving waarnemen, redeneren over zijn toestand en passend handelen om doelen te bereiken, niet alleen snapshots interpreteren.
We hebben al macro's, RPA-bots en automatiseringsscripts, maar ze zijn zwak en onstabiel. Een kleine pixelverschuiving of lay-outwijziging breekt de flow en vereist handmatige patching. Ze kunnen zich niet aanpassen wanneer er iets verandert in de workflow. Dat is de bottleneck.
Vision-Language-Action (VLA)
Codec’s VLA-agenten draaien op een intuïtieve maar krachtige lus: waarnemen, denken, handelen. In plaats van alleen tekst uit te spugen zoals de meeste LLM's, zien deze agenten hun omgeving, beslissen wat te doen en voeren het dan uit. Het is allemaal verpakt in één uniforme pijplijn, die je kunt visualiseren in drie kernlagen:
Visie
De agent waarneemt eerst zijn omgeving door middel van visie. Voor een desktop Operator-agent betekent dit het vastleggen van een screenshot of visuele input van de huidige staat (bijv. een app-venster of tekstvak). De visiecomponent van het VLA-model interpreteert deze input, leest de tekst op het scherm en herkent interface-elementen of objecten. Ook wel de ogen van de agent genoemd.
Taal
Dan komt het denken. Gegeven de visuele context (en eventuele instructies of doelen), analyseert het model welke actie vereist is. In wezen "denkt" de AI na over de juiste reactie, net zoals een persoon zou doen. De VLA-architectuur voegt visie en taal intern samen, zodat de agent bijvoorbeeld kan begrijpen dat een pop-updialoog een ja/nee-vraag stelt. Het zal dan beslissen over de juiste actie (bijv. klik op "OK") op basis van het doel of de prompt. Dit fungeert als de hersenen van de agent, die waargenomen inputs aan een actie koppelt.
Actie
Ten slotte handelt de agent door een controlecommando naar de omgeving uit te voeren. In plaats van tekst genereert het VLA-model een actie (zoals een muisklik, toetsaanslag of API-aanroep) die direct met het systeem interageert. In het dialoogvoorbeeld zou de agent de klik op de "OK"-knop uitvoeren. Dit sluit de lus: na het handelen kan de agent visueel het resultaat controleren en de perceive–think–act-cyclus voortzetten. Acties zijn de belangrijkste scheiding die hen van chatboxen naar echte operators verandert.
Gebruikscases
Zoals ik al zei, is Codec door de architectuur narratief agnostisch. Net zoals LLM's niet beperkt zijn tot de tekstuele outputs die ze kunnen produceren, zijn VLA's niet beperkt tot de taken die ze kunnen voltooien.
Robotica
In plaats van te vertrouwen op oude scripts of imperfecte automatisering, nemen VLA-agenten visuele input (camera-feed of sensoren) op, geven deze door aan een taalmachine voor planning en geven vervolgens daadwerkelijke controlecommando's uit om te bewegen of met de wereld te interageren.
In wezen ziet de robot wat er voor hem staat, verwerkt instructies zoals "verplaats het Pepsi-blikje naast de sinaasappel," bepaalt waar alles is, hoe te bewegen zonder iets om te stoten, en doet dit zonder hardcoding.
Dit is dezelfde klasse van systeem als Google’s RT-2 of PaLM-E. Grote modellen die visie en taal combineren om echte wereldacties te creëren. CogAct’s VLA-werk is een goed voorbeeld, de robot scant een rommelige tafel, krijgt een natuurlijke prompt en doorloopt een volledige lus: object-ID, padplanning, bewegingsuitvoering.
Operators
In de desktop- en webomgeving functioneren VLA-agenten in wezen als digitale werknemers. Ze "zien" het scherm via een screenshot of live-feed, draaien dat door een redeneelaag die is gebouwd op een taalmachine om zowel de UI als de taakprompt te begrijpen, en voeren vervolgens de acties uit met echte muis- en toetsenbordbediening, zoals een mens zou doen.
Deze volledige lus, waarnemen, denken, handelen, draait continu. Dus de agent reageert niet alleen één keer, hij navigeert actief door de interface, behandelt meerdere stappenflows zonder dat er hardcoded scripts nodig zijn. De architectuur is een mix van OCR-stijl visie om tekst/knoppen/iconen te lezen, semantische redenering om te beslissen wat te doen, en een controlelaag die kan klikken, scrollen, typen, enz.
Waar dit echt interessant wordt, is in foutafhandeling. Deze agenten kunnen reflecteren na acties en opnieuw plannen als iets niet gaat zoals verwacht. In tegenstelling tot RPA-scripts die breken als een UI iets verandert, zoals een knop die van positie verschuift of een label dat wordt hernoemd, kan een VLA-agent zich aanpassen aan de nieuwe lay-out met behulp van visuele aanwijzingen en taalbegrip. Dit maakt het veel veerkrachtiger voor automatisering in de echte wereld waar interfaces voortdurend veranderen.
Iets waar ik persoonlijk mee heb geworsteld bij het coderen van mijn eigen onderzoeksbots via tools zoals playwright.
Gaming
Gaming is een van de duidelijkste gebruikscases waar VLA-agenten kunnen uitblinken, beschouw ze minder als bots en meer als meeslepende AI-spelers. De hele flow is hetzelfde, de agent ziet het spelscherm (frames, menu's, tekstprompts), redeneert over wat hij moet doen en speelt vervolgens met muis-, toetsenbord- of controllerinvoer.
Het is niet gericht op brute kracht, dit is AI die leert hoe te gamen zoals een mens zou doen. Waarneming + denken + controle, allemaal met elkaar verbonden. DeepMind’s SIMA-project heeft dit ontgrendeld door een visie-taalmodel te combineren met een voorspellende laag en dit in games zoals No Man’s Sky en Minecraft te plaatsen. Door alleen het scherm te bekijken en instructies te volgen, kon de agent abstracte taken voltooien zoals "bouw een kampvuur" door de juiste stappen aan elkaar te koppelen, hout te verzamelen, lucifers te vinden en de inventaris te gebruiken. En het was niet beperkt tot slechts één spel. Het droeg die kennis over tussen verschillende omgevingen.
VLA-gamingagenten zijn niet vastgelegd in één regelsysteem. Dezelfde agent kan zich aanpassen aan volledig verschillende mechanics, alleen al op basis van visie en taalgronding. En omdat het is gebouwd op LLM-infrastructuur, kan het uitleggen wat het doet, natuurlijke taal-instructies volgen tijdens het spel, of samenwerken met spelers in realtime.
We zijn niet ver verwijderd van het hebben van AI-teamgenoten die zich aanpassen aan jouw speelstijl en personalisaties, allemaal dankzij Codec.

9,6K
Boven
Positie
Favorieten
Populair op onchain
Populair op X
Recente topfinanciering
Belangrijkste