Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Trissy
Une dernière course haussière
Il y aura une période où vos compétences dépasseront largement votre portefeuille.
C'est le point le plus émotionnellement volatile de votre parcours.
Jour après jour, vous affinez votre exécution, aiguisez votre lecture du marché, et pourtant votre valeur nette reste piégée dans une figure arbitraire de " enfer ". Vous regardez d'autres personnes avec 100 fois votre taille et réalisez qu'elles n'ont pas de connaissance secrète, juste plus de capital.
C'est la zone décisive.
Avoir peu de capital signifie que vous avez une petite fenêtre d'opportunité pour parier sur une richesse élite, comme le dirait degenspartan.
Chaque trade est comme marcher sur des mines terrestres, un ou deux mauvais mouvements peuvent complètement vous anéantir.
Pourtant, vous savez que vous avez ce qu'il faut pour rejoindre les grandes ligues, votre valeur nette ne le prouve simplement pas encore.
Si vous voulez vraiment percer, vous devez trouver un état de flux si fort que vous refusez d'en être ébranlé, car de l'autre côté vous attend un emploi de 9h à 17h.
Faites tout ce qu'il faut. À ce stade, vous aurez l'impression de devenir fou jusqu'à ce que vous obteniez cette chance qui rendra tous les sacrifices valables.
3,51K
Le meilleur atout que vous puissiez avoir en tant que trader de nos jours est de penser par vous-même.
L'IA nous a appris à déléguer notre réflexion, provoquant une dégradation cérébrale générationnelle. Si vous pouvez décomposer une thèse étape par étape, sans vous fier à un terminal crachant des chaînes de texte prédéfinies, vous resterez dans le top 1 %, car vous ne laissez pas votre avantage cognitif s'éroder lentement.
En ce moment, la véritable menace pour la société n'est pas l'inflation monétaire, mais l'inflation cognitive. Les gens délèguent leur puissance cérébrale et leur vision du monde à ChatGPT, le considérant comme la source de vérité.
La discipline de former vos propres conclusions par l'écriture, l'analyse et l'intuition est ce qui séparera les gagnants des autres. Il n'a jamais été aussi facile de rester passif et de laisser l'information vous être servie sur un plateau.
Oui, la vitesse de l'IA ne fera qu'accélérer. Je ne dis pas que vous ne devriez pas l'utiliser, vous devriez, car l'ignorer vous laissera derrière. Cependant, vous devez passer une partie de votre journée à lire en profondeur, à contextualiser les événements et à les traduire dans vos propres mots. Faites-en une habitude de penser de manière de haute qualité.
Sinon, vous n'êtes qu'un autre hamster courant sur la roue, réagissant au monde qui passe à toute vitesse.
6,5K
Fait amusant :
$REI a toujours été l'un de mes investissements les plus optimistes et ce design a été réalisé en mars, où je prévoyais d'écrire un rapport de recherche approfondi sur son infrastructure et sa taille d'environ 10-15 millions.
Malheureusement, je ne l'ai pas fait en raison d'un manque de confiance dans l'équipe de Base pour soutenir les constructeurs éco après les avoir vus ignorer complètement les projets ayant le plus de visibilité sur leur chaîne comme Virtuals.
Quelques semaines plus tard, je vois des publications circuler indiquant que @Delphi_Digital a été impliqué en coulisses et travaille avec l'équipe de Rei et finit par publier des rapports de recherche.
Il s'avère que mon évaluation de leur infrastructure était très bien recherchée et le graphique n'a cessé d'augmenter, réalisant un 15x depuis.
Depuis lors, il n'y a eu qu'un seul projet utilitaire qui m'a donné encore plus de conviction que Rei : $CODEC.
Tout comme Rei, Codec n'a pas totalement de sens pour les gens car ce qu'ils construisent est entièrement unique par rapport à tout ce que nous avons vu sur le marché actuel.
Leur approche de l'infrastructure n'est pas axée sur ce que le marché demande aujourd'hui, mais sur ce qu'il demandera dans 6 à 12 mois.
Ce type de projets d'infrastructure est celui sur lequel j'aime parier gros, non seulement avec mon portefeuille mais aussi avec ma conviction, car si j'ai raison et que j'ai la patience de tenir, je peux créer une richesse générationnelle.
Je crois qu'à mesure que Codec publie plus d'informations sur ses produits et commence à fournir des versions bêta de sa plateforme, nous verrons un grand afflux de bras de recherche et de VCs techniques comme Delphi devenir extrêmement optimistes sur ce qu'ils construisent.
Très peu d'équipes dans cet espace construisent à partir de premiers principes, réfléchissant aux questions philosophiques plus profondes de la façon dont la société s'adaptera, évoluera et se réorganisera sous le poids du progrès exponentiel entraîné par l'IA et la robotique.
Lorsque des chercheurs comme moi ou Delphi tombent sur eux, nous sommes complètement éveillés et voulons faire tout ce qui est en notre pouvoir pour les voir réussir car nous nous alignons si fortement avec leur vision.
À ce jour, le marketing, les designs et l'optique de Rei sont toujours l'un de mes préférés parmi tous les projets, sans parler de leur produit. Toute équipe cherchant à se perfectionner devrait les utiliser comme référence car ils ont clairement une équipe et un état d'esprit de niveau S.
J'ai laissé un facteur externe influencer ce qui aurait dû être une décision assez interne basée sur l'infrastructure et le produit. Je ne vais pas laisser cela se reproduire.
Codec codé.

4,62K
Je n'ai pas célébré 6 millions et je ne célèbre pas non plus 17 millions.
Remarquez que dans tout mon contenu, je n'ai parlé que de l'architecture ?
Celui qui gagnera l'architecture des opérateurs et de la robotique sera comparable aux guerres de la blockchain de 2021 et à la recherche du mécanisme de consensus le plus évolutif.
Codec ne construit pas pour attirer l'attention pendant les 2 prochaines semaines, c'est pourquoi vous ne voyez pas une multitude de publications flashy de mauvaise qualité sortir quotidiennement.
Ce produit est un cas si rare que le plan de ce qu'ils construisent surpasse d'autres projets qui sont déjà au maximum de leurs capacités avec des produits existants (investisseurs, équipe, partenaires, etc).
Je reçois beaucoup de messages demandant des choses comme "mais ça n'a tout simplement pas encore de sens, comment toutes les pièces s'assemblent-elles ?".
Un magicien ne révèle jamais ses secrets (encore).
Votre DJ préféré sort-il au début ou à la fin de la nuit ? Mangez-vous d'abord le dessert ou les entrées ? Ouvrez-vous le champagne avant la course ou après la victoire ?
Alors que se passe-t-il quand nous commençons à voir les choses amusantes ?
$CODEC codé.


Trissy3 juil. 2025
Les gens continuent de me féliciter pour $CODEC, mais pourquoi ?
Jusqu'à présent, nous n'avons même pas vu :
- Utilité du token
- Incitations
- Feuille de route
- Démos
- Nouveau site web
- Marché
- Partenariats futurs
- Cas d'utilisation
+ plus
Tout ce que nous avons vu, ce sont quelques partenariats et la sortie de leur agrégateur de ressources (Fabric).
Je n'ai pas écrit plusieurs fils, plusieurs posts sur Telegram, parlé avec l'équipe presque tous les jours, conseillé sur le marketing, le branding, le positionnement pour célébrer une capitalisation de 6 millions.
Un wrapper chatgpt d'une fille anime avec des cheveux roses suffisait pour une capitalisation de 6 millions pendant la saison AI.
Les projets passaient à 9 chiffres du jour au lendemain pour avoir gagné un hackathon ou être mis en avant par de grands KOLs/rechercheurs.
Tout le monde a oublié ce qui se passe quand les lumières s'allument et que les gens croient à nouveau.
La raison pour laquelle je suis devenu si optimiste cette semaine pour onchain, c'est que la croyance est à son plus bas historique. Le mois dernier a été l'une des plus grandes avancées que nous avons réalisées dans cette industrie, avec un contexte macro positif.
Rappelez-vous ce sentiment d'argent tombant du ciel ? Il se pourrait que nous ne devions pas attendre trop longtemps avant de le revivre.

10,82K
Les protocoles et les équipes devraient cesser de payer des KOLs pour du contenu.
La seule fois où les équipes devraient distribuer des tokens, c'est aux KOLs ou aux membres de la communauté qui créent une valeur élevée pour leur projet et qui apportent des résultats.
Votre produit ou votre récit devrait être suffisamment intéressant pour que les personnes influentes veuillent automatiquement l'acheter et en parler naturellement.
Ce sont ceux à qui vous devriez allouer des tokens, et non pas faire 3 fils payés pour des ambassadeurs qui gonflent leur nombre de followers.
"Que faire si je ne peux intéresser personne à mon produit pour tweeter ?" Alors continuez à construire, vous n'avez clairement pas trouvé le bon créneau ou vous n'avez pas assez réseauté si vous ne pouvez pas construire quelques supporters de base.
Mon message aux bâtisseurs : construisez quelque chose de suffisamment cool pour que les gens veuillent naturellement l'acheter et en parler, donnez des tokens aux plus grands supporters qui s'alignent avec votre vision. Puisque :
1. Ils seront beaucoup plus susceptibles de travailler dur et de faire des efforts supplémentaires pour vous aider à réussir puisque vous avez démontré un comportement moral fort (une rareté dans cet espace)
2. Ceux que vous payez pour un certain nombre de publications vont se désister dès que leur contrat est terminé et vont vendre les tokens.
Je ne fais pas de promotions payantes de quelque sorte que ce soit, mais je ne vais évidemment pas refuser des tokens gratuits pour un projet sur lequel je suis extrêmement optimiste sans conditions. Les meilleurs écrivains ne peuvent pas être achetés et seront repoussés si vous essayez de le faire.
Jouez sur le long terme et ne prenez pas de raccourcis, cela se reflétera dans vos actions à travers chaque vertical de l'entreprise et les traders intelligents peuvent le sentir à des kilomètres.
Les campagnes KOL sont mortes, 99,9 % des agences de marketing sont une perte d'argent et seront -év pour votre entreprise.
La seule façon de pénétrer ce marché est d'avoir des membres d'équipe natifs de la crypto qui sont prêts à se retrousser les manches.
3,48K
OpenAI vient de confirmer ma thèse étoile du nord pour l'IA aujourd'hui en lançant leur agent opérateur.
Non seulement c'était ma thèse directrice pour $CODEC, mais aussi pour chaque autre investissement en IA que j'ai réalisé, y compris ceux du début de l'année pendant la folie de l'IA.
Il y a eu beaucoup de discussions avec Codec concernant la robotique, bien que ce secteur ait bientôt sa propre narration, la raison sous-jacente pour laquelle j'étais si optimiste sur Codec depuis le premier jour est due à la façon dont son architecture alimente les agents opérateurs.
Les gens sous-estiment encore combien de parts de marché sont en jeu en construisant des logiciels qui fonctionnent de manière autonome, surpassant les travailleurs humains sans avoir besoin de rappels constants ou de supervision.
J'ai vu beaucoup de comparaisons avec $NUIT. Tout d'abord, je tiens à dire que je suis un grand fan de ce que Nuit construit et je ne souhaite que leur succès. Si vous tapez "nuit" dans mon telegram, vous verrez qu'en avril, j'ai dit que si je devais détenir une seule pièce pendant plusieurs mois, ce serait Nuit en raison de ma thèse opérateur.
Nuit était le projet opérateur le plus prometteur sur le papier, mais après des recherches approfondies, j'ai constaté que leur architecture manquait de la profondeur nécessaire pour justifier un investissement majeur ou mettre ma réputation derrière elle.
Cela dit, j'étais déjà conscient des lacunes architecturales dans les équipes d'agents opérateurs existantes et je cherchais activement un projet qui y remédierait. Peu après, Codec est apparu (merci à @0xdetweiler d'avoir insisté pour que je les examine de plus près) et voici la différence entre les deux :
$CODEC vs $NUIT
L'architecture de Codec est construite sur trois couches : Machine, Système et Intelligence, qui séparent l'infrastructure, l'interface environnementale et la logique IA. Chaque agent opérateur dans Codec fonctionne dans sa propre VM ou conteneur isolé, permettant une performance presque native et une isolation des pannes. Ce design en couches signifie que les composants peuvent évoluer ou se développer indépendamment sans casser le système.
L'architecture de Nuit prend un chemin différent en étant plus monolithique. Leur pile tourne autour d'un agent de navigateur web spécialisé qui combine parsing, raisonnement IA et action. Cela signifie qu'ils analysent profondément les pages web en données structurées pour que l'IA puisse les consommer et s'appuient sur le traitement cloud pour les tâches IA lourdes.
L'approche de Codec d'intégrer un modèle Vision-Language-Action (VLA) léger dans chaque agent signifie qu'il peut fonctionner entièrement localement. Ce qui ne nécessite pas de ping constant vers le cloud pour des instructions, éliminant la latence et évitant la dépendance à la disponibilité et à la bande passante.
L'agent de Nuit traite les tâches en convertissant d'abord les pages web en un format sémantique, puis en utilisant un cerveau LLM pour déterminer quoi faire, ce qui s'améliore avec le temps grâce à l'apprentissage par renforcement. Bien que cela soit efficace pour l'automatisation web, ce flux dépend d'un traitement IA lourd côté cloud et de structures de page prédéfinies. L'intelligence locale de Codec signifie que les décisions se prennent plus près des données, réduisant les frais généraux et rendant le système plus stable face aux changements inattendus (pas de scripts fragiles ou d'hypothèses DOM).
Les opérateurs de Codec suivent une boucle continue de perception–réflexion–action. La couche machine diffuse l'environnement (par exemple, un flux d'application en direct ou de robot) à la couche d'intelligence via les canaux optimisés de la couche système, donnant à l'IA des "yeux" sur l'état actuel. Le modèle VLA de l'agent interprète ensuite les visuels et les instructions ensemble pour décider d'une action, que la couche système exécute par le biais d'événements clavier/souris ou de contrôle de robot. Cette boucle intégrée signifie qu'elle s'adapte aux événements en direct, même si l'interface utilisateur change, vous ne casserez pas le flux.
Pour mettre tout cela dans une analogie plus simple, pensez aux opérateurs de Codec comme à un employé autonome qui s'adapte aux surprises au travail. L'agent de Nuit est comme un employé qui doit faire une pause, décrire la situation à un superviseur au téléphone et attendre des instructions.
Sans trop entrer dans un trou technique, cela devrait vous donner une idée générale sur pourquoi j'ai choisi Codec comme mon pari principal sur les opérateurs.
Oui, Nuit a le soutien de YC, une équipe solide et un GitHub de niveau S. Bien que l'architecture de Codec ait été construite avec l'évolutivité horizontale à l'esprit, ce qui signifie que vous pouvez déployer des milliers d'agents en parallèle sans mémoire partagée ni contexte d'exécution entre les agents. L'équipe de Codec n'est pas non plus composée de développeurs moyens.
Leur architecture VLA ouvre une multitude de cas d'utilisation qui n'étaient pas possibles avec les modèles d'agents précédents en raison de la vision à travers les pixels, pas les captures d'écran.
Je pourrais continuer, mais je vais garder cela pour de futurs posts.
16,31K
Le fait est que, si vous voulez vraiment réussir dans cet espace, tout le monde autour de vous pensera qu'il y a quelque chose qui ne va pas chez vous.
Pour vraiment faire partie des 0,001 %, la vie en dehors des tranchées est presque inexistante.
Pas de filles, pas de loisirs, pas de sorties sociales, pas de Netflix ou quoi que ce soit qui vous éloigne du travail.
C'est un type d'état d'esprit qui est extrêmement difficile à comprendre même pour des athlètes professionnels, car il n'y a aucune raison de ne pas être en ligne 24/7.
Nous sommes coincés dans notre propre paradoxe de liberté.
Tout le monde veut la capacité magique de cliquer sur des boutons pour gagner de l'argent, jusqu'à ce qu'il soit temps de dire non à 95 % des plaisirs.
Les amis et la famille lanceront constamment des sous-entendus suggérant que vous avez une forme de maladie mentale et ne verront jamais vraiment la vision.
La jalousie monte lorsque des bribes de succès apparaissent, si vous observez les gens de près, ils révèlent toujours leurs véritables intentions, même s'ils ne le voulaient pas.
Les plus petits indices les trahiront, généralement à partir de réactions émotionnelles spontanées dans le moment où il suffit d'entendre quelques mots glisser, la plupart du temps c'est tout ce qu'il faut.
À mesure que vous devenez plus réussi, apprenez à rester silencieux. Il n'est pas nécessaire de mentionner vos progrès, aussi génial que cela puisse être de partager avec tout le monde et de profiter des fruits de votre travail, cela n'attirera que la cupidité des autres.
La plupart échouent à cela car ils font de leur identité entière le fait d'être le "gars de la crypto" ou "investisseur". Même si vous êtes en ligne 16 heures par jour, vous devez toujours avoir des intérêts et des ambitions en dehors de cette industrie.
Les amis devraient vouloir passer du temps avec vous pour la qualité de votre présence et la différence d'humeur que vous apportez, pas pour combien de chiffres vous avez réalisés sur un écran.
Vivre une vie privée, isolée avec un petit cercle d'individus de qualité est le meilleur hack de vie pour la paix d'esprit.
Si votre présence ne fait pas ressentir quelque chose aux gens sans parler d'argent, vous avez déjà perdu.
6,09K
Qu'est-ce que $CODEC
Robotique, Opérateurs, Jeux ?
Tout cela et plus encore.
La vision-langage-action (VLA) de Codec est un modèle indépendant du cadre, permettant des dizaines de cas d'utilisation grâce à sa capacité unique à visualiser les erreurs par rapport aux LLM.
Au cours des 12 derniers mois, nous avons constaté que les LLM fonctionnent principalement comme des mécanismes de boucle, alimentés par des données et des modèles de réponse prédéfinis.
Parce qu'ils sont construits sur la parole et le texte, les LLM ont une capacité limitée à évoluer au-delà de la fenêtre de contexte linguistique sur laquelle ils sont formés. Ils ne peuvent pas interpréter les entrées sensorielles, comme les expressions faciales ou les indices émotionnels en temps réel, car leur raisonnement est lié à la langue, pas à la perception.
La plupart des agents aujourd'hui combinent des LLM basés sur des transformateurs avec des encodeurs visuels. Ils "voient" l'interface à travers des captures d'écran, interprètent ce qui est à l'écran et génèrent des séquences d'actions, de clics, de frappes au clavier, de défilements pour suivre des instructions et accomplir des tâches.
C'est pourquoi l'IA n'a pas encore remplacé de grandes catégories d'emplois : les LLM voient des captures d'écran, pas des pixels. Ils ne comprennent pas la sémantique visuelle dynamique de l'environnement, seulement ce qui est lisible à travers des images statiques.
Leur flux de travail typique est répétitif : capturer une capture d'écran, raisonner sur la prochaine action, l'exécuter, puis capturer un autre cadre et répéter. Cette boucle percevoir-penser continue jusqu'à ce que la tâche soit terminée ou que l'agent échoue.
Pour véritablement généraliser, l'IA doit percevoir son environnement, raisonner sur son état et agir de manière appropriée pour atteindre des objectifs, pas seulement interpréter des instantanés.
Nous avons déjà des macros, des bots RPA et des scripts d'automatisation, mais ils sont faibles et instables. Un léger déplacement de pixel ou un changement de mise en page casse le flux et nécessite un patch manuel. Ils ne peuvent pas s'adapter lorsque quelque chose change dans le flux de travail. C'est le goulet d'étranglement.
Vision-Language-Action (VLA)
Les agents VLA de Codec fonctionnent sur une boucle intuitive mais puissante : percevoir, penser, agir. Au lieu de simplement cracher du texte comme la plupart des LLM, ces agents voient leur environnement, décident quoi faire puis exécutent. Tout est emballé dans un pipeline unifié, que vous pouvez visualiser en trois couches principales :
Vision
L'agent perçoit d'abord son environnement par la vision. Pour un agent Opérateur de bureau, cela signifie capturer une capture d'écran ou une entrée visuelle de l'état actuel (par exemple, une fenêtre d'application ou une zone de texte). Le composant vision du modèle VLA interprète cette entrée, lit le texte à l'écran et reconnaît les éléments ou objets de l'interface. Autrement dit, les yeux de l'agent.
Langage
Puis vient la réflexion. Étant donné le contexte visuel (et toutes instructions ou objectifs), le modèle analyse quelle action est requise. Essentiellement, l'IA "pense" à la réponse appropriée tout comme une personne le ferait. L'architecture VLA fusionne vision et langage en interne, de sorte que l'agent peut, par exemple, comprendre qu'une boîte de dialogue contextuelle pose une question oui/non. Il décidera alors de l'action correcte (par exemple, cliquer sur "OK") en fonction de l'objectif ou de l'invite. Servant de cerveau à l'agent, mappant les entrées perçues à une action.
Action
Enfin, l'agent agit en émettant une commande de contrôle à l'environnement. Au lieu de texte, le modèle VLA génère une action (comme un clic de souris, une frappe au clavier ou un appel API) qui interagit directement avec le système. Dans l'exemple de la boîte de dialogue, l'agent exécuterait le clic sur le bouton "OK". Cela ferme la boucle : après avoir agi, l'agent peut vérifier visuellement le résultat et continuer le cycle percevoir–penser–agir. Les actions sont le séparateur clé qui les transforme de simples boîtes de chat en véritables opérateurs.
Cas d'utilisation
Comme je l'ai mentionné, en raison de l'architecture, Codec est narrativement agnostique. Tout comme les LLM ne sont pas confinés par les sorties textuelles qu'ils peuvent produire, les VLA ne sont pas confinés par les tâches qu'ils peuvent accomplir.
Robotique
Au lieu de s'appuyer sur de vieux scripts ou une automatisation imparfaite, les agents VLA prennent des entrées visuelles (flux de caméra ou capteurs), les passent à travers un modèle de langage pour la planification, puis émettent de réelles commandes de contrôle pour se déplacer ou interagir avec le monde.
En gros, le robot voit ce qui est devant lui, traite des instructions comme "déplacer la canette de Pepsi à côté de l'orange", détermine où tout se trouve, comment se déplacer sans renverser quoi que ce soit, et le fait sans codage nécessaire.
C'est la même classe de système que le RT-2 ou PaLM-E de Google. De grands modèles qui fusionnent vision et langage pour créer des actions dans le monde réel. Le travail VLA de CogAct est un bon exemple, le robot scanne une table en désordre, reçoit une invite naturelle et exécute une boucle complète : identification d'objet, planification de chemin, exécution de mouvement.
Opérateurs
Dans l'environnement de bureau et web, les agents VLA fonctionnent essentiellement comme des travailleurs numériques. Ils "voient" l'écran à travers une capture d'écran ou un flux en direct, passent cela à travers une couche de raisonnement construite sur un modèle de langage pour comprendre à la fois l'UI et l'invite de tâche, puis exécutent les actions avec un contrôle réel de la souris et du clavier, comme un humain le ferait.
Cette boucle complète, percevoir, penser, agir, fonctionne en continu. Donc l'agent ne réagit pas juste une fois, il navigue activement dans l'interface, gérant des flux d'étapes multiples sans avoir besoin de scripts codés en dur. L'architecture est un mélange de vision de style OCR pour lire le texte/boutons/icônes, de raisonnement sémantique pour décider quoi faire, et d'une couche de contrôle qui peut cliquer, faire défiler, taper, etc.
Là où cela devient vraiment intéressant, c'est dans la gestion des erreurs. Ces agents peuvent réfléchir après les actions et replanifier si quelque chose ne se passe pas comme prévu. Contrairement aux scripts RPA qui se cassent si une interface utilisateur change légèrement, comme un bouton changeant de position ou une étiquette étant renommée, un agent VLA peut s'adapter à la nouvelle mise en page en utilisant des indices visuels et une compréhension du langage. Cela le rend beaucoup plus résilient pour l'automatisation dans le monde réel où les interfaces changent constamment.
C'est quelque chose avec lequel j'ai personnellement eu du mal en codant mes propres bots de recherche à travers des outils comme playwright.
Jeux
Le jeu est l'un des cas d'utilisation les plus clairs où les agents VLA peuvent briller, pensez à eux moins comme des bots et plus comme des joueurs IA immersifs. Tout le flux est le même, l'agent voit l'écran de jeu (images, menus, invites de texte), raisonne sur ce qu'il est censé faire, puis joue en utilisant des entrées de souris, de clavier ou de manette.
Ce n'est pas axé sur la force brute, c'est une IA apprenant à jouer comme un humain le ferait. Perception + pensée + contrôle, le tout lié ensemble. Le projet SIMA de DeepMind a débloqué cela en combinant un modèle de vision-langage avec une couche prédictive et l'a intégré dans des jeux comme No Man's Sky et Minecraft. En regardant simplement l'écran et en suivant les instructions, l'agent pouvait accomplir des tâches abstraites comme "construire un feu de camp" en enchaînant les bonnes étapes, rassembler du bois, trouver des allumettes et utiliser l'inventaire. Et il n'était pas limité à un seul jeu non plus. Il a transféré cette connaissance entre différents environnements.
Les agents de jeu VLA ne sont pas enfermés dans un seul ensemble de règles. Le même agent peut s'adapter à des mécaniques complètement différentes, juste à partir de la vision et de la base linguistique. Et parce qu'il est construit sur une infrastructure LLM, il peut expliquer ce qu'il fait, suivre des instructions en langage naturel en cours de jeu, ou collaborer avec des joueurs en temps réel.
Nous ne sommes pas loin d'avoir des coéquipiers IA qui s'adaptent à votre style de jeu et à vos personnalisations, tout cela grâce à Codec.

9,6K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables