Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Enkele voorbeelden die we ook in de sessie met het IE-framework en de uitdagingen die ze hebben hebben besproken:
Bijv. 1: Conservatiefinanciering
Kredietuitgifteproces
Hoe het werkt
- Kredieten zijn afgeleid van meetbare metrics
- bijv.: een grondeigenaar huurt een externe evaluator in om te beoordelen of de bomen blijven staan
- de evaluator vertaalt deze gegevens in kredieten die op de markt kunnen worden uitgegeven als een beloningsfunctie
Uitdagingen:
1. Schattingsproblemen:
- de schattingsstap is vaak onnauwkeurig
2. Wrijving bij elke stap
- het toewijzen van projecten binnen de scope met zich mee brengt aanzienlijke wrijving
- buiten het digitale domein worden processen nog langzamer en omslachtiger
Bijv. 2: Wetenschappelijke publicaties
Hoe het werkt
- Tijdschriften fungeren als IE's voor kennis
- Elke publicatieplaats heeft een reputatiescore (bijv.: impactfactor)
Incentive-loop
- Doel voor wetenschappers: reputatie opbouwen door publicaties
Probleem/Uitdaging:
- De evaluatoren (tijdschriften en conferenties) zijn al meer dan 100 jaar verankerd.
- Hun beloningsloop is niet bijgewerkt, wat zorgt voor rigiditeit, inefficiëntie en niet-uitgelijnde prikkels.

30 jul 2025
In today's open session we ran an analysis on the application of impact evaluator or block reward type systems for 2 domains: academic publishing & environment
We derived 5 useful features in their design
1. All impact evaluator functions require credible conversion into fungibility
Hash power for btc, storage for fil, etc. are clear mathematical functions allowing for issuance against some formula
But people only buy into the issuance if they accept its neutrality. For eg, carbon credits are fungible but many coal polluters use some slightly better technology and receive credits so it's not entirely credible
2. If properly obtained, impact evaluator systems become knobs by which we can align long term actors around an ideal outcome we want
They should also be metrics that are hard to obtain but easy to verify, similar to btc or storage capacity
3. We want to ideally first solve some problem locally like "is this paper enough to be accepted to the conferences"
And make those inputs onto more global problems like "is the conference high impact", "how good is a researcher as measured by their publication in good conferences"
4. We want impact evaluators to be self upgrading systems, otherwise they can ossify into bastions of power
A good example is the implementation of plurality in community notes or cluster QF. If 2 people normally disagree but now agree, that has a higher weight. But if they again agree next time it has a lower weight since last time they voted together
5. Finally, we have impact evaluators as hard mathematical functions that release some emissions vs more soft & irrational forces like market prices of that currency, which need to be squared against each other
589
Boven
Positie
Favorieten