Деякі приклади ми також обговорювали на сесії з фреймворком IE та викликами, з якими вони стикаються: Наприклад 1: Фінансування охорони природи Процес видачі кредиту Як це працює - Кредити отримані на основі вимірюваних показників - Наприклад: Землевласник наймає стороннього оцінювача для оцінки погоди на деревах, що стоять - оцінювач переводить ці дані в кредити, які можуть бути видані на ринку як функція винагороди Проблеми: 1. Питання оцінки: - крок оцінки часто буває неточним 2. Тертя при кожному кроці - призначення проектів в рамках обсягу пов'язане зі значними труднощами - за межами цифрового домену процеси стають ще повільнішими та громіздкішими Наприклад 2: Наукові публікації Як це працює - Журнали виступають в ролі IE для отримання знань - Кожне місце публікації має оцінку репутації (наприклад: імпакт-фактор) Петля заохочень - Мета для науковців: накопичити репутацію через публікації Проблема/виклик: - Оцінювачі (журнали та конференції) закріпилися вже понад 100 років. - Їх цикл винагород не був оновлений, що створює жорсткість, неефективність і неузгоджені стимули.
Devansh Mehta
Devansh Mehta30 лип. 2025 р.
In today's open session we ran an analysis on the application of impact evaluator or block reward type systems for 2 domains: academic publishing & environment We derived 5 useful features in their design 1. All impact evaluator functions require credible conversion into fungibility Hash power for btc, storage for fil, etc. are clear mathematical functions allowing for issuance against some formula But people only buy into the issuance if they accept its neutrality. For eg, carbon credits are fungible but many coal polluters use some slightly better technology and receive credits so it's not entirely credible 2. If properly obtained, impact evaluator systems become knobs by which we can align long term actors around an ideal outcome we want They should also be metrics that are hard to obtain but easy to verify, similar to btc or storage capacity 3. We want to ideally first solve some problem locally like "is this paper enough to be accepted to the conferences" And make those inputs onto more global problems like "is the conference high impact", "how good is a researcher as measured by their publication in good conferences" 4. We want impact evaluators to be self upgrading systems, otherwise they can ossify into bastions of power A good example is the implementation of plurality in community notes or cluster QF. If 2 people normally disagree but now agree, that has a higher weight. But if they again agree next time it has a lower weight since last time they voted together 5. Finally, we have impact evaluators as hard mathematical functions that release some emissions vs more soft & irrational forces like market prices of that currency, which need to be squared against each other
600