Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Professor Jo 🐙
Dựa trên sự nghiệp của mình trong lĩnh vực tài chính mua lại, anh ấy là một 'nông dân DeFi Chosunsaeng', người đang hướng tới một giấc mơ lớn hơn trong DeFi. @0xundefined_
<Pudgy Penguins Interview>
Pudgy Penguins (@pudgypenguins) đã trở thành một trong những IP được yêu thích nhất trong thế giới crypto—kết nối văn hóa crypto với dòng chính thông qua đồ chơi, meme và kể chuyện.
Dưới sự lãnh đạo của CEO @LucaNetz, dự án hiện đang mở rộng sang ETFs, Layer 2s và cấp phép toàn cầu.
Tối nay lúc 11 giờ tối KST, chúng tôi sẽ có Luca tham gia để nói về Pudgy ETF sắp tới, L2 mới của họ "Abstract," và cách Pudgy biến sự dễ thương thành vốn.
👉

25,22K
<Tại sao ZK thất bại, và Succinct đang cố gắng thay đổi điều gì?>
1. Nhận thức về vấn đề
Người sáng lập Bitcoin, Satoshi Nakamoto, đã bày tỏ sự hoài nghi về Zero-Knowledge Proofs (ZKP).
Ông đã nói, "Để chứng minh rằng một cái gì đó không tồn tại, bạn cần biết toàn bộ giao dịch," kết luận rằng việc áp dụng ZKP vào blockchain là rất khó khăn về mặt cấu trúc.
Tuy nhiên, ông cũng đã đề cập rằng "nếu một giải pháp được tìm thấy, nó sẽ tốt hơn nhiều, dễ dàng hơn và thuận tiện hơn để triển khai Bitcoin." Nói cách khác, trong khi nhận ra những hạn chế kỹ thuật của ZK, ông đã thừa nhận rằng nếu được giải quyết, nó có thể là một bước ngoặt quan trọng trong sự phát triển của blockchain.
Nhiều năm sau, cộng đồng cypherpunk và các nhà nghiên cứu ZK cuối cùng đã tìm ra giải pháp đó. Zcash là trường hợp đầu tiên áp dụng ZKP vào một loại tiền điện tử thực sự, và các dự án tiếp theo như StarkWare, zkSync và Scroll đã phát triển công nghệ này như một phương tiện chính để nâng cao khả năng mở rộng và khả năng xác minh của Ethereum.
Tuy nhiên, vẫn còn một khoảng cách trong thực tế. Việc tạo ra một zkEVM đòi hỏi chuyên môn sâu, thời gian phát triển nhiều năm và phần cứng hiệu suất cao, và hầu hết các dự án cuối cùng phải dựa vào các nhà cung cấp chứng minh cụ thể thay vì tự vận hành cơ sở hạ tầng ZKP của riêng mình. Kết quả là, ZKP vẫn là một công cụ phức tạp mà chỉ một số ít có thể xử lý thay vì là một công nghệ mà bất kỳ ai cũng có thể sử dụng.
2. Succinct là gì?
Succinct (@SuccinctLabs) là một nỗ lực nhằm giải quyết trực tiếp vấn đề này. Sứ mệnh cốt lõi của nó là biến ZKP thành một cơ sở hạ tầng mà tất cả các nhà phát triển có thể dễ dàng sử dụng, cho phép bất kỳ ai tạo ra một 'hệ thống không cần tin cậy' mà không cần các mạch phức tạp hay cơ sở hạ tầng.
Succinct là một cơ sở hạ tầng biến lý tưởng của một hệ thống 'Không cần tin cậy', mà blockchain đã theo đuổi, thành một thực tế có thể thực hiện được. Không cần tin cậy không có nghĩa là 'không đáng tin cậy'; mà nó đề cập đến một cấu trúc hoạt động độc lập mà không dựa vào sự tin tưởng, tức là, một hệ thống có thể xác minh bằng toán học mà không cần bên thứ ba hoặc các cơ quan trung ương.
Tuy nhiên, hệ sinh thái blockchain hiện tại vẫn phụ thuộc nhiều vào sự tin tưởng. Các vụ hack cầu nối, các hoạt động ký đa chữ ký và các ủy quyền xác thực tập trung đều là bằng chứng cho thấy chúng ta vẫn cần tin tưởng vào con người hoặc tổ chức để hệ thống hoạt động.
Nỗ lực để vượt qua những hạn chế dựa trên sự tin tưởng này chính là công nghệ Zero-Knowledge Proof (ZKP). Công nghệ này cho phép một người chứng minh bằng toán học rằng "tính toán này là chính xác" mà không cần tin tưởng vào ai, làm cho nó trở thành cơ sở nền tảng cho các hệ thống phi tập trung. Vấn đề là ZKP quá phức tạp và nặng nề cho việc sử dụng thực tế.
3. Tại sao ZKP cảm thấy khó khăn?
Công nghệ ZKP có rào cản cao như tiềm năng của nó. Đặc biệt, việc tạo ra một zkEVM đòi hỏi một đội ngũ chuyên môn, thời gian phát triển nhiều năm và cơ sở hạ tầng tốn kém. Hầu hết các dự án zk phải thiết kế các mạch riêng của họ, xây dựng các zkVM chuyên dụng và vận hành phần cứng trực tiếp. Chỉ sau khi trải qua tất cả các quy trình này, họ mới có thể tuyên bố là "ZK rollups."
Hơn nữa, các zkVM đa năng hiện có rất không hiệu quả trong việc tạo ra các chứng minh. Thông thường, việc chứng minh một khối đơn lẻ yêu cầu một cụm hàng chục máy tính hiệu suất cao, tốn từ 10 đến 20 đô la cho mỗi khối. Do những gánh nặng kỹ thuật và chi phí vận hành này, nhiều dự án đã hoặc từ bỏ việc giới thiệu ZKP hoàn toàn hoặc chọn dựa vào một số nhà cung cấp chứng minh tập trung.
4. Nỗ lực của Succinct
@SuccinctLabs coi những vấn đề cấu trúc này là 'vấn đề cơ sở hạ tầng.' ZKP đủ mạnh về mặt kỹ thuật, nhưng câu hỏi là ai, làm thế nào và với chi phí nào nó được triển khai. Do đó, Succinct đang tạo ra một mạng lưới chứng minh phi tập trung mà bất kỳ ai cũng có thể dễ dàng truy cập mà không cần các dự án riêng lẻ phải vận hành cơ sở hạ tầng chứng minh trực tiếp.
Các nhà phát triển không cần phải thiết lập các zkVM phức tạp hoặc mua sắm phần cứng. Khi họ gửi yêu cầu chứng minh đến mạng, nhiều nhà cung cấp với phần cứng khác nhau sẽ đấu thầu để xử lý chúng theo cách giống như đấu giá. Chi phí chứng minh tự nhiên giảm thông qua cạnh tranh, và các nhà cung cấp chứng minh hiệu quả tạo ra các chứng minh bằng cách sử dụng thiết bị hiệu suất cao. Kết quả là, các nhà phát triển nhận được các chứng minh nhanh chóng và rẻ, trong khi toàn bộ hệ sinh thái được hưởng lợi từ một cơ sở hạ tầng chứng minh có tính khả dụng cao và khả năng chống kiểm duyệt.
Succinct không chỉ chứng minh các khả năng kỹ thuật; nó đang chứng minh vai trò của mình trong các lĩnh vực nơi nhu cầu thực sự phát sinh. Một ví dụ điển hình là sự xuất hiện của xu hướng 'CLOBs trên Blobs' trong hệ sinh thái @celestia. Các sàn giao dịch phi tập trung sử dụng các phương pháp sổ lệnh giới hạn trung tâm (CLOB) hiệu suất cao đang xuất hiện trên không gian blob của Celestia, dẫn đến nhu cầu cơ sở hạ tầng cho việc xử lý dữ liệu quy mô lớn và các chứng minh trạng thái nhanh chóng.
Các dự án như Hyperliquid và @hibachi_xyz đang triển khai logic giao dịch sổ lệnh phức tạp và khám phá giá trên chuỗi, điều này đòi hỏi khả năng mở rộng và hiệu suất vượt xa các rollup đơn giản. Những gì cần ở đây là lớp khả dụng dữ liệu hiệu suất cao của Celestia và cơ sở hạ tầng chứng minh ZK phi tập trung do Succinct cung cấp.
Trên thực tế, Celestia đã chứng kiến sự gia tăng nhanh chóng trong việc sử dụng không gian blob thực tế, và đứng sau điều này, các cơ sở hạ tầng ZK như Succinct đang âm thầm đóng góp. Nếu Celestia cung cấp 'lưu trữ dữ liệu có thể xác minh,' thì Succinct chịu trách nhiệm tạo ra 'các chuyển tiếp trạng thái có thể xác minh' trên dữ liệu đó. Sự kết hợp này có thể được coi là điểm khởi đầu cho công nghệ ZKP chuyển từ lý thuyết trừu tượng sang một hệ thống hoạt động trong thực tế.
5. Một zkEVM mà bất kỳ ai cũng có thể xử lý, SP1 và SP1 Reth
Bằng cách giải quyết khả năng tiếp cận của cơ sở hạ tầng, Succinct cũng nhằm mục đích giảm rào cản gia nhập của zkVM bằng cách phát triển một zkVM mã nguồn mở gọi là SP1 (Succinct Processor 1). SP1 là một zkVM đa năng được triển khai bằng Rust, được thiết kế để bất kỳ ai cũng có thể sử dụng trực tiếp mà không cần thiết kế mạch phức tạp như các zkEVM hiện có.
Một ví dụ sớm chứng minh tiềm năng của SP1 là SP1 Reth. SP1 Reth là một loại zkEVM loại 1 được triển khai chỉ với khoảng 2.000 dòng mã Rust, dễ dàng cấu hình bằng cách tái sử dụng các thành phần từ hệ sinh thái khách hàng Ethereum hiện có (Reth, Revm, Alloy, v.v.). Thậm chí còn đáng kinh ngạc hơn là hiệu suất của nó. Chi phí chứng minh trung bình cho mỗi giao dịch Ethereum của SP1 Reth chỉ khoảng 0,01 đến 0,02 đô la, thấp hơn so với chi phí khả dụng dữ liệu thường gặp trong L2.
Lý do cho hiệu suất này là do hệ thống 'precompile' mà SP1 sở hữu. Nó xử lý các phép toán tính toán nặng như hàm băm và xác minh chữ ký trong một cấu trúc được tối ưu hóa trước, giảm đáng kể tài nguyên tiêu thụ bởi zkVM. Cho đến nay, việc triển khai zkEVM với một zkVM tốn từ 10 đến 20 đô la cho mỗi khối, nhưng SP1 Reth đã thành công trong việc giảm điều này xuống các con số đơn.
Cả SP1 và SP1 Reth đều hoàn toàn mã nguồn mở và có sẵn cho bất kỳ ai để fork và tạo ra zkEVM của riêng họ hoặc thêm các precompile để cải thiện hiệu suất. Điều này đại diện cho một cuộc cách mạng hoàn toàn trong môi trường phát triển zk có chi phí cao và khó khăn, mở ra một kỷ nguyên mà bất kỳ nhà phát triển Rust nào cũng có thể tham gia vào các hệ thống zk.
6. Cuối cùng, ZK hiện đã có sẵn cho mọi người
Succinct đang lấp đầy những mảnh ghép cuối cùng của tiềm năng, khả năng tiếp cận và tính thực tiễn của công nghệ ZKP. Không cần các mạch phức tạp hay phần cứng chuyên dụng, bất kỳ ai cũng có thể tạo ra các ứng dụng sử dụng ZKP, và các chứng minh được xử lý bởi một mạng lưới phi tập trung.
Chúng ta đang bước vào một kỷ nguyên mà tất cả các rollup có thể trở thành ZK rollup, và internet hoạt động chỉ dựa trên sự thật. Tại điểm khởi đầu của điều này là Succinct và SP1. Bây giờ, ZKP là một công nghệ dành cho mọi người, không chỉ cho một số ít.




8,25K
<이제 모델이 아니라, 데이터가 경쟁력이야>
AI 산업의 핵심은 더 이상 컴퓨팅도, 모델도 아닌 '양질의 데이터'야. 과거 인류 문명이 석유를 통해 한 단계 고도화됐듯, AI도 더 나아가기 위해선 새로운 ‘연료’가 필요해. 2차 세계대전 전후에 석유가 에너지원이자 소재로 쓰이면서 공업화가 빠르게 진전된 것처럼 말이야. 이제는 누가, 어떻게 데이터를 확보하고 가공하느냐가 AI 시대의 주도권을 결정하게 될 거야.
일론 머스크도 올해 이런 얘길 했어. “우리는 인공지능 학습에서 인간 지식의 누적 합을 모두 소진했다.” GPT 같은 모델들이 웹사이트, 책, 코드, 이미지 같은 공개 데이터를 긁어모으면서 빠르게 성장해온 건 사실이야. 하지만 이제는 저작권이 걸려 있거나, 아예 존재하지 않는 새로운 형태의 데이터가 필요해졌어.
예를 들어 자율주행차, 로봇공학 같은 분야에서는 단순한 텍스트를 넘어, 카메라·레이더·라이다 등이 결합된 멀티센서 기반의 복합 데이터, 그리고 실제 환경에서 수집된 사례 데이터가 필요한데, 이런 데이터는 웹에 존재하지 않습니다.
더 큰 문제는 기술보다 ‘어떻게 잘 조합할 것이냐’야. 수천 명이 흩어진 채 데이터를 수집하고 라벨링하고 업데이트해야 하는데, 지금까지의 중앙집중형 방식으로는 이 다양성과 스케일을 감당하기 어려워. 그래서 요즘 AI 업계는 점점 분산형 방식이 해답이라는 데 의견이 모이고 있어.
바로 이 지점에서 등장하는 게 '포세이돈(@psdnai)'이야. 포세이돈은 그냥 데이터 창고가 아니라, 현실 데이터를 공급받아 검증하고 정제해서 저작권 걱정 없이 쓸 수 있는 학습용 데이터셋으로 만들어주는 인프라야.
비유하자면 포세이돈은 '석유 정제소'야. 날것의 데이터를 받아서, AI가 학습에 바로 쓸 수 있는 연료로 정제해주는 역할을 해. 이 모든 과정은 @StoryProtocol 위에서 돌아가. 누가 데이터를 제공했고, 어떤 조건으로 누가 썼는지를 온체인에 투명하게 기록하지. 데이터를 제공한 사람은 정당한 보상을 받고, AI 개발자는 안심하고 쓸 수 있는 구조야.
GPU나 모델이 아니라, 데이터 레이어에서의 혁신을 이뤄낼 포세이돈은 웹3 기술을 웹2 산업에 가장 잘 적용한 사례가 될 수도 있다고 생각해.


Chris Dixon23 thg 7, 2025
Rất vui mừng thông báo rằng chúng tôi đang dẫn dắt một vòng gọi vốn hạt giống trị giá 15 triệu đô la cho Poseidon, được ươm tạo bởi @StoryProtocol và đang xây dựng một lớp dữ liệu phi tập trung để phối hợp cung và cầu cho dữ liệu đào tạo AI.
Thế hệ đầu tiên của các mô hình nền tảng AI đã được đào tạo trên dữ liệu dường như là một nguồn tài nguyên vô hạn. Ngày nay, những nguồn tài nguyên dễ tiếp cận nhất như sách và trang web đã hầu như bị khai thác hết, và dữ liệu đã trở thành yếu tố hạn chế trong sự tiến bộ của AI.
Nhiều dữ liệu còn lại hiện nay hoặc có chất lượng thấp hơn hoặc bị hạn chế do bảo vệ quyền sở hữu trí tuệ. Đối với một số ứng dụng AI hứa hẹn nhất — trong lĩnh vực robot, xe tự hành và trí thông minh không gian — dữ liệu thậm chí còn chưa tồn tại. Giờ đây, những hệ thống này cần những loại thông tin hoàn toàn mới: đa giác quan, phong phú trong các trường hợp biên, được thu thập trong môi trường tự nhiên. Tất cả dữ liệu từ thế giới vật lý này sẽ đến từ đâu?
Thách thức không chỉ là kỹ thuật — đó là một vấn đề phối hợp. Hàng ngàn người đóng góp phải làm việc cùng nhau theo cách phân tán để tìm nguồn, gán nhãn và duy trì dữ liệu vật lý mà AI thế hệ tiếp theo cần. Chúng tôi tin rằng không có cách tiếp cận tập trung nào có thể phối hợp hiệu quả việc tạo ra và quản lý dữ liệu cần thiết ở mức độ quy mô và đa dạng yêu cầu. Một cách tiếp cận phi tập trung có thể giải quyết điều này.
@psdnai cho phép các nhà cung cấp thu thập dữ liệu mà các công ty AI cần, đồng thời đảm bảo an toàn quyền sở hữu trí tuệ thông qua giấy phép IP lập trình của Story. Điều này nhằm thiết lập một nền tảng kinh tế mới cho internet, nơi các nhà sáng tạo dữ liệu được đền bù công bằng cho việc giúp các công ty AI phát triển thế hệ hệ thống thông minh tiếp theo.
Đội ngũ của Poseidon, do Giám đốc Khoa học và Đồng sáng lập @SPChinchali dẫn dắt, mang đến chuyên môn sâu về cơ sở hạ tầng AI. Sandeep là giáo sư tại UT Austin chuyên về AI, robot và hệ thống phân tán, với bằng tiến sĩ từ Stanford về AI và hệ thống phân tán. Giám đốc Sản phẩm và Đồng sáng lập @sarickshah đã dành một thập kỷ làm kỹ sư học máy, mở rộng các sản phẩm AI cho các doanh nghiệp lớn trong lĩnh vực dịch vụ tài chính, viễn thông và chăm sóc sức khỏe.
Chúng tôi rất vui mừng được hỗ trợ Poseidon trong công việc giải quyết một trong những nút thắt quan trọng nhất trong sự phát triển của AI.

2,62K
<Tại sao Sonic đến Hàn Quốc?>
Đầu năm nay, @SonicLabs đã khiến trái tim của DeFi Diegen hồi hộp. Bên cạnh chuỗi được tổ chức lại nhanh chóng, các sản phẩm DeFi hoài cổ đã xuất hiện lần đầu tiên sau một thời gian dài. Vào thời điểm đó, người ta nói rằng khoảng 200 triệu $S token sẽ được phân phối trên cơ sở điểm, chiếm khoảng 6% tổng nguồn cung lưu hành, vì vậy đã có một sự cường điệu lớn.
Tuy nhiên, khi sự quan tâm toàn cầu đối với các chuỗi chuyên ngành DeFi đã suy giảm, Sonic phải biết rằng không có nhiều người dùng ở nước ngoài chấp nhận khối lượng này.
Cuối cùng, tôi nghĩ rằng chúng tôi đã lên kế hoạch cho sự kiện này dựa trên phán đoán rằng thị trường duy nhất có thể mong đợi phản hồi là 'Hàn Quốc'. Tuy nhiên, bây giờ các nhà đầu tư Hàn Quốc cũng được giáo dục, họ sẽ sớm nhận ra rằng nó không còn dễ dàng như trước đây. Điều này là do hầu hết những người tập trung tại sự kiện là nông dân airdrop, và những người tham gia Yaping là 'nợ' theo quan điểm của dự án.
Rốt cuộc, nếu bạn không đặt cược vào các sản phẩm thực với tinh thần DeFi như trước đây, tôi nghĩ rất khó để thu hút sự chú ý trở lại. Cá nhân tôi, thật buồn khi thấy Sonic yêu thích cũ của tôi bị đẩy ra khỏi ánh đèn sân khấu như Vera.

seg.sonic17 thg 7, 2025
Airdrop IRL @SonicLabs Hàn Quốc 🔥🔥
1,34K
<Câu chuyện, đạt được động lực mới>
Một nhân vật mới đã tham gia @StoryProtocol đang định hình lại ngành công nghiệp nội dung thông qua mã hóa IP.
Đó là Sandeep Chincharly, một giáo sư tại UT Austin và là một chuyên gia về AI, robot và các hệ thống phân tán.
Sandeep Chin Charlie là cựu nhà nghiên cứu của NASA, người đã nghiên cứu AI tổng quát và robot đám mây tại Stanford và hiện là giáo sư tại UT Austin, nơi ông liên quan đến lái xe tự động và các mô hình máy học phân tán.
Trong quá trình nghiên cứu của mình, ông đã lắp đặt một camera hành trình trực tiếp trên xe để thu thập dữ liệu thực tế và phân tích những cảnh hiếm được gọi là 'đuôi dài'. Chúng tôi đã gắn nhãn dữ liệu này, đào tạo các mô hình AI nhẹ trực tiếp trên phần cứng TPU để học sâu và đánh giá cao tầm quan trọng của chất lượng và sự khan hiếm dữ liệu.
Sau đó, anh ấy nói rằng anh ấy tự hỏi mình một câu hỏi.
"Để AI hoạt động tốt trong thực tế, nó cần dữ liệu chất lượng cao, không chỉ mô hình. Và để tự nguyện thu thập dữ liệu đó, cần có một cấu trúc khuyến khích hiệu quả."
Và tôi đã tìm thấy câu trả lời trong Câu chuyện.
@StoryProtocol định nghĩa dữ liệu là IP, không chỉ là tài nguyên và đang xây dựng một hệ thống phần thưởng trên chuỗi.
Thu thập dữ liệu hiếm→ dán nhãn→ tổng hợp → Đăng ký trên chuỗi → phân phối tiền bản quyền
Theo dõi mọi thứ trên chuỗi một cách minh bạch. Giáo sư Sandeep giải thích nó như sau:
"Tôi đăng ký một cảnh lái xe hiếm hoi mà tôi chụp bằng camera hành trình trên Story, và bạn tôi dán nhãn cho nó. Khi AI tạo ra dữ liệu tổng hợp dựa trên nó, một IP được liên kết sẽ được tạo ra trong quá trình thực hiện và tiền bản quyền được tự động phân phối cho tất cả những người đóng góp."
Với tư cách là Giám đốc AI tại Story, Giáo sư Sandeep Chinchaly sẽ lãnh đạo chiến lược AI tổng thể, cơ sở hạ tầng dữ liệu học tập trên chuỗi và thiết kế hệ thống phần thưởng dữ liệu phi tập trung. Và anh ấy xác định giá trị của dữ liệu như thế này.
"Dữ liệu là IP mới."

Story17 thg 7, 2025
Giới thiệu Giám đốc AI mới của Story, @SPChinchali.
Sandeep là một giáo sư tại UT Austin, tập trung vào GenAI, robot và hệ thống phân tán. Ông là một nhà nghiên cứu cũ của NASA, kỹ sư đầu tiên của một startup được VMware mua lại, và có bằng tiến sĩ về AI và hệ thống phân tán từ Stanford.
Với vai trò Giám đốc AI, Sandeep sẽ dẫn dắt chiến lược AI của Story, thúc đẩy các ươm tạo chính và tư vấn cho hệ sinh thái rộng lớn hơn về cách nắm bắt cơ hội AI to lớn phía trước.
Công việc của Sandeep từ lâu đã tập trung vào cách mà robot, cảm biến và các mô hình ML có thể học hỏi từ thế giới vật lý hỗn độn. Bây giờ ông đang mang chuyên môn của mình đến web3 và Story.
Bởi vì bước nhảy vọt tiếp theo của AI không phải là nhiều GPU hơn. Nó là về việc mở khóa danh mục IP quý giá nhất (và chưa được phục vụ) : dữ liệu thế giới thực.
Việc bổ nhiệm Sandeep là một bước quan trọng hướng tới việc đạt được tầm nhìn Chương 2 của Story. Tuần tới, tầm nhìn này sẽ trở thành hiện thực một cách lớn lao.
Hãy theo dõi.

9,39K
<Phỏng vấn RedStone>
RedStone là một dự án oracle blockchain mô-đun cung cấp các nguồn dữ liệu an toàn, nhanh chóng và tiết kiệm chi phí cho hơn 1.250 tài sản trên hơn 70 chuỗi.
Kiến trúc của nó tách biệt việc thu thập dữ liệu ngoài chuỗi với việc cung cấp trên chuỗi, hỗ trợ cả cơ chế kéo và đẩy. Thiết kế này mang lại cho các nhà phát triển sự linh hoạt để tối ưu hóa giữa chi phí gas và hiệu suất thời gian thực.
Tối nay lúc 10 giờ tối KST, chúng tôi sẽ có mặt cùng với người sáng lập RedStone để nghe về tầm nhìn và chiến lược của họ cho thị trường stablecoin và RWA đang phát triển nhanh chóng.
👉

5,47K
<Nội dung do AI tạo ra có thật không?>
Verify của @Mira_Network là cơ sở hạ tầng trả lời câu hỏi này. Thay vì một mô hình, chúng tôi đánh giá từng tuyên bố thông qua ba mô hình xác minh chuyên biệt và phân loại chúng là 'đúng', 'sai' hoặc 'không có sự đồng thuận' dựa trên kết quả.
Nếu tất cả các mô hình đưa ra cùng một quyết định, đó được coi là một kết quả đáng tin cậy và nếu họ đưa ra những đánh giá khác nhau, nó sẽ tạo ra các tín hiệu đáng ngờ. Nó không chỉ là tìm ra câu trả lời đúng, mà còn cung cấp bản thân 'sự không chắc chắn' dưới dạng dữ liệu.
Verify không chỉ là một bản demo, nó là một 'cơ sở hạ tầng tin cậy'. Đây là một phần phụ trợ được hỗ trợ bởi API cho phép doanh nghiệp phát hiện tính xác thực của nội dung AI, tự động lọc ra thông tin sai lệch và kết nối nó với vị trí có thể xem xét được khi cần thiết.

Mira (3/3)16 thg 7, 2025
Internet đang gặp vấn đề về sự thật.
Vì vậy, chúng tôi đã xây dựng Mira Verify, sử dụng sự đồng thuận đa mô hình để xác định những ảo giác và thông tin sai lệch.
Mira là chữ ký đa của sự thật.
2,48K
<Bạn cảm thấy gì khi xem Sharplink Gaming>
Tôi cảm thấy rằng Consensys đã dẫn đầu và 'chiến lược tài chính Ethereum' đã trở thành một xu hướng lớn. Sharplink Gaming đang tăng Ethereum đều đặn bằng cách huy động khoảng 500 tỷ won thông qua PIPE và sự khác biệt so với chiến lược tài chính của Bitcoin là Ethereum có thể kiếm lợi nhuận thông qua quản lý tài sản ngoài việc nắm giữ đơn giản.
Điều tôi tò mò ở đây là làm thế nào để quản lý Ethereum tích lũy theo cách này. Nếu bạn nhìn vào @SharpLinkGaming dụ, bạn có thể thấy rằng tài sản được quản lý dựa trên LST hoặc LRT thông qua Figment.
Figment là một trong những trình xác thực hàng đầu trên Ethereum và nó vận hành một kho tiền chuyên dụng cho các nhà đầu tư tổ chức đồng thời mang lại lợi nhuận đặt cược ổn định. Và các dự án như @Obol_Collective đang giúp các nhà khai thác lớn như Figment làm cho việc xác nhận trở nên đáng tin cậy và hiệu quả hơn.
Khi ngày càng có nhiều tổ chức áp dụng chiến lược Ethereum, tôi tin rằng cung và cầu của Ethereum chắc chắn sẽ được hướng đến các trình xác thực chỉ dành cho các tổ chức này. Đặc biệt, quản lý rủi ro là chìa khóa đối với các tổ chức, vì vậy họ vận hành các nút rất thận trọng để giảm thiểu rủi ro như thời gian ngừng hoạt động và cắt giảm.
Ví dụ: nếu một thảm họa tự nhiên xảy ra trong khi chạy một nút với một khóa xác thực duy nhất, không chỉ phần thưởng bạn sẽ nhận được trong tương lai mà cả tiền gốc đặt cược cũng có thể bị mất. Để giảm rủi ro này, nhu cầu về DVT (Công nghệ xác thực phân tán) (DVT), phân phối các khóa xác thực trên nhiều nút, sẽ tiếp tục tăng lên.
Sự khác biệt quyết định về cơ sở hạ tầng giữa Ethereum và Solana là cấu trúc điện toán phi tập trung của nó. Ngay cả khi thế giới bị phá hủy, nó được thiết kế để tránh một điểm thất bại duy nhất thông qua ít nhất 5 ~ 6 máy khách. Để các tổ chức nắm bắt đúng câu chuyện Ethereum này, họ cần lập chiến lược ở lớp xác thực để giảm thiểu các điểm thất bại đơn lẻ và có những dự án như @Obol_Collective ở trung tâm của nó.
Cuối cùng, tôi nghĩ rằng càng nhiều công ty chọn chiến lược tài chính của Ethereum, nhu cầu về các dự án giúp họ thực hiện xác thực tốt hơn hoặc giúp quản lý tài sản dễ dàng hơn sẽ tăng lên một cách tự nhiên.


Lido6 thg 7, 2025
DVV Mức Cao Nhất Mọi Thời Đại + Tăng Giới Hạn
Kho Vault Validator Phi Tập Trung đã đạt mức cao nhất mọi thời đại là 14,344 wstETH (~44 triệu USD).
Thêm vào đó, giới hạn gửi đã được nâng lên 20,000 wstETH, thúc đẩy việc áp dụng DVT thông qua Lido, Obol & SSV.
Giới hạn cao hơn. Nhiều sự phi tập trung hơn.

7,65K
Hàng đầu
Thứ hạng
Yêu thích
Onchain thịnh hành
Thịnh hành trên X
Ví funding hàng đầu gần đây
Được chú ý nhất