Báo cáo nghiên cứu sâu OpenLedger: Xây dựng một nền kinh tế trí tuệ nhân tạo dựa trên dữ liệu và có thể kết hợp mô hình với nền tảng OP Stack+EigenDA
Một, Giới thiệu | Sự chuyển mình của tầng mô hình Crypto AI
Dữ liệu, mô hình và sức mạnh tính toán là ba yếu tố cốt lõi của hạ tầng AI, tương tự như nhiên liệu (dữ liệu), động cơ (mô hình), năng lượng (sức mạnh tính toán) không thể thiếu. Giống như con đường tiến hóa hạ tầng của ngành AI truyền thống, lĩnh vực Crypto AI cũng đã trải qua các giai đoạn tương tự. Đầu năm 2024, thị trường từng bị chi phối bởi các dự án GPU phi tập trung ( một số nền tảng sức mạnh tính toán phi tập trung khác ), nhấn mạnh logic tăng trưởng thô sơ của "cạnh tranh sức mạnh tính toán". Tuy nhiên, bước vào năm 2025, sự chú ý của ngành dần dần chuyển lên các lớp mô hình và dữ liệu, đánh dấu sự chuyển mình của Crypto AI từ cạnh tranh tài nguyên cơ sở hạ tầng sang xây dựng trung tầng có tính bền vững và giá trị ứng dụng hơn.
Mô hình lớn chung (LLM) vs Mô hình chuyên biệt (SLM)
Các mô hình ngôn ngữ lớn (LLM) truyền thống thường phụ thuộc vào tập dữ liệu quy mô lớn và kiến trúc phân tán phức tạp, quy mô tham số thường từ 70B đến 500B, chi phí để đào tạo một lần thường lên đến hàng triệu đô la. Trong khi đó, SLM (Mô hình Ngôn ngữ Chuyên biệt) là một kiểu điều chỉnh nhẹ của mô hình cơ sở có thể tái sử dụng, thường dựa trên các mô hình mã nguồn mở như LLaMA, Mistral, DeepSeek, kết hợp với một lượng nhỏ dữ liệu chuyên nghiệp chất lượng cao và các công nghệ như LoRA, để nhanh chóng xây dựng các mô hình chuyên gia có kiến thức trong lĩnh vực cụ thể, giảm đáng kể chi phí đào tạo và rào cản công nghệ.
Đáng chú ý rằng, SLM sẽ không được tích hợp vào trọng số LLM, mà sẽ được gọi thông qua kiến trúc Agent, hệ thống plugin định tuyến động, khả năng cắm nóng của mô-đun LoRA, RAG (tạo ra được cải thiện bằng việc truy vấn) và các phương thức khác để hợp tác với LLM. Kiến trúc này vừa giữ lại khả năng bao quát rộng lớn của LLM, vừa tăng cường hiệu suất chuyên môn thông qua các mô-đun tinh chỉnh, tạo thành một hệ thống thông minh linh hoạt với sự kết hợp cao.
Giá trị và ranh giới của Crypto AI ở cấp độ mô hình
Dự án Crypto AI về cơ bản khó có thể cải thiện trực tiếp khả năng cốt lõi của mô hình ngôn ngữ lớn (LLM), lý do cốt lõi là
Rào cản kỹ thuật quá cao: Quy mô dữ liệu, nguồn lực tính toán và khả năng kỹ thuật cần thiết để đào tạo Mô hình Cơ sở là rất lớn, hiện chỉ có các gã khổng lồ công nghệ như Mỹ (OpenAI, v.v.) và Trung Quốc (DeepSeek, v.v.) có khả năng tương ứng.
Hạn chế của hệ sinh thái mã nguồn mở: Mặc dù các mô hình cơ bản chính như LLaMA, Mixtral đã được mã nguồn mở, nhưng chìa khóa để thúc đẩy sự đột phá của mô hình vẫn tập trung vào các tổ chức nghiên cứu và hệ thống kỹ thuật đóng, không gian tham gia của các dự án trên chuỗi ở cấp mô hình cốt lõi là hạn chế.
Tuy nhiên, trên nền tảng mô hình cơ sở mã nguồn mở, dự án Crypto AI vẫn có thể mở rộng giá trị thông qua việc tinh chỉnh các mô hình ngôn ngữ chuyên biệt (SLM), và kết hợp với tính khả thi và cơ chế khuyến khích của Web3. Là "tầng giao diện bên ngoài" của chuỗi ngành AI, thể hiện ở hai hướng cốt lõi:
Tầng xác thực đáng tin cậy: Thông qua việc ghi lại trên chuỗi đường đi của mô hình, đóng góp dữ liệu và tình trạng sử dụng, tăng cường khả năng truy xuất nguồn gốc và khả năng chống giả mạo của đầu ra AI.
Cơ chế khuyến khích: Sử dụng Token gốc để khuyến khích hành động như tải dữ liệu lên, gọi mô hình, thực hiện tác vụ của tác nhân (Agent), xây dựng vòng lặp tích cực trong đào tạo và cung cấp mô hình.
Phân loại loại mô hình AI và phân tích tính ứng dụng của blockchain
Từ đó có thể thấy, điểm khả thi của các dự án Crypto AI loại mô hình chủ yếu tập trung vào việc tinh chỉnh nhẹ cho SLM nhỏ, kết nối và xác thực dữ liệu chuỗi với kiến trúc RAG, cũng như triển khai và khuyến khích mô hình Edge tại chỗ. Kết hợp tính khả chứng của blockchain và cơ chế token, Crypto có thể cung cấp giá trị đặc thù cho những mô hình tài nguyên trung bình và thấp, tạo ra giá trị khác biệt cho "tầng giao diện" AI.
Chuỗi AI dựa trên dữ liệu và mô hình blockchain, có thể ghi lại một cách rõ ràng và không thể thay đổi nguồn gốc đóng góp của từng dữ liệu và mô hình lên chuỗi, nâng cao đáng kể độ tin cậy của dữ liệu và khả năng truy xuất của việc huấn luyện mô hình. Đồng thời, thông qua cơ chế hợp đồng thông minh, khi dữ liệu hoặc mô hình được gọi, sẽ tự động kích hoạt việc phân phối phần thưởng, biến hành vi AI thành giá trị mã hóa có thể đo lường và giao dịch, xây dựng một hệ thống khuyến khích bền vững. Ngoài ra, người dùng trong cộng đồng còn có thể thông qua việc bỏ phiếu bằng token để đánh giá hiệu suất của mô hình, tham gia vào việc xây dựng và lặp lại quy tắc, hoàn thiện cấu trúc quản trị phi tập trung.
Hai, Tổng quan dự án | Tầm nhìn chuỗi AI của OpenLedger
OpenLedger là một trong số ít các dự án blockchain AI hiện nay tập trung vào cơ chế khuyến khích dữ liệu và mô hình. Nó tiên phong đưa ra khái niệm "Payable AI", nhằm xây dựng một môi trường vận hành AI công bằng, minh bạch và có thể kết hợp, khuyến khích người đóng góp dữ liệu, nhà phát triển mô hình và người xây dựng ứng dụng AI hợp tác trên cùng một nền tảng, và nhận được lợi nhuận trên chuỗi dựa trên đóng góp thực tế.
OpenLedger cung cấp chuỗi khép kín từ "cung cấp dữ liệu" đến "triển khai mô hình" rồi đến "gọi phân chia lợi nhuận", các mô-đun cốt lõi của nó bao gồm:
Nhà máy mô hình: Không cần lập trình, có thể sử dụng LoRA để tinh chỉnh và triển khai mô hình tùy chỉnh dựa trên LLM mã nguồn mở;
OpenLoRA: Hỗ trợ hàng ngàn mô hình đồng tồn tại, tải động theo nhu cầu, giảm đáng kể chi phí triển khai;
PoA (Chứng minh nguồn gốc): Đo lường đóng góp và phân phối phần thưởng thông qua ghi chép gọi trên chuỗi.
Datanets:Mạng dữ liệu có cấu trúc hướng đến các kịch bản dọc, được xây dựng và xác minh bởi sự hợp tác của cộng đồng;
Nền tảng đề xuất mô hình (Model Proposal Platform): Thị trường mô hình trên chuỗi có thể kết hợp, có thể gọi và có thể thanh toán.
Thông qua các mô-đun trên, OpenLedger đã xây dựng một "hạ tầng kinh tế thông minh" dựa trên dữ liệu, có thể kết hợp mô hình, thúc đẩy quá trình chuỗi giá trị AI lên blockchain.
Và trong việc áp dụng công nghệ blockchain, OpenLedger sử dụng OP Stack + EigenDA làm nền tảng, xây dựng một môi trường chạy dữ liệu và hợp đồng hiệu suất cao, chi phí thấp, có thể xác minh cho các mô hình AI.
Xây dựng trên OP Stack: Dựa trên công nghệ Optimism, hỗ trợ thông lượng cao và chi phí thấp để thực hiện;
Thanh toán trên mạng chính Ethereum: Đảm bảo an toàn giao dịch và toàn vẹn tài sản;
Tương thích EVM: Giúp các nhà phát triển nhanh chóng triển khai và mở rộng dựa trên Solidity;
EigenDA cung cấp hỗ trợ khả năng sử dụng dữ liệu: giảm đáng kể chi phí lưu trữ, đảm bảo tính xác minh của dữ liệu.
So với các chuỗi AI tổng hợp như NEAR, chú trọng vào quyền dữ liệu và kiến trúc «AI Agents trên BOS», OpenLedger tập trung hơn vào việc xây dựng chuỗi AI chuyên dụng hướng tới dữ liệu và động lực mô hình, nhằm đảm bảo rằng việc phát triển và gọi mô hình có thể đạt được vòng giá trị có thể truy xuất, có thể kết hợp và bền vững trên chuỗi. Nó là cơ sở hạ tầng động lực mô hình trong thế giới Web3, kết hợp một số nền tảng lưu trữ mô hình kiểu nền tảng lưu trữ mô hình, một số nền tảng thanh toán kiểu tính phí sử dụng và một số nền tảng dịch vụ cơ sở hạ tầng blockchain kiểu giao diện có thể kết hợp trên chuỗi, thúc đẩy con đường thực hiện «mô hình là tài sản».
Ba, Các thành phần cốt lõi và kiến trúc công nghệ của OpenLedger
3.1 Nhà máy mô hình, không cần mã mô hình
ModelFactory là một nền tảng tinh chỉnh mô hình ngôn ngữ lớn (LLM) trong hệ sinh thái OpenLedger. Khác với các khung tinh chỉnh truyền thống, ModelFactory cung cấp giao diện đồ họa hoàn toàn, không cần công cụ dòng lệnh hoặc tích hợp API. Người dùng có thể tinh chỉnh mô hình dựa trên tập dữ liệu đã được cấp phép và kiểm tra trên OpenLedger. Điều này đạt được quy trình làm việc tích hợp cho việc cấp phép dữ liệu, đào tạo mô hình và triển khai, trong đó quy trình cốt lõi bao gồm:
Kiểm soát truy cập dữ liệu: Người dùng gửi yêu cầu dữ liệu, nhà cung cấp phê duyệt, dữ liệu tự động kết nối với giao diện đào tạo mô hình.
Lựa chọn và cấu hình mô hình: Hỗ trợ các LLM phổ biến (như LLaMA, Mistral), cấu hình siêu tham số thông qua GUI.
Tinh chỉnh nhẹ: Động cơ LoRA / QLoRA tích hợp, hiển thị tiến trình đào tạo theo thời gian thực.
Đánh giá và triển khai mô hình: Công cụ đánh giá tích hợp, hỗ trợ xuất triển khai hoặc chia sẻ gọi sinh thái.
Giao diện xác thực tương tác: Cung cấp giao diện trò chuyện, thuận tiện cho việc kiểm tra trực tiếp khả năng hỏi đáp của mô hình.
RAG tạo truy xuất: Trả lời có nguồn trích dẫn, tăng cường độ tin cậy và khả năng kiểm toán.
Kiến trúc hệ thống Model Factory bao gồm sáu mô-đun, bao trùm xác thực danh tính, quyền dữ liệu, tinh chỉnh mô hình, triển khai đánh giá và truy xuất RAG, tạo ra một nền tảng dịch vụ mô hình tích hợp an toàn, có kiểm soát, tương tác thời gian thực và có thể biến đổi bền vững.
Bảng tóm tắt khả năng của các mô hình ngôn ngữ lớn mà ModelFactory hiện hỗ trợ như sau:
Dòng LLaMA: Hệ sinh thái rộng nhất, cộng đồng hoạt động tích cực, hiệu năng tổng quát mạnh mẽ, là một trong những mô hình cơ sở mã nguồn mở phổ biến nhất hiện nay.
Mistral: Kiến trúc hiệu quả, hiệu suất suy luận xuất sắc, phù hợp với những tình huống triển khai linh hoạt và nguồn lực hạn chế.
Qwen:Sản phẩm của Alibaba, thể hiện xuất sắc trong nhiệm vụ tiếng Trung, có khả năng tổng hợp mạnh mẽ, phù hợp là lựa chọn hàng đầu cho các nhà phát triển trong nước.
ChatGLM: Hiệu quả đối thoại bằng tiếng Trung nổi bật, phù hợp với dịch vụ khách hàng theo lĩnh vực và các tình huống địa phương.
Deepseek:Hiệu suất vượt trội trong việc tạo mã và suy diễn toán học, thích hợp cho công cụ hỗ trợ phát triển thông minh.
Gemma: Mô hình nhẹ do Google phát triển, cấu trúc rõ ràng, dễ dàng bắt đầu và thử nghiệm nhanh chóng.
Falcon:Từng là tiêu chuẩn hiệu suất, phù hợp cho nghiên cứu cơ bản hoặc thử nghiệm so sánh, nhưng độ hoạt động của cộng đồng đã giảm.
BLOOM: Hỗ trợ đa ngôn ngữ mạnh, nhưng hiệu suất suy diễn yếu, phù hợp cho nghiên cứu bao phủ ngôn ngữ.
GPT-2:Mô hình cổ điển đầu tiên, chỉ phù hợp cho mục đích giảng dạy và xác minh, không được khuyến nghị sử dụng thực tế.
Mặc dù mô hình kết hợp của OpenLedger không bao gồm mô hình MoE hiệu suất cao mới nhất hoặc mô hình đa phương thức, nhưng chiến lược của nó không lỗi thời, mà là cấu hình "ưu tiên thực dụng" dựa trên các ràng buộc thực tế trong triển khai trên chuỗi (chi phí suy diễn, thích ứng RAG, tương thích LoRA, môi trường EVM).
Model Factory như một chuỗi công cụ không mã, tất cả các mô hình đều được tích hợp cơ chế chứng minh đóng góp, đảm bảo quyền lợi của người đóng góp dữ liệu và nhà phát triển mô hình, có những ưu điểm như ngưỡng thấp, có thể biến đổi và có thể kết hợp, so với các công cụ phát triển mô hình truyền thống:
Đối với các nhà phát triển: Cung cấp con đường hoàn chỉnh cho việc ươm tạo, phân phối và thu nhập mô hình;
Đối với nền tảng: hình thành lưu thông tài sản mô hình và sinh thái kết hợp;
Đối với người sử dụng: có thể kết hợp sử dụng mô hình hoặc Agent như khi gọi API.
3.2 OpenLoRA, tài sản hóa chuỗi của mô hình tinh chỉnh
LoRA (Low-Rank Adaptation) là một phương pháp tinh chỉnh tham số hiệu quả, học nhiệm vụ mới bằng cách chèn "ma trận hạng thấp" vào mô hình lớn đã được tiền huấn luyện mà không thay đổi tham số của mô hình gốc, từ đó giảm đáng kể chi phí huấn luyện và yêu cầu lưu trữ. Các mô hình ngôn ngữ lớn truyền thống (như LLaMA, GPT-3) thường có hàng tỷ thậm chí hàng trăm tỷ tham số. Để sử dụng chúng cho các nhiệm vụ cụ thể (như hỏi đáp pháp luật, tư vấn y tế), cần phải thực hiện tinh chỉnh (fine-tuning). Chiến lược cốt lõi của LoRA là: "đóng băng tham số của mô hình lớn gốc, chỉ huấn luyện ma trận tham số mới được chèn vào." Với tham số hiệu quả, huấn luyện nhanh chóng và triển khai linh hoạt, đây là phương pháp tinh chỉnh chính phù hợp nhất cho việc triển khai và gọi kết hợp mô hình Web3 hiện nay.
OpenLoRA là một khung suy diễn nhẹ được thiết kế đặc biệt cho việc triển khai nhiều mô hình và chia sẻ tài nguyên, được xây dựng bởi OpenLedger. Mục tiêu cốt lõi của nó là giải quyết những vấn đề phổ biến trong việc triển khai mô hình AI hiện tại như chi phí cao, tái sử dụng thấp, lãng phí tài nguyên GPU, thúc đẩy việc thực hiện "AI có thể chi trả" (Payable AI).
OpenLoRA hệ thống kiến trúc thành phần cốt lõi, dựa trên mô
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
16 thích
Phần thưởng
16
5
Chia sẻ
Bình luận
0/400
WenMoon
· 15giờ trước
Chỉ dựa vào khả năng tính toán thì cũng quá quê mùa rồi.
Xem bản gốcTrả lời0
AltcoinMarathoner
· 15giờ trước
cảm giác mile 23 rn... không gian này đang chuyển từ tính toán thô sang lớp mô hình, giống như chạm vào điểm ngọt ngào trong một cuộc marathon nơi chiến lược > sức mạnh thô
Xem bản gốcTrả lời0
DegenWhisperer
· 15giờ trước
Cạnh tranh cơ sở đều là giả.
Xem bản gốcTrả lời0
BlockchainFoodie
· 15giờ trước
mmm chồng này giống như công thức hoàn hảo... dữ liệu như các nguyên liệu, mô hình như kỹ thuật nấu ăn, tính toán như nguồn nhiệt... *chef's kiss*
OpenLedger xây dựng hệ sinh thái AI on-chain: Nền tảng OP Stack + EigenDA thúc đẩy kinh tế tác nhân thông minh có thể kết hợp
Báo cáo nghiên cứu sâu OpenLedger: Xây dựng một nền kinh tế trí tuệ nhân tạo dựa trên dữ liệu và có thể kết hợp mô hình với nền tảng OP Stack+EigenDA
Một, Giới thiệu | Sự chuyển mình của tầng mô hình Crypto AI
Dữ liệu, mô hình và sức mạnh tính toán là ba yếu tố cốt lõi của hạ tầng AI, tương tự như nhiên liệu (dữ liệu), động cơ (mô hình), năng lượng (sức mạnh tính toán) không thể thiếu. Giống như con đường tiến hóa hạ tầng của ngành AI truyền thống, lĩnh vực Crypto AI cũng đã trải qua các giai đoạn tương tự. Đầu năm 2024, thị trường từng bị chi phối bởi các dự án GPU phi tập trung ( một số nền tảng sức mạnh tính toán phi tập trung khác ), nhấn mạnh logic tăng trưởng thô sơ của "cạnh tranh sức mạnh tính toán". Tuy nhiên, bước vào năm 2025, sự chú ý của ngành dần dần chuyển lên các lớp mô hình và dữ liệu, đánh dấu sự chuyển mình của Crypto AI từ cạnh tranh tài nguyên cơ sở hạ tầng sang xây dựng trung tầng có tính bền vững và giá trị ứng dụng hơn.
Mô hình lớn chung (LLM) vs Mô hình chuyên biệt (SLM)
Các mô hình ngôn ngữ lớn (LLM) truyền thống thường phụ thuộc vào tập dữ liệu quy mô lớn và kiến trúc phân tán phức tạp, quy mô tham số thường từ 70B đến 500B, chi phí để đào tạo một lần thường lên đến hàng triệu đô la. Trong khi đó, SLM (Mô hình Ngôn ngữ Chuyên biệt) là một kiểu điều chỉnh nhẹ của mô hình cơ sở có thể tái sử dụng, thường dựa trên các mô hình mã nguồn mở như LLaMA, Mistral, DeepSeek, kết hợp với một lượng nhỏ dữ liệu chuyên nghiệp chất lượng cao và các công nghệ như LoRA, để nhanh chóng xây dựng các mô hình chuyên gia có kiến thức trong lĩnh vực cụ thể, giảm đáng kể chi phí đào tạo và rào cản công nghệ.
Đáng chú ý rằng, SLM sẽ không được tích hợp vào trọng số LLM, mà sẽ được gọi thông qua kiến trúc Agent, hệ thống plugin định tuyến động, khả năng cắm nóng của mô-đun LoRA, RAG (tạo ra được cải thiện bằng việc truy vấn) và các phương thức khác để hợp tác với LLM. Kiến trúc này vừa giữ lại khả năng bao quát rộng lớn của LLM, vừa tăng cường hiệu suất chuyên môn thông qua các mô-đun tinh chỉnh, tạo thành một hệ thống thông minh linh hoạt với sự kết hợp cao.
Giá trị và ranh giới của Crypto AI ở cấp độ mô hình
Dự án Crypto AI về cơ bản khó có thể cải thiện trực tiếp khả năng cốt lõi của mô hình ngôn ngữ lớn (LLM), lý do cốt lõi là
Tuy nhiên, trên nền tảng mô hình cơ sở mã nguồn mở, dự án Crypto AI vẫn có thể mở rộng giá trị thông qua việc tinh chỉnh các mô hình ngôn ngữ chuyên biệt (SLM), và kết hợp với tính khả thi và cơ chế khuyến khích của Web3. Là "tầng giao diện bên ngoài" của chuỗi ngành AI, thể hiện ở hai hướng cốt lõi:
Phân loại loại mô hình AI và phân tích tính ứng dụng của blockchain
Từ đó có thể thấy, điểm khả thi của các dự án Crypto AI loại mô hình chủ yếu tập trung vào việc tinh chỉnh nhẹ cho SLM nhỏ, kết nối và xác thực dữ liệu chuỗi với kiến trúc RAG, cũng như triển khai và khuyến khích mô hình Edge tại chỗ. Kết hợp tính khả chứng của blockchain và cơ chế token, Crypto có thể cung cấp giá trị đặc thù cho những mô hình tài nguyên trung bình và thấp, tạo ra giá trị khác biệt cho "tầng giao diện" AI.
Chuỗi AI dựa trên dữ liệu và mô hình blockchain, có thể ghi lại một cách rõ ràng và không thể thay đổi nguồn gốc đóng góp của từng dữ liệu và mô hình lên chuỗi, nâng cao đáng kể độ tin cậy của dữ liệu và khả năng truy xuất của việc huấn luyện mô hình. Đồng thời, thông qua cơ chế hợp đồng thông minh, khi dữ liệu hoặc mô hình được gọi, sẽ tự động kích hoạt việc phân phối phần thưởng, biến hành vi AI thành giá trị mã hóa có thể đo lường và giao dịch, xây dựng một hệ thống khuyến khích bền vững. Ngoài ra, người dùng trong cộng đồng còn có thể thông qua việc bỏ phiếu bằng token để đánh giá hiệu suất của mô hình, tham gia vào việc xây dựng và lặp lại quy tắc, hoàn thiện cấu trúc quản trị phi tập trung.
Hai, Tổng quan dự án | Tầm nhìn chuỗi AI của OpenLedger
OpenLedger là một trong số ít các dự án blockchain AI hiện nay tập trung vào cơ chế khuyến khích dữ liệu và mô hình. Nó tiên phong đưa ra khái niệm "Payable AI", nhằm xây dựng một môi trường vận hành AI công bằng, minh bạch và có thể kết hợp, khuyến khích người đóng góp dữ liệu, nhà phát triển mô hình và người xây dựng ứng dụng AI hợp tác trên cùng một nền tảng, và nhận được lợi nhuận trên chuỗi dựa trên đóng góp thực tế.
OpenLedger cung cấp chuỗi khép kín từ "cung cấp dữ liệu" đến "triển khai mô hình" rồi đến "gọi phân chia lợi nhuận", các mô-đun cốt lõi của nó bao gồm:
Thông qua các mô-đun trên, OpenLedger đã xây dựng một "hạ tầng kinh tế thông minh" dựa trên dữ liệu, có thể kết hợp mô hình, thúc đẩy quá trình chuỗi giá trị AI lên blockchain.
Và trong việc áp dụng công nghệ blockchain, OpenLedger sử dụng OP Stack + EigenDA làm nền tảng, xây dựng một môi trường chạy dữ liệu và hợp đồng hiệu suất cao, chi phí thấp, có thể xác minh cho các mô hình AI.
So với các chuỗi AI tổng hợp như NEAR, chú trọng vào quyền dữ liệu và kiến trúc «AI Agents trên BOS», OpenLedger tập trung hơn vào việc xây dựng chuỗi AI chuyên dụng hướng tới dữ liệu và động lực mô hình, nhằm đảm bảo rằng việc phát triển và gọi mô hình có thể đạt được vòng giá trị có thể truy xuất, có thể kết hợp và bền vững trên chuỗi. Nó là cơ sở hạ tầng động lực mô hình trong thế giới Web3, kết hợp một số nền tảng lưu trữ mô hình kiểu nền tảng lưu trữ mô hình, một số nền tảng thanh toán kiểu tính phí sử dụng và một số nền tảng dịch vụ cơ sở hạ tầng blockchain kiểu giao diện có thể kết hợp trên chuỗi, thúc đẩy con đường thực hiện «mô hình là tài sản».
Ba, Các thành phần cốt lõi và kiến trúc công nghệ của OpenLedger
3.1 Nhà máy mô hình, không cần mã mô hình
ModelFactory là một nền tảng tinh chỉnh mô hình ngôn ngữ lớn (LLM) trong hệ sinh thái OpenLedger. Khác với các khung tinh chỉnh truyền thống, ModelFactory cung cấp giao diện đồ họa hoàn toàn, không cần công cụ dòng lệnh hoặc tích hợp API. Người dùng có thể tinh chỉnh mô hình dựa trên tập dữ liệu đã được cấp phép và kiểm tra trên OpenLedger. Điều này đạt được quy trình làm việc tích hợp cho việc cấp phép dữ liệu, đào tạo mô hình và triển khai, trong đó quy trình cốt lõi bao gồm:
Kiến trúc hệ thống Model Factory bao gồm sáu mô-đun, bao trùm xác thực danh tính, quyền dữ liệu, tinh chỉnh mô hình, triển khai đánh giá và truy xuất RAG, tạo ra một nền tảng dịch vụ mô hình tích hợp an toàn, có kiểm soát, tương tác thời gian thực và có thể biến đổi bền vững.
Bảng tóm tắt khả năng của các mô hình ngôn ngữ lớn mà ModelFactory hiện hỗ trợ như sau:
Mặc dù mô hình kết hợp của OpenLedger không bao gồm mô hình MoE hiệu suất cao mới nhất hoặc mô hình đa phương thức, nhưng chiến lược của nó không lỗi thời, mà là cấu hình "ưu tiên thực dụng" dựa trên các ràng buộc thực tế trong triển khai trên chuỗi (chi phí suy diễn, thích ứng RAG, tương thích LoRA, môi trường EVM).
Model Factory như một chuỗi công cụ không mã, tất cả các mô hình đều được tích hợp cơ chế chứng minh đóng góp, đảm bảo quyền lợi của người đóng góp dữ liệu và nhà phát triển mô hình, có những ưu điểm như ngưỡng thấp, có thể biến đổi và có thể kết hợp, so với các công cụ phát triển mô hình truyền thống:
3.2 OpenLoRA, tài sản hóa chuỗi của mô hình tinh chỉnh
LoRA (Low-Rank Adaptation) là một phương pháp tinh chỉnh tham số hiệu quả, học nhiệm vụ mới bằng cách chèn "ma trận hạng thấp" vào mô hình lớn đã được tiền huấn luyện mà không thay đổi tham số của mô hình gốc, từ đó giảm đáng kể chi phí huấn luyện và yêu cầu lưu trữ. Các mô hình ngôn ngữ lớn truyền thống (như LLaMA, GPT-3) thường có hàng tỷ thậm chí hàng trăm tỷ tham số. Để sử dụng chúng cho các nhiệm vụ cụ thể (như hỏi đáp pháp luật, tư vấn y tế), cần phải thực hiện tinh chỉnh (fine-tuning). Chiến lược cốt lõi của LoRA là: "đóng băng tham số của mô hình lớn gốc, chỉ huấn luyện ma trận tham số mới được chèn vào." Với tham số hiệu quả, huấn luyện nhanh chóng và triển khai linh hoạt, đây là phương pháp tinh chỉnh chính phù hợp nhất cho việc triển khai và gọi kết hợp mô hình Web3 hiện nay.
OpenLoRA là một khung suy diễn nhẹ được thiết kế đặc biệt cho việc triển khai nhiều mô hình và chia sẻ tài nguyên, được xây dựng bởi OpenLedger. Mục tiêu cốt lõi của nó là giải quyết những vấn đề phổ biến trong việc triển khai mô hình AI hiện tại như chi phí cao, tái sử dụng thấp, lãng phí tài nguyên GPU, thúc đẩy việc thực hiện "AI có thể chi trả" (Payable AI).
OpenLoRA hệ thống kiến trúc thành phần cốt lõi, dựa trên mô