Định hình lại ranh giới của tính toán: Tình hình hiện tại và triển vọng của Khả năng tính toán phi tập trung

Trung cấp1/4/2024, 5:09:37 PM
Với sự phát triển của trí tuệ nhân tạo và các lĩnh vực khác, nhiều ngành công nghiệp sẽ đạt được những thay đổi lớn trong logic cơ bản, khả năng tính toán sẽ nổi lên vị trí quan trọng hơn, và các khía cạnh liên quan đến nó cũng sẽ gây ra sự khám phá mở rộng trong ngành công nghiệp. Mạng lưới khả năng tính toán phi tập trung có những ưu điểm riêng của nó có thể giảm thiểu rủi ro của tập trung và cũng có thể phục vụ như một bổ sung cho khả năng tính toán tập trung.

Khả năng tính toán đang được yêu cầu

Kể từ khi bộ phim “Avatar” ra mắt vào năm 2009, nó đã khởi đầu trận đấu đầu tiên của các bộ phim 3D với hình ảnh thực không thể so sánh được. Là một đóng góp lớn phía sau, Weta Digital đã đóng góp vào việc hiệu ứng hình ảnh của toàn bộ bộ phim. Tại trang trại máy chủ rộng 10.000 feet vuông tại New Zealand, cụm máy tính của nó xử lý lên đến 1,4 triệu nhiệm vụ mỗi ngày và xử lý 8GB dữ liệu mỗi giây. Ngay cả vậy, nó vẫn tiếp tục chạy hơn một tháng trước khi tất cả các hiệu ứng hình ảnh được hoàn thành.

Với việc triển khai máy móc quy mô lớn và đầu tư chi phí, “Avatar” đã đạt được những thành tựu xuất sắc trong lịch sử phim ảnh.

Vào ngày 3 tháng 1 cùng năm đó, Satoshi Nakamoto đào ra khối khởi đầu của Bitcoin trên một máy chủ nhỏ tại Helsinki, Phần Lan, và nhận phần thưởng khối lên đến 50 BTC. Kể từ ngày đầu tiên của tiền điện tử, khả năng tính toán đã đóng một vai trò rất quan trọng trong ngành công nghiệp.

Dây chuyền dài nhất không chỉ là bằng chứng về chuỗi sự kiện đã chứng kiến, mà còn là bằng chứng cho việc nó đến từ cụm CPU có khả năng tính toán lớn nhất.

—— Bitcoin Whitepaper

Trong ngữ cảnh của cơ chế đồng thuận PoW, đóng góp của sức mạnh tính toán cung cấp sự đảm bảo cho sự an toàn của chuỗi. Đồng thời, Hashrate liên tục tăng cũng chứng minh sự đầu tư liên tục của các máy đào vào sức mạnh tính toán và kỳ vọng thu nhập tích cực. Nhu cầu thực tế của ngành công nghiệp đối với sức mạnh tính toán cũng đã thúc đẩy mạnh mẽ sự phát triển của các nhà sản xuất chip. Các chip máy đào đã trải qua các giai đoạn phát triển như CPU, GPU, FPGA và ASIC. Hiện nay, các máy đào Bitcoin thường là các chip dựa trên công nghệ ASIC (Mạch tích hợp Cụ thể Ứng dụng) có thể thực hiện một cách hiệu quả các thuật toán cụ thể, chẳng hạn như SHA-256. Những lợi ích kinh tế khổng lồ mà Bitcoin mang lại cũng đã đẩy mạnh nhu cầu về sức mạnh tính toán trong việc đào tương quan. Tuy nhiên, thiết bị quá chuyên biệt và hiệu ứng cụm đã gây ra hiệu ứng ống hút giữa các bên tham gia của nó, dù họ là người đào hoặc nhà sản xuất máy đào. Tất cả đều cho thấy một xu hướng phát triển tập trung trọng vốn.

Với sự xuất hiện của hợp đồng thông minh của Ethereum, tính có thể lập trình, tính kết hợp và các tính năng khác đã tạo ra một loạt ứng dụng rộng lớn, đặc biệt là trong lĩnh vực DeFi, đã khiến giá ETH tăng liên tục, trong khi nó vẫn đang ở trong sự thống nhất PoW. Độ khó đào Ethereum ở giai đoạn này cũng đang tăng. Yêu cầu về khả năng tính toán của máy đào Ethereum của các thợ mỏ cũng ngày càng tăng. Tuy nhiên, khác với Bitcoin, sử dụng vi xử lý ASIC, Ethereum cần sử dụng đơn vị xử lý đồ họa (GPU) cho các tính toán đào, như dòng Nvidia RTX. Điều này làm cho phần cứng tính toán chung tham gia được hơn. Điều này thậm chí đã gây ra cuộc cạnh tranh thị trường cho GPU, khiến cho các card đồ họa cao cấp trên thị trường bị thiếu hàng.

Khi đến ngày 30 tháng 11 năm 2022, ChatGPT được phát triển bởi OpenAI cũng đã chứng minh sự quan trọng đột phá trong lĩnh vực trí tuệ nhân tạo. Người dùng ngạc nhiên trước trải nghiệm mới mẻ mà ChatGPT mang lại, có thể hoàn thành các nhiệm vụ do người dùng đề xuất dựa trên ngữ cảnh giống như một người thật. Yêu cầu. Trong phiên bản mới ra mắt vào tháng 9 năm nay, trí tuệ sinh sáng thêm tính năng đa phương thức như giọng nói và hình ảnh đã mang trải nghiệm người dùng đến một giai đoạn mới.

Tuy nhiên, GPT4 tương ứng có hơn một nghìn tỷ tham số được liên quan đến việc huấn luyện mô hình trước và điều chỉnh tinh chỉnh sau đó. Đây là hai phần có nhu cầu cao nhất về sức mạnh tính toán trong lĩnh vực Trí tuệ nhân tạo. Trong giai đoạn huấn luyện trước, một lượng lớn văn bản được nghiên cứu để nắm bắt các mẫu ngôn ngữ, ngữ pháp và ngữ cảnh liên quan. Cho phép nó hiểu các mẫu ngôn ngữ để tạo ra văn bản trọn vẹn và có ngữ cảnh dựa trên đầu vào. Sau khi huấn luyện trước, GPT4 được điều chỉnh để tùy chỉnh tốt hơn với các loại nội dung hoặc phong cách cụ thể và cải thiện hiệu suất và chuyên môn hóa trong các kịch bản yêu cầu cụ thể.

Kể từ khi kiến trúc Transformer được áp dụng bởi GPT giới thiệu cơ chế tự chú ý, cơ chế này cho phép mô hình đồng thời chú ý đến mối quan hệ giữa các phần khác nhau của chuỗi khi xử lý chuỗi đầu vào. Do đó, nhu cầu về khả năng tính toán đã tăng mạnh. Đặc biệt khi xử lý các chuỗi dài, cần một lượng lớn tính toán song song và lưu trữ một lượng lớn điểm chú ý, điều này cũng đòi hỏi một lượng lớn bộ nhớ và khả năng truyền dữ liệu tốc độ cao. Các LLM phổ biến hiện nay với cùng kiến trúc có nhu cầu lớn về GPU hiệu suất cao, điều này cũng cho thấy rằng chi phí đầu tư trong lĩnh vực mô hình lớn AI là rất lớn. Theo ước lượng của SemiAnalysis liên quan, chi phí huấn luyện một mô hình GPT4 lên đến 63 triệu đô la. Để đạt được trải nghiệm tương tác tốt, GPT4 cũng cần đầu tư một lượng lớn khả năng tính toán trong các hoạt động hàng ngày để duy trì hoạt động hàng ngày của mình.

Phân loại phần cứng tính toán

Ở đây chúng ta cần hiểu rõ về các loại phần cứng khả năng tính toán chính hiện tại. Các kịch bản nhu cầu về khả năng tính toán có thể được xử lý bởi CPU, GPU, FPGA và ASIC tương ứng.

• Từ sơ đồ kiến trúc của CPU và GPU, GPU chứa nhiều lõi hơn, giúp GPU xử lý nhiều nhiệm vụ tính toán cùng một lúc. Tính toán song song có khả năng xử lý mạnh mẽ và thích hợp để xử lý một lượng lớn các nhiệm vụ tính toán, nên trong lĩnh vực học máy và học sâu đã được sử dụng rộng rãi. CPU có ít lõi hơn và thích hợp để xử lý một phép tính phức tạp hoặc nhiệm vụ chuỗi một cách tập trung hơn, nhưng không hiệu quả bằng GPU khi xử lý các nhiệm vụ tính toán song song. Trong các nhiệm vụ kết xuất và nhiệm vụ tính toán mạng nơ-ron, thường cần xử lý một lượng lớn các phép tính lặp đi lặp lại và tính toán song song, vì vậy GPU hiệu quả hơn và phù hợp hơn CPU trong khía cạnh này.

• FPGA (Field Programmable Gate Array) là một mạch bán tùy chỉnh nằm trong lĩnh vực vi mạch tích hợp cụ thể ứng dụng (ASIC). Một mảng bao gồm một số lượng lớn các đơn vị xử lý nhỏ, FPGA có thể hiểu là một vi chip tích hợp mạch logic kỹ thuật số có thể lập trình được. Ứng dụng hiện tại chủ yếu tập trung vào tăng tốc phần cứng, và các nhiệm vụ khác vẫn được hoàn thành trên CPU, cho phép FPGA và CPU làm việc cùng nhau.

• ASIC (Mạch tích hợp cụ thể theo ứng dụng) đề cập đến một mạch tích hợp được thiết kế để đáp ứng yêu cầu cụ thể của người dùng và nhu cầu của các hệ thống điện tử cụ thể. So với vi mạch tích hợp đa dụng, ASIC có những ưu điểm như kích thước nhỏ hơn, tiêu thụ điện năng thấp hơn, độ tin cậy cao hơn, hiệu suất cải thiện, tính bảo mật tăng cường và giảm chi phí trong quá trình sản xuất hàng loạt. Do đó, trong kịch bản cố hữu của việc đào Bitcoin, chỉ cần thực hiện các nhiệm vụ tính toán cụ thể, ASIC là phù hợp nhất. Google cũng đã tung ra một TPU (Đơn vị Xử lý Tensor) được thiết kế đặc biệt cho học máy như một loại ASIC, nhưng hiện tại nó chủ yếu cung cấp dịch vụ cho thuê khả năng tính toán thông qua Google Cloud.

• ASIC so với FPGA, ASIC là một mạch tích hợp dành riêng cho ứng dụng và mạch tích hợp được cố định sau khi thiết kế hoàn thành. FPGA tích hợp một số lượng lớn các cổng mạch kỹ thuật số cơ bản và bộ nhớ vào mảng. Các nhà phát triển có thể xác định mạch bằng cách lập trình cấu hình FPGA và lập trình này có thể thay thế được. Tuy nhiên, với tốc độ cập nhật hiện tại trong lĩnh vực AI, các chip tùy chỉnh hoặc bán tùy chỉnh không thể được điều chỉnh và cấu hình lại kịp thời để thực hiện các tác vụ khác nhau hoặc thích ứng với các thuật toán mới. Do đó, khả năng thích ứng chung và tính linh hoạt của GPU khiến nó tỏa sáng trong lĩnh vực AI. Các nhà sản xuất GPU lớn cũng đã thực hiện các tối ưu hóa có liên quan để thích ứng với GPU trong lĩnh vực AI. Lấy Nvidia làm ví dụ, hãng đã ra mắt dòng Tesla và GPU kiến trúc Ampere được thiết kế đặc biệt cho deep learning. Phần cứng này chứa các đơn vị phần cứng (Tensor Cores) được tối ưu hóa cho các tính toán học máy và học sâu, cho phép GPU hoạt động hiệu quả và hiệu quả hơn. Tiêu thụ năng lượng thấp để thực hiện truyền bá tiến và lùi của mạng lưới thần kinh. Ngoài ra, một loạt các công cụ và thư viện được cung cấp để hỗ trợ phát triển AI, chẳng hạn như CUDA (Compute Unified Device Architecture) để giúp các nhà phát triển sử dụng GPU cho điện toán song song đa năng.

Khả năng tính toán phi tập trung

Khả năng tính toán phi tập trung đề cập đến phương pháp cung cấp sức mạnh xử lý thông qua tài nguyên tính toán phân tán. Phương pháp phi tập trung này thường được kết hợp với công nghệ blockchain hoặc công nghệ sổ cái phân tán tương tự để tổng hợp tài nguyên tính toán không sử dụng và phân phối chúng cho người dùng cần để đạt được việc chia sẻ tài nguyên, giao dịch và quản lý.

Nền tảng

• Nhu cầu phần cứng tính toán mạnh mẽ. Sự thịnh vượng của nền kinh tế sáng tạo đã đưa xử lý phương tiện truyền thông số vào một thời đại của sự sáng tạo phổ quát. Nhu cầu về kỹ thuật hình ảnh đã tăng mạnh, và các studio dịch vụ kỹ thuật hình ảnh, nền tảng dịch vụ kỹ thuật hình ảnh đám mây và các hình thức khác đã nổi lên. Tuy nhiên, cách tiếp cận này cũng đòi hỏi bạn phải đầu tư một khoản tiền lớn cho việc tậu phần cứng tính toán sớm đầu tư vào phần cứng tính toán.

• Phần cứng khả năng tính toán đến từ một nguồn duy nhất. Sự phát triển của lĩnh vực Trí tuệ nhân tạo đã làm tăng cường nhu cầu về phần cứng tính toán. Các công ty sản xuất GPU hàng đầu thế giới, dẫn đầu bởi Nvidia, đã kiếm được nhiều tiền trong cuộc cạnh tranh về khả năng tính toán AI này. Khả năng cung ứng của họ đã trở thành một yếu tố chính có thể hạn chế sự phát triển của một ngành công nghiệp nhất định. Giá trị thị trường của Nvidia cũng vượt quá mốc một nghìn tỷ đô la Mỹ lần đầu tiên trong năm nay.

• Việc cung cấp khả năng tính toán vẫn chủ yếu dựa vào các nền tảng đám mây tập trung. Điều thực sự được hưởng lợi từ sự tăng vọt trong nhu cầu về tính toán hiệu suất cao là các nhà cung cấp đám mây tập trung như AWS. Họ đã tung ra dịch vụ tính toán đám mây GPU. Lấy dịch vụ tính toán đám mây AWS p4d.24xlarge hiện tại làm ví dụ, thuê Một máy chủ HPC chuyên về ML như vậy, chứa tám GPU Nvidia A100 40GB, có giá 32,8 đô la Mỹ mỗi giờ, và biên lợi nhuận gộp ước tính là 61%. Điều này cũng đã khiến các ông lớn đám mây khác vội vàng tham gia và tích trữ phần cứng để có được nhiều lợi thế nhất có thể trong giai đoạn đầu của sự phát triển của ngành công nghiệp.

• Sự can thiệp chính trị, con người và các yếu tố khác dẫn đến sự phát triển không đồng đều của ngành công nghiệp. Sự mất cân đối Không khó nhận thấy rằng sở hữu và tập trung của GPU đang nghiêng về các tổ chức và quốc gia có nguồn vốn và công nghệ dồi dào hơn, và phụ thuộc vào các cụm máy tính hiệu suất cao. Điều này đã khiến cho các quyền lực sản xuất chip và bán dẫn đại diện của Hoa Kỳ cũng áp đặt hạn chế nghiêm ngặt hơn đối với việc xuất khẩu chip AI để làm suy yếu khả năng nghiên cứu của các quốc gia khác trong lĩnh vực trí tuệ nhân tạo tổng quát.

• Phân bổ tài nguyên khả năng tính toán quá tập trung. Sáng kiến phát triển trong lĩnh vực AI đang nằm trong tay của một số công ty khổng lồ. Hiện nay, các ông lớn do OpenAI đại diện được Microsoft ủy thác, và sau họ là các tài nguyên tính toán giàu có được Microsoft Azure cung cấp. Điều này khiến cho mỗi lần OpenAI tung ra sản phẩm mới là một quá trình tái hình và tích hợp ngành công nghiệp AI hiện tại, làm cho các đội khác gặp khó khăn trong việc theo kịp trong lĩnh vực mô hình lớn.

Vậy trước chi phí phần cứng cao, hạn chế địa lý và sự phát triển không đồng đều của ngành công nghiệp, liệu có các giải pháp khác không?

Nền tảng khả năng tính toán phi tập trung đã xuất hiện khi thời đại yêu cầu. Mục đích của nền tảng là tạo ra một thị trường mở, minh bạch và tự điều chỉnh để sử dụng hiệu quả hơn tài nguyên tính toán toàn cầu.

phân tích thích nghi

  1. Mạng cung cấp khả năng tính toán phi tập trung

Giá cả phần cứng cao hiện nay và việc kiểm soát nhân tạo từ phía cung ứng đã tạo điều kiện cho việc xây dựng các mạng lưới khả năng tính toán phi tập trung.

• Từ quan điểm về cấu trúc của sức mạnh tính toán phi tập trung, các nhà cung cấp sức mạnh tính toán đa dạng từ các máy tính cá nhân đến các Thiết bị Internet of Things nhỏ đến các trung tâm dữ liệu, IDC, v.v., và sức mạnh tính toán tích luỹ có thể cung cấp các giải pháp tính toán linh hoạt và có khả năng mở rộng hơn, qua đó giúp các nhà phát triển trí tuệ nhân tạo và tổ chức sử dụng hiệu quả hơn tài nguyên hạn chế. Chia sẻ sức mạnh tính toán phi tập trung có thể được thực hiện thông qua sức mạnh tính toán không hoạt động của cá nhân hoặc tổ chức. Tuy nhiên, tính sẵn có và ổn định của sức mạnh tính toán này phụ thuộc vào các ràng buộc sử dụng của người dùng hoặc giới hạn chia sẻ.

• Nguồn tiềm năng có thể có của sức mạnh tính toán chất lượng cao là sức mạnh tính toán được cung cấp trực tiếp bởi việc chuyển đổi các mỏ có liên quan sau khi Ethereum được chuyển đổi thành PoS. nguồn nhân lực. Lấy Coreweave, nhà cung cấp sức mạnh tính toán tích hợp GPU hàng đầu tại Hoa Kỳ, làm ví dụ. Nó trước đây là trang trại khai thác Ethereum lớn nhất ở Bắc Mỹ và dựa trên cơ sở hạ tầng hoàn chỉnh đã được xây dựng. Ngoài ra, các máy khai thác Ethereum đã nghỉ hưu cũng chứa một số lượng lớn GPU nhàn rỗi. Được biết, có khoảng 27 triệu GPU hoạt động trực tuyến vào thời kỳ đỉnh cao của kỷ nguyên khai thác Ethereum. Hồi sinh các GPU này cũng có thể trở thành một phần quan trọng của mạng lưới điện toán phi tập trung. nguồn sức mạnh tính toán.

  1. Yêu cầu khả năng tính toán phi tập trung từ phía người dùng

• Từ quan điểm triển khai kỹ thuật, các nguồn lực tính toán phi tập trung được sử dụng trong việc kết xuất đồ họa và chuyển đổi video. Các tính toán như vậy phức tạp. Đối với các nhiệm vụ cấp thấp, hệ thống kinh tế kết hợp công nghệ blockchain và web3 có thể mang lại động lực thu nhập cụ thể cho các thành viên mạng và tích luỹ mô hình kinh doanh và nhóm khách hàng hiệu quả trong khi đảm bảo việc truyền thông tin dữ liệu an toàn. Lĩnh vực trí tuệ nhân tạo liên quan đến một lượng lớn tính toán song song, giao tiếp và đồng bộ hóa giữa các nút, và có yêu cầu rất cao về môi trường mạng và các khía cạnh khác. Do đó, các ứng dụng hiện nay cũng tập trung vào việc điều chỉnh tinh chỉnh, suy diễn, AIGC và các tầng ứng dụng khác.

• Từ góc độ logic kinh doanh, một thị trường đơn giản chỉ mua bán khả năng tính toán thiếu sự tưởng tượng, và ngành công nghiệp chỉ có thể xử lý chuỗi cung ứng và giá cả. Chiến lược, nhưng những điều này lại là ưu điểm của các dịch vụ đám mây tập trung. Do đó, tầm cao của thị trường thấp và không có chỗ cho sự tưởng tượng nhiều hơn, vì vậy chúng ta cũng có thể thấy rằng các mạng ban đầu chỉ thực hiện việc hiển thị đồ họa đơn giản đang tìm kiếm sự biến đổi AI. Ví dụ, Render Network và Q1 năm 2023 cũng đã ra mắt một bộ công cụ Stabilitity AI tích hợp native, mà người dùng có thể Sử dụng chức năng này giới thiệu các hoạt động Diffusion Ổn định, và doanh nghiệp không còn bị hạn chế trong các hoạt động hiển thị mà mở rộng ra lĩnh vực AI.

• Từ quan điểm của các nhóm khách hàng chính, rõ ràng là khách hàng B-side lớn sẽ thích các dịch vụ đám mây tích hợp tập trung. Họ thường có đủ ngân sách, họ thường tham gia vào việc phát triển các mô hình cơ bản lớn và yêu cầu một hình thức tổng hợp sức mạnh tính toán hiệu quả hơn; Do đó, sức mạnh tính toán phi tập trung phục vụ nhiều nhóm hoặc cá nhân phát triển vừa và nhỏ hơn và chủ yếu tham gia vào việc tinh chỉnh mô hình. Hoặc phát triển lớp ứng dụng, không có yêu cầu cao về hình thức sức mạnh tính toán được cung cấp. Họ nhạy cảm hơn với giá cả. Sức mạnh tính toán phi tập trung về cơ bản có thể làm giảm đầu tư chi phí ban đầu, do đó chi phí sử dụng tổng thể cũng thấp hơn. Dựa trên chi phí được tính toán trước đó bởi Gensyn, sức mạnh tính toán được chuyển đổi thành giá trị tương đương do V100 cung cấp. Về sức mạnh tính toán, giá của Gensyn chỉ là 0,4 USD mỗi giờ, thấp hơn 80% so với sức mạnh tính toán tương đương của AWS là 2 USD mỗi giờ. Mặc dù mảng kinh doanh này không chiếm phần lớn chi tiêu trong ngành hiện tại, nhưng khi các kịch bản sử dụng ứng dụng AI tiếp tục mở rộng, quy mô thị trường trong tương lai không thể đánh giá thấp.

• Từ góc độ của các dịch vụ được cung cấp, có thể thấy rằng dự án hiện tại giống hơn với khái niệm của một nền tảng đám mây phi tập trung, cung cấp một bộ quản lý đầy đủ từ phát triển, triển khai, trực tuyến, phân phối và giao dịch. Ưu điểm của điều này là thu hút các nhà phát triển, họ có thể sử dụng các thành phần công cụ liên quan để đơn giản hóa phát triển và triển khai và nâng cao hiệu quả; đồng thời, nó cũng có thể thu hút người dùng sử dụng những sản phẩm ứng dụng hoàn chỉnh này trên nền tảng, tạo ra một bức tường vệ sinh sinh thái dựa trên mạng lưới khả năng tính toán của mình. Nhưng điều này cũng đặt ra yêu cầu cao hơn đối với hoạt động dự án. Làm thế nào để thu hút các nhà phát triển và người dùng xuất sắc và đạt được sự giữ chân là đặc biệt quan trọng.

Ứng dụng trong các lĩnh vực khác nhau

1. Xử lý Phương tiện Truyền thông Số

Mạng lưới Render Một nền tảng rendering toàn cầu dựa trên blockchain, mục tiêu của nó là giúp các nhà sáng tạo với sự sáng tạo kỹ thuật số. Nó cho phép các nhà sáng tạo mở rộng công việc rendering GPU đến các nút GPU toàn cầu theo yêu cầu, cung cấp khả năng rendering nhanh hơn và rẻ hơn. Sau khi nhà sáng tạo xác nhận kết quả rendering, mạng lưới blockchain gửi mã đến nút. Thưởng tiền xu. So với các phương pháp triển khai hiệu ứng hình ảnh truyền thống, việc thiết lập cơ sở hạ tầng rendering địa phương hoặc thêm chi phí GPU tương ứng vào dịch vụ đám mây đã mua yêu cầu đầu tư ban đầu cao.

Kể từ khi thành lập vào năm 2017, người dùng Mạng Render đã tạo ra hơn 16 triệu khung hình và gần 500.000 cảnh trên mạng. Dữ liệu được công bố từ Render Network 2023 Q2 cũng cho thấy cả số lượng công việc khung hình được dựng và số lượng nút hoạt động đều đang tăng. Ngoài ra, Mạng Render và 2023 Q1 cũng đã ra mắt bộ công cụ Stabilit AI tích hợp một cách tự nhiên. Người dùng có thể sử dụng chức năng này để giới thiệu các hoạt động Diffusion ổn định, và doanh nghiệp không còn bị giới hạn chỉ trong các hoạt động dựng và mở rộng ra lĩnh vực AI.

Livepeer cung cấp dịch vụ chuyển đổi video thời gian thực cho các nhà sáng tạo thông qua các thành viên mạng đóng góp sức mạnh tính toán GPU và băng thông của họ. Người phát sóng có thể hoàn thành việc chuyển đổi các loại video bằng cách gửi video đến Livepeer và phân phối chúng cho các người dùng cuối khác nhau, từ đó thực hiện việc phổ biến nội dung video. Đồng thời, bạn có thể dễ dàng thanh toán bằng tiền tệ hợp pháp để có được các dịch vụ như chuyển đổi video, truyền tải và lưu trữ.

Trong mạng Livepeer, bất kỳ ai cũng được phép đóng góp tài nguyên máy tính cá nhân (CPU, GPU và băng thông) để chuyển mã và phân phối video để kiếm phí. Token bản địa (LPT) đại diện cho quyền lợi của các thành viên mạng trong mạng. Số lượng token cam kết xác định trọng lượng của nút trong mạng, ảnh hưởng đến khả năng của nó trong việc nhận nhiệm vụ chuyển mã. Đồng thời, LPT cũng đóng vai trò hướng dẫn các nút hoàn thành nhiệm vụ được giao một cách an toàn, đáng tin cậy và nhanh chóng.

2. Triển lãm AIarea

Trong hệ sinh thái hiện tại trong lĩnh vực trí tuệ nhân tạo, những người chơi chính có thể được chia thành khoảng cách:

Bắt đầu từ phía yêu cầu, có sự khác biệt rõ ràng trong nhu cầu về khả năng tính toán ở các giai đoạn khác nhau của ngành công nghiệp. Lấy việc phát triển mô hình cơ bản làm ví dụ, quá trình tiền huấn luyện đòi hỏi khả năng tính toán song song, lưu trữ, giao tiếp, v.v. rất cao để đảm bảo hiệu quả của kết quả huấn luyện. Điều này đòi hỏi một cụm khả năng tính toán lớn để hoàn thành các nhiệm vụ liên quan. Hiện nay, nguồn cung chính của khả năng tính toán chủ yếu dựa vào các phòng máy tính tự xây dựng và các nền tảng dịch vụ đám mây tập trung. Ở các giai đoạn sau của việc điều chỉnh mô hình, lý do thời gian thực và phát triển ứng dụng, yêu cầu về tính toán song song và giao tiếp giữa các nút không còn cao. Đây chính là nơi mà khả năng tính toán phi tập trung có thể thể hiện toàn bộ tiềm năng của mình.

Nhìn vào các dự án đã thu hút sự quan tâm lớn trước đó, Akash Nework đã thực hiện một số thử nghiệm trong hướng của khả năng tính toán phi tập trung:

Akash Network kết hợp các thành phần công nghệ khác nhau để cho phép người dùng triển khai và quản lý các ứng dụng một cách hiệu quả và linh hoạt trong môi trường đám mây phi tập trung. Người dùng có thể sử dụng công nghệ container Docker để đóng gói ứng dụng, sau đó triển khai và mở rộng quy mô thông qua Kubernetes thông qua CloudMOS trên tài nguyên đám mây do Akash cung cấp. Akash sử dụng cách tiếp cận "đấu giá ngược", làm cho giá thấp hơn các dịch vụ đám mây truyền thống.

Akash Network cũng đã công bố vào tháng 8 năm nay rằng họ sẽ triển khai bản nâng cấp thứ sáu của mạng chính của mình, tích hợp hỗ trợ cho GPUs vào dịch vụ đám mây của mình, và cung cấp khả năng tính toán cho nhiều đội AI hơn trong tương lai.

Gensyn.ai, một dự án đã thu hút rất nhiều sự chú ý trong ngành năm nay, do a16z dẫn đầu và hoàn thành một vòng gọi vốn Series A trị giá 43 triệu đô la Mỹ. Dựa vào những tài liệu đã phát hành cho đến nay, dự án này là mạng chính dựa trên giao thức L1 PoS của mạng Polkadot, tập trung vào học sâu. Mục tiêu của dự án là đẩy ranh giới của học máy bằng cách tạo ra một mạng lưới siêu máy tính toàn cầu. Mạng này kết nối các thiết bị từ các trung tâm dữ liệu có khả năng tính toán dư thừa đến các máy tính cá nhân có thể đóng góp GPU cá nhân, ASIC tùy chỉnh và SoC.

Để giải quyết một số vấn đề hiện đang tồn tại trong khả năng tính toán phân tán, Gensyn dựa vào một số kết quả nghiên cứu lý thuyết mới trong giới học thuật:

  1. Áp dụng chứng minh học xác suất, tức là sử dụng dữ liệu siêu dữ liệu của quá trình tối ưu hóa dựa trên độ dốc để xây dựng chứng minh về việc thực hiện nhiệm vụ liên quan để tăng tốc quá trình xác minh;

  2. GPP dựa trên đồ thị, phục vụ như một cái cầu, kết nối việc thực thi ngoại tuyến của DNN (Mạng Nơ-ron Sâu) và khung hợp đồng thông minh trên blockchain, giải quyết các không nhất quán mà dễ dàng xảy ra trên các thiết bị phần cứng, và đảm bảo tính nhất quán của việc xác minh.

  3. Một phương pháp khuyến khích tương tự như Truebit, thông qua sự kết hợp của việc đặt cược và hình phạt, thiết lập một hệ thống khuyến khích cho phép các bên tham gia kinh tế một cách hợp lý thực hiện công việc được giao một cách trung thực. Cơ chế này sử dụng mật mã và phương pháp lý thuyết trò chơi. Hệ thống xác minh này là cần thiết để duy trì tính toàn vẹn và đáng tin cậy của các phép tính đào tạo mô hình lớn.

Tuy nhiên, đáng chú ý rằng nội dung trên hơn là về việc giải quyết mức độ xác minh hoàn thành nhiệm vụ, thay vì sức mạnh tính toán phân tán để đạt được các chức năng huấn luyện mô hình là điểm nổi bật chính trong tài liệu dự án, đặc biệt về tính toán song song và Tối ưu hóa phân tán của giao tiếp, đồng bộ hóa và các vấn đề khác giữa phần cứng. Hiện nay, do độ trễ mạng (Độ trễ) và băng thông (Băng thông), việc giao tiếp thường xuyên giữa các nút sẽ tăng thời gian lặp và chi phí giao tiếp. Điều này không chỉ không đem lại tối ưu thực tế, mà còn làm giảm hiệu suất huấn luyện. Phương pháp của Gensyn trong xử lý giao tiếp nút và tính toán song song trong huấn luyện mô hình có thể liên quan đến giao thức phối hợp phức tạp để quản lý tính phân tán của tính toán. Tuy nhiên, nếu thiếu thông tin kỹ thuật cụ thể hơn hoặc không hiểu rõ về các phương pháp cụ thể của họ, cơ chế chính xác mà Gensyn đạt được huấn luyện mô hình quy mô lớn thông qua mạng của mình sẽ không thể được tiết lộ cho đến khi dự án ra mắt thực sự.

Chúng tôi cũng chú ý đến giao thức Edge Matrix Computing (EMC) sử dụng công nghệ blockchain để áp dụng khả năng tính toán vào trí tuệ nhân tạo, kỹ thuật dựng hình và nghiên cứu khoa học. , Truy cập thương mại điện tử trí tuệ nhân tạo và các loại kịch bản khác, nhiệm vụ được phân phối đến các nút khả năng tính toán khác nhau thông qua tính toán co giãn. Phương pháp này không chỉ cải thiện hiệu quả của khả năng tính toán, mà còn đảm bảo an toàn của việc truyền dữ liệu. Đồng thời, nó cung cấp một thị trường khả năng tính toán nơi người dùng có thể truy cập và trao đổi tài nguyên tính toán. Nó thuận tiện cho các nhà phát triển triển khai và đạt được người dùng nhanh hơn. Kết hợp với hình thức kinh tế Web3, các nhà cung cấp khả năng tính toán cũng có thể nhận được lợi ích thực sự và các khoản trợ cấp của bên giao thức dựa trên việc sử dụng thực tế của người dùng, và các nhà phát triển trí tuệ nhân tạo cũng có thể nhận được chi phí suy luận và dựng hình thấp hơn. Dưới đây là tổng quan về các thành phần và chức năng chính của nó:

Dự kiến sẽ có các sản phẩm RWA dựa trên GPU được ra mắt. Chìa khóa của việc này là tái tạo phần cứng ban đầu được cố định trong phòng máy tính và chia nhỏ và lưu thông nó dưới dạng RWA để có thêm thanh khoản. GPU chất lượng cao có thể được sử dụng làm tài sản cơ bản của RWA. Lý do là khả năng tính toán có thể được coi là tiền mặt cứng trong lĩnh vực AI. Hiện nay, có một mâu thuẫn rõ ràng giữa cung và cầu, và mâu thuẫn này không thể được giải quyết trong tương lai ngắn, vì vậy giá của GPU tương đối ổn định.

Ngoài ra, triển khai cụm khả năng tính toán bằng cách triển khai các phòng máy tính IDC cũng là một phần quan trọng của giao thức EMC. Điều này không chỉ cho phép các GPU hoạt động trong môi trường thống nhất, mà còn xử lý hiệu quả hơn các nhiệm vụ tiêu tốn khả năng tính toán quy mô lớn liên quan, chẳng hạn như việc tiền huấn luyện mô hình. Điều này đáp ứng nhu cầu của người dùng chuyên nghiệp. Đồng thời, phòng máy tính IDC cũng có thể tập trung chủ hosting và chạy một lượng lớn GPU để đảm bảo các thông số kỹ thuật của phần cứng cùng loại chất lượng cao, từ đó dễ dàng đóng gói chúng vào thị trường dưới dạng sản phẩm RWA và mở ra những ý tưởng mới cho DeFi.

Trong những năm gần đây, cộng đồng học thuật cũng đã phát triển các lý thuyết kỹ thuật mới và thực hành ứng dụng trong lĩnh vực tính toán Edge. Là một phần bổ sung và tối ưu hóa của đám mây, tính toán Edge là một phần của trí tuệ nhân tạo đang tăng tốc từ đám mây đến lớp edge và vào các thiết bị IoT ngày càng nhỏ hơn. Các thiết bị IoT này thường nhỏ gọn, vì vậy học máy nhẹ được ưa chuộng để đáp ứng các vấn đề như tiêu thụ năng lượng, độ trễ và độ chính xác.

Network3 được xây dựng bằng cách xây dựng một AI Layer2 chuyên dụng để cung cấp cho các nhà phát triển AI trên toàn thế giới tối ưu hóa và nén thuật toán mô hình AI, học liên kết, điện toán biên và điện toán quyền riêng tư. Cung cấp dịch vụ giúp họ đào tạo hoặc xác minh mô hình một cách nhanh chóng, thuận tiện và hiệu quả. Bằng cách sử dụng một số lượng lớn các thiết bị phần cứng IoT thông minh, nó có thể tập trung vào các mô hình nhỏ để cung cấp sức mạnh tính toán tương ứng và bằng cách xây dựng TEE (Môi trường thực thi đáng tin cậy), người dùng chỉ có thể hoàn thành đào tạo có liên quan bằng cách tải lên các gradient mô hình để đảm bảo quyền riêng tư và bảo mật dữ liệu liên quan đến người dùng.

Tóm lại

• Với sự phát triển của trí tuệ nhân tạo và các lĩnh vực khác, nhiều ngành công nghiệp sẽ trải qua những thay đổi lớn trong logic cơ bản của họ, khả năng tính toán sẽ nổi lên vị trí quan trọng hơn, và các khía cạnh liên quan đến nó cũng sẽ gây ra sự khám phá mở rộ trong ngành công nghiệp. Các mạng lưới khả năng tính toán phi tập trung có những ưu điểm riêng có thể giảm thiểu nguy cơ tập trung và cũng có thể phục vụ như một bổ sung cho khả năng tính toán tập trung.

• Và các nhóm trong lĩnh vực trí tuệ nhân tạo cũng đang đứng trước một ngã rẽ. Việc lựa chọn giữa việc sử dụng các mô hình huấn luyện lớn để xây dựng sản phẩm của riêng họ hoặc tham gia huấn luyện các mô hình lớn tại các khu vực riêng của họ chủ yếu là phân biệt biện pháp. Do đó, khả năng tính toán phi tập trung có thể đáp ứng các nhu cầu kinh doanh khác nhau. Xu hướng phát triển này được chào đón, và với việc cập nhật công nghệ và lặp đi lặp lại các thuật toán, sẽ không thể tránh khỏi những đột phá trong các lĩnh vực chính.

• Đừng sợ, chỉ cần từ từ tìm hiểu là được.

Tham khảo

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/một-tổng-quan-về-mạng-livepeer-và-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

Tuyên bố từ chối trách nhiệm:

  1. Bài viết này được tái bản từ [PANews]. All copyrights belong to the original author [Khuôn viên Future3]. Nếu có ý kiến ​​phản đối về việc tái in này, vui lòng liên hệ với Gate Họcđội, và họ sẽ xử lý nhanh chóng.
  2. Miễn trừ trách nhiệm: Các quan điểm và ý kiến được thể hiện trong bài viết này chỉ thuộc về tác giả và không hình thành bất kỳ lời khuyên đầu tư nào.
  3. Bản dịch của bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm Gate Learn. Trừ khi được đề cập, việc sao chép, phân phối hoặc đạo văn các bài viết dịch là không được phép.

Định hình lại ranh giới của tính toán: Tình hình hiện tại và triển vọng của Khả năng tính toán phi tập trung

Trung cấp1/4/2024, 5:09:37 PM
Với sự phát triển của trí tuệ nhân tạo và các lĩnh vực khác, nhiều ngành công nghiệp sẽ đạt được những thay đổi lớn trong logic cơ bản, khả năng tính toán sẽ nổi lên vị trí quan trọng hơn, và các khía cạnh liên quan đến nó cũng sẽ gây ra sự khám phá mở rộng trong ngành công nghiệp. Mạng lưới khả năng tính toán phi tập trung có những ưu điểm riêng của nó có thể giảm thiểu rủi ro của tập trung và cũng có thể phục vụ như một bổ sung cho khả năng tính toán tập trung.

Khả năng tính toán đang được yêu cầu

Kể từ khi bộ phim “Avatar” ra mắt vào năm 2009, nó đã khởi đầu trận đấu đầu tiên của các bộ phim 3D với hình ảnh thực không thể so sánh được. Là một đóng góp lớn phía sau, Weta Digital đã đóng góp vào việc hiệu ứng hình ảnh của toàn bộ bộ phim. Tại trang trại máy chủ rộng 10.000 feet vuông tại New Zealand, cụm máy tính của nó xử lý lên đến 1,4 triệu nhiệm vụ mỗi ngày và xử lý 8GB dữ liệu mỗi giây. Ngay cả vậy, nó vẫn tiếp tục chạy hơn một tháng trước khi tất cả các hiệu ứng hình ảnh được hoàn thành.

Với việc triển khai máy móc quy mô lớn và đầu tư chi phí, “Avatar” đã đạt được những thành tựu xuất sắc trong lịch sử phim ảnh.

Vào ngày 3 tháng 1 cùng năm đó, Satoshi Nakamoto đào ra khối khởi đầu của Bitcoin trên một máy chủ nhỏ tại Helsinki, Phần Lan, và nhận phần thưởng khối lên đến 50 BTC. Kể từ ngày đầu tiên của tiền điện tử, khả năng tính toán đã đóng một vai trò rất quan trọng trong ngành công nghiệp.

Dây chuyền dài nhất không chỉ là bằng chứng về chuỗi sự kiện đã chứng kiến, mà còn là bằng chứng cho việc nó đến từ cụm CPU có khả năng tính toán lớn nhất.

—— Bitcoin Whitepaper

Trong ngữ cảnh của cơ chế đồng thuận PoW, đóng góp của sức mạnh tính toán cung cấp sự đảm bảo cho sự an toàn của chuỗi. Đồng thời, Hashrate liên tục tăng cũng chứng minh sự đầu tư liên tục của các máy đào vào sức mạnh tính toán và kỳ vọng thu nhập tích cực. Nhu cầu thực tế của ngành công nghiệp đối với sức mạnh tính toán cũng đã thúc đẩy mạnh mẽ sự phát triển của các nhà sản xuất chip. Các chip máy đào đã trải qua các giai đoạn phát triển như CPU, GPU, FPGA và ASIC. Hiện nay, các máy đào Bitcoin thường là các chip dựa trên công nghệ ASIC (Mạch tích hợp Cụ thể Ứng dụng) có thể thực hiện một cách hiệu quả các thuật toán cụ thể, chẳng hạn như SHA-256. Những lợi ích kinh tế khổng lồ mà Bitcoin mang lại cũng đã đẩy mạnh nhu cầu về sức mạnh tính toán trong việc đào tương quan. Tuy nhiên, thiết bị quá chuyên biệt và hiệu ứng cụm đã gây ra hiệu ứng ống hút giữa các bên tham gia của nó, dù họ là người đào hoặc nhà sản xuất máy đào. Tất cả đều cho thấy một xu hướng phát triển tập trung trọng vốn.

Với sự xuất hiện của hợp đồng thông minh của Ethereum, tính có thể lập trình, tính kết hợp và các tính năng khác đã tạo ra một loạt ứng dụng rộng lớn, đặc biệt là trong lĩnh vực DeFi, đã khiến giá ETH tăng liên tục, trong khi nó vẫn đang ở trong sự thống nhất PoW. Độ khó đào Ethereum ở giai đoạn này cũng đang tăng. Yêu cầu về khả năng tính toán của máy đào Ethereum của các thợ mỏ cũng ngày càng tăng. Tuy nhiên, khác với Bitcoin, sử dụng vi xử lý ASIC, Ethereum cần sử dụng đơn vị xử lý đồ họa (GPU) cho các tính toán đào, như dòng Nvidia RTX. Điều này làm cho phần cứng tính toán chung tham gia được hơn. Điều này thậm chí đã gây ra cuộc cạnh tranh thị trường cho GPU, khiến cho các card đồ họa cao cấp trên thị trường bị thiếu hàng.

Khi đến ngày 30 tháng 11 năm 2022, ChatGPT được phát triển bởi OpenAI cũng đã chứng minh sự quan trọng đột phá trong lĩnh vực trí tuệ nhân tạo. Người dùng ngạc nhiên trước trải nghiệm mới mẻ mà ChatGPT mang lại, có thể hoàn thành các nhiệm vụ do người dùng đề xuất dựa trên ngữ cảnh giống như một người thật. Yêu cầu. Trong phiên bản mới ra mắt vào tháng 9 năm nay, trí tuệ sinh sáng thêm tính năng đa phương thức như giọng nói và hình ảnh đã mang trải nghiệm người dùng đến một giai đoạn mới.

Tuy nhiên, GPT4 tương ứng có hơn một nghìn tỷ tham số được liên quan đến việc huấn luyện mô hình trước và điều chỉnh tinh chỉnh sau đó. Đây là hai phần có nhu cầu cao nhất về sức mạnh tính toán trong lĩnh vực Trí tuệ nhân tạo. Trong giai đoạn huấn luyện trước, một lượng lớn văn bản được nghiên cứu để nắm bắt các mẫu ngôn ngữ, ngữ pháp và ngữ cảnh liên quan. Cho phép nó hiểu các mẫu ngôn ngữ để tạo ra văn bản trọn vẹn và có ngữ cảnh dựa trên đầu vào. Sau khi huấn luyện trước, GPT4 được điều chỉnh để tùy chỉnh tốt hơn với các loại nội dung hoặc phong cách cụ thể và cải thiện hiệu suất và chuyên môn hóa trong các kịch bản yêu cầu cụ thể.

Kể từ khi kiến trúc Transformer được áp dụng bởi GPT giới thiệu cơ chế tự chú ý, cơ chế này cho phép mô hình đồng thời chú ý đến mối quan hệ giữa các phần khác nhau của chuỗi khi xử lý chuỗi đầu vào. Do đó, nhu cầu về khả năng tính toán đã tăng mạnh. Đặc biệt khi xử lý các chuỗi dài, cần một lượng lớn tính toán song song và lưu trữ một lượng lớn điểm chú ý, điều này cũng đòi hỏi một lượng lớn bộ nhớ và khả năng truyền dữ liệu tốc độ cao. Các LLM phổ biến hiện nay với cùng kiến trúc có nhu cầu lớn về GPU hiệu suất cao, điều này cũng cho thấy rằng chi phí đầu tư trong lĩnh vực mô hình lớn AI là rất lớn. Theo ước lượng của SemiAnalysis liên quan, chi phí huấn luyện một mô hình GPT4 lên đến 63 triệu đô la. Để đạt được trải nghiệm tương tác tốt, GPT4 cũng cần đầu tư một lượng lớn khả năng tính toán trong các hoạt động hàng ngày để duy trì hoạt động hàng ngày của mình.

Phân loại phần cứng tính toán

Ở đây chúng ta cần hiểu rõ về các loại phần cứng khả năng tính toán chính hiện tại. Các kịch bản nhu cầu về khả năng tính toán có thể được xử lý bởi CPU, GPU, FPGA và ASIC tương ứng.

• Từ sơ đồ kiến trúc của CPU và GPU, GPU chứa nhiều lõi hơn, giúp GPU xử lý nhiều nhiệm vụ tính toán cùng một lúc. Tính toán song song có khả năng xử lý mạnh mẽ và thích hợp để xử lý một lượng lớn các nhiệm vụ tính toán, nên trong lĩnh vực học máy và học sâu đã được sử dụng rộng rãi. CPU có ít lõi hơn và thích hợp để xử lý một phép tính phức tạp hoặc nhiệm vụ chuỗi một cách tập trung hơn, nhưng không hiệu quả bằng GPU khi xử lý các nhiệm vụ tính toán song song. Trong các nhiệm vụ kết xuất và nhiệm vụ tính toán mạng nơ-ron, thường cần xử lý một lượng lớn các phép tính lặp đi lặp lại và tính toán song song, vì vậy GPU hiệu quả hơn và phù hợp hơn CPU trong khía cạnh này.

• FPGA (Field Programmable Gate Array) là một mạch bán tùy chỉnh nằm trong lĩnh vực vi mạch tích hợp cụ thể ứng dụng (ASIC). Một mảng bao gồm một số lượng lớn các đơn vị xử lý nhỏ, FPGA có thể hiểu là một vi chip tích hợp mạch logic kỹ thuật số có thể lập trình được. Ứng dụng hiện tại chủ yếu tập trung vào tăng tốc phần cứng, và các nhiệm vụ khác vẫn được hoàn thành trên CPU, cho phép FPGA và CPU làm việc cùng nhau.

• ASIC (Mạch tích hợp cụ thể theo ứng dụng) đề cập đến một mạch tích hợp được thiết kế để đáp ứng yêu cầu cụ thể của người dùng và nhu cầu của các hệ thống điện tử cụ thể. So với vi mạch tích hợp đa dụng, ASIC có những ưu điểm như kích thước nhỏ hơn, tiêu thụ điện năng thấp hơn, độ tin cậy cao hơn, hiệu suất cải thiện, tính bảo mật tăng cường và giảm chi phí trong quá trình sản xuất hàng loạt. Do đó, trong kịch bản cố hữu của việc đào Bitcoin, chỉ cần thực hiện các nhiệm vụ tính toán cụ thể, ASIC là phù hợp nhất. Google cũng đã tung ra một TPU (Đơn vị Xử lý Tensor) được thiết kế đặc biệt cho học máy như một loại ASIC, nhưng hiện tại nó chủ yếu cung cấp dịch vụ cho thuê khả năng tính toán thông qua Google Cloud.

• ASIC so với FPGA, ASIC là một mạch tích hợp dành riêng cho ứng dụng và mạch tích hợp được cố định sau khi thiết kế hoàn thành. FPGA tích hợp một số lượng lớn các cổng mạch kỹ thuật số cơ bản và bộ nhớ vào mảng. Các nhà phát triển có thể xác định mạch bằng cách lập trình cấu hình FPGA và lập trình này có thể thay thế được. Tuy nhiên, với tốc độ cập nhật hiện tại trong lĩnh vực AI, các chip tùy chỉnh hoặc bán tùy chỉnh không thể được điều chỉnh và cấu hình lại kịp thời để thực hiện các tác vụ khác nhau hoặc thích ứng với các thuật toán mới. Do đó, khả năng thích ứng chung và tính linh hoạt của GPU khiến nó tỏa sáng trong lĩnh vực AI. Các nhà sản xuất GPU lớn cũng đã thực hiện các tối ưu hóa có liên quan để thích ứng với GPU trong lĩnh vực AI. Lấy Nvidia làm ví dụ, hãng đã ra mắt dòng Tesla và GPU kiến trúc Ampere được thiết kế đặc biệt cho deep learning. Phần cứng này chứa các đơn vị phần cứng (Tensor Cores) được tối ưu hóa cho các tính toán học máy và học sâu, cho phép GPU hoạt động hiệu quả và hiệu quả hơn. Tiêu thụ năng lượng thấp để thực hiện truyền bá tiến và lùi của mạng lưới thần kinh. Ngoài ra, một loạt các công cụ và thư viện được cung cấp để hỗ trợ phát triển AI, chẳng hạn như CUDA (Compute Unified Device Architecture) để giúp các nhà phát triển sử dụng GPU cho điện toán song song đa năng.

Khả năng tính toán phi tập trung

Khả năng tính toán phi tập trung đề cập đến phương pháp cung cấp sức mạnh xử lý thông qua tài nguyên tính toán phân tán. Phương pháp phi tập trung này thường được kết hợp với công nghệ blockchain hoặc công nghệ sổ cái phân tán tương tự để tổng hợp tài nguyên tính toán không sử dụng và phân phối chúng cho người dùng cần để đạt được việc chia sẻ tài nguyên, giao dịch và quản lý.

Nền tảng

• Nhu cầu phần cứng tính toán mạnh mẽ. Sự thịnh vượng của nền kinh tế sáng tạo đã đưa xử lý phương tiện truyền thông số vào một thời đại của sự sáng tạo phổ quát. Nhu cầu về kỹ thuật hình ảnh đã tăng mạnh, và các studio dịch vụ kỹ thuật hình ảnh, nền tảng dịch vụ kỹ thuật hình ảnh đám mây và các hình thức khác đã nổi lên. Tuy nhiên, cách tiếp cận này cũng đòi hỏi bạn phải đầu tư một khoản tiền lớn cho việc tậu phần cứng tính toán sớm đầu tư vào phần cứng tính toán.

• Phần cứng khả năng tính toán đến từ một nguồn duy nhất. Sự phát triển của lĩnh vực Trí tuệ nhân tạo đã làm tăng cường nhu cầu về phần cứng tính toán. Các công ty sản xuất GPU hàng đầu thế giới, dẫn đầu bởi Nvidia, đã kiếm được nhiều tiền trong cuộc cạnh tranh về khả năng tính toán AI này. Khả năng cung ứng của họ đã trở thành một yếu tố chính có thể hạn chế sự phát triển của một ngành công nghiệp nhất định. Giá trị thị trường của Nvidia cũng vượt quá mốc một nghìn tỷ đô la Mỹ lần đầu tiên trong năm nay.

• Việc cung cấp khả năng tính toán vẫn chủ yếu dựa vào các nền tảng đám mây tập trung. Điều thực sự được hưởng lợi từ sự tăng vọt trong nhu cầu về tính toán hiệu suất cao là các nhà cung cấp đám mây tập trung như AWS. Họ đã tung ra dịch vụ tính toán đám mây GPU. Lấy dịch vụ tính toán đám mây AWS p4d.24xlarge hiện tại làm ví dụ, thuê Một máy chủ HPC chuyên về ML như vậy, chứa tám GPU Nvidia A100 40GB, có giá 32,8 đô la Mỹ mỗi giờ, và biên lợi nhuận gộp ước tính là 61%. Điều này cũng đã khiến các ông lớn đám mây khác vội vàng tham gia và tích trữ phần cứng để có được nhiều lợi thế nhất có thể trong giai đoạn đầu của sự phát triển của ngành công nghiệp.

• Sự can thiệp chính trị, con người và các yếu tố khác dẫn đến sự phát triển không đồng đều của ngành công nghiệp. Sự mất cân đối Không khó nhận thấy rằng sở hữu và tập trung của GPU đang nghiêng về các tổ chức và quốc gia có nguồn vốn và công nghệ dồi dào hơn, và phụ thuộc vào các cụm máy tính hiệu suất cao. Điều này đã khiến cho các quyền lực sản xuất chip và bán dẫn đại diện của Hoa Kỳ cũng áp đặt hạn chế nghiêm ngặt hơn đối với việc xuất khẩu chip AI để làm suy yếu khả năng nghiên cứu của các quốc gia khác trong lĩnh vực trí tuệ nhân tạo tổng quát.

• Phân bổ tài nguyên khả năng tính toán quá tập trung. Sáng kiến phát triển trong lĩnh vực AI đang nằm trong tay của một số công ty khổng lồ. Hiện nay, các ông lớn do OpenAI đại diện được Microsoft ủy thác, và sau họ là các tài nguyên tính toán giàu có được Microsoft Azure cung cấp. Điều này khiến cho mỗi lần OpenAI tung ra sản phẩm mới là một quá trình tái hình và tích hợp ngành công nghiệp AI hiện tại, làm cho các đội khác gặp khó khăn trong việc theo kịp trong lĩnh vực mô hình lớn.

Vậy trước chi phí phần cứng cao, hạn chế địa lý và sự phát triển không đồng đều của ngành công nghiệp, liệu có các giải pháp khác không?

Nền tảng khả năng tính toán phi tập trung đã xuất hiện khi thời đại yêu cầu. Mục đích của nền tảng là tạo ra một thị trường mở, minh bạch và tự điều chỉnh để sử dụng hiệu quả hơn tài nguyên tính toán toàn cầu.

phân tích thích nghi

  1. Mạng cung cấp khả năng tính toán phi tập trung

Giá cả phần cứng cao hiện nay và việc kiểm soát nhân tạo từ phía cung ứng đã tạo điều kiện cho việc xây dựng các mạng lưới khả năng tính toán phi tập trung.

• Từ quan điểm về cấu trúc của sức mạnh tính toán phi tập trung, các nhà cung cấp sức mạnh tính toán đa dạng từ các máy tính cá nhân đến các Thiết bị Internet of Things nhỏ đến các trung tâm dữ liệu, IDC, v.v., và sức mạnh tính toán tích luỹ có thể cung cấp các giải pháp tính toán linh hoạt và có khả năng mở rộng hơn, qua đó giúp các nhà phát triển trí tuệ nhân tạo và tổ chức sử dụng hiệu quả hơn tài nguyên hạn chế. Chia sẻ sức mạnh tính toán phi tập trung có thể được thực hiện thông qua sức mạnh tính toán không hoạt động của cá nhân hoặc tổ chức. Tuy nhiên, tính sẵn có và ổn định của sức mạnh tính toán này phụ thuộc vào các ràng buộc sử dụng của người dùng hoặc giới hạn chia sẻ.

• Nguồn tiềm năng có thể có của sức mạnh tính toán chất lượng cao là sức mạnh tính toán được cung cấp trực tiếp bởi việc chuyển đổi các mỏ có liên quan sau khi Ethereum được chuyển đổi thành PoS. nguồn nhân lực. Lấy Coreweave, nhà cung cấp sức mạnh tính toán tích hợp GPU hàng đầu tại Hoa Kỳ, làm ví dụ. Nó trước đây là trang trại khai thác Ethereum lớn nhất ở Bắc Mỹ và dựa trên cơ sở hạ tầng hoàn chỉnh đã được xây dựng. Ngoài ra, các máy khai thác Ethereum đã nghỉ hưu cũng chứa một số lượng lớn GPU nhàn rỗi. Được biết, có khoảng 27 triệu GPU hoạt động trực tuyến vào thời kỳ đỉnh cao của kỷ nguyên khai thác Ethereum. Hồi sinh các GPU này cũng có thể trở thành một phần quan trọng của mạng lưới điện toán phi tập trung. nguồn sức mạnh tính toán.

  1. Yêu cầu khả năng tính toán phi tập trung từ phía người dùng

• Từ quan điểm triển khai kỹ thuật, các nguồn lực tính toán phi tập trung được sử dụng trong việc kết xuất đồ họa và chuyển đổi video. Các tính toán như vậy phức tạp. Đối với các nhiệm vụ cấp thấp, hệ thống kinh tế kết hợp công nghệ blockchain và web3 có thể mang lại động lực thu nhập cụ thể cho các thành viên mạng và tích luỹ mô hình kinh doanh và nhóm khách hàng hiệu quả trong khi đảm bảo việc truyền thông tin dữ liệu an toàn. Lĩnh vực trí tuệ nhân tạo liên quan đến một lượng lớn tính toán song song, giao tiếp và đồng bộ hóa giữa các nút, và có yêu cầu rất cao về môi trường mạng và các khía cạnh khác. Do đó, các ứng dụng hiện nay cũng tập trung vào việc điều chỉnh tinh chỉnh, suy diễn, AIGC và các tầng ứng dụng khác.

• Từ góc độ logic kinh doanh, một thị trường đơn giản chỉ mua bán khả năng tính toán thiếu sự tưởng tượng, và ngành công nghiệp chỉ có thể xử lý chuỗi cung ứng và giá cả. Chiến lược, nhưng những điều này lại là ưu điểm của các dịch vụ đám mây tập trung. Do đó, tầm cao của thị trường thấp và không có chỗ cho sự tưởng tượng nhiều hơn, vì vậy chúng ta cũng có thể thấy rằng các mạng ban đầu chỉ thực hiện việc hiển thị đồ họa đơn giản đang tìm kiếm sự biến đổi AI. Ví dụ, Render Network và Q1 năm 2023 cũng đã ra mắt một bộ công cụ Stabilitity AI tích hợp native, mà người dùng có thể Sử dụng chức năng này giới thiệu các hoạt động Diffusion Ổn định, và doanh nghiệp không còn bị hạn chế trong các hoạt động hiển thị mà mở rộng ra lĩnh vực AI.

• Từ quan điểm của các nhóm khách hàng chính, rõ ràng là khách hàng B-side lớn sẽ thích các dịch vụ đám mây tích hợp tập trung. Họ thường có đủ ngân sách, họ thường tham gia vào việc phát triển các mô hình cơ bản lớn và yêu cầu một hình thức tổng hợp sức mạnh tính toán hiệu quả hơn; Do đó, sức mạnh tính toán phi tập trung phục vụ nhiều nhóm hoặc cá nhân phát triển vừa và nhỏ hơn và chủ yếu tham gia vào việc tinh chỉnh mô hình. Hoặc phát triển lớp ứng dụng, không có yêu cầu cao về hình thức sức mạnh tính toán được cung cấp. Họ nhạy cảm hơn với giá cả. Sức mạnh tính toán phi tập trung về cơ bản có thể làm giảm đầu tư chi phí ban đầu, do đó chi phí sử dụng tổng thể cũng thấp hơn. Dựa trên chi phí được tính toán trước đó bởi Gensyn, sức mạnh tính toán được chuyển đổi thành giá trị tương đương do V100 cung cấp. Về sức mạnh tính toán, giá của Gensyn chỉ là 0,4 USD mỗi giờ, thấp hơn 80% so với sức mạnh tính toán tương đương của AWS là 2 USD mỗi giờ. Mặc dù mảng kinh doanh này không chiếm phần lớn chi tiêu trong ngành hiện tại, nhưng khi các kịch bản sử dụng ứng dụng AI tiếp tục mở rộng, quy mô thị trường trong tương lai không thể đánh giá thấp.

• Từ góc độ của các dịch vụ được cung cấp, có thể thấy rằng dự án hiện tại giống hơn với khái niệm của một nền tảng đám mây phi tập trung, cung cấp một bộ quản lý đầy đủ từ phát triển, triển khai, trực tuyến, phân phối và giao dịch. Ưu điểm của điều này là thu hút các nhà phát triển, họ có thể sử dụng các thành phần công cụ liên quan để đơn giản hóa phát triển và triển khai và nâng cao hiệu quả; đồng thời, nó cũng có thể thu hút người dùng sử dụng những sản phẩm ứng dụng hoàn chỉnh này trên nền tảng, tạo ra một bức tường vệ sinh sinh thái dựa trên mạng lưới khả năng tính toán của mình. Nhưng điều này cũng đặt ra yêu cầu cao hơn đối với hoạt động dự án. Làm thế nào để thu hút các nhà phát triển và người dùng xuất sắc và đạt được sự giữ chân là đặc biệt quan trọng.

Ứng dụng trong các lĩnh vực khác nhau

1. Xử lý Phương tiện Truyền thông Số

Mạng lưới Render Một nền tảng rendering toàn cầu dựa trên blockchain, mục tiêu của nó là giúp các nhà sáng tạo với sự sáng tạo kỹ thuật số. Nó cho phép các nhà sáng tạo mở rộng công việc rendering GPU đến các nút GPU toàn cầu theo yêu cầu, cung cấp khả năng rendering nhanh hơn và rẻ hơn. Sau khi nhà sáng tạo xác nhận kết quả rendering, mạng lưới blockchain gửi mã đến nút. Thưởng tiền xu. So với các phương pháp triển khai hiệu ứng hình ảnh truyền thống, việc thiết lập cơ sở hạ tầng rendering địa phương hoặc thêm chi phí GPU tương ứng vào dịch vụ đám mây đã mua yêu cầu đầu tư ban đầu cao.

Kể từ khi thành lập vào năm 2017, người dùng Mạng Render đã tạo ra hơn 16 triệu khung hình và gần 500.000 cảnh trên mạng. Dữ liệu được công bố từ Render Network 2023 Q2 cũng cho thấy cả số lượng công việc khung hình được dựng và số lượng nút hoạt động đều đang tăng. Ngoài ra, Mạng Render và 2023 Q1 cũng đã ra mắt bộ công cụ Stabilit AI tích hợp một cách tự nhiên. Người dùng có thể sử dụng chức năng này để giới thiệu các hoạt động Diffusion ổn định, và doanh nghiệp không còn bị giới hạn chỉ trong các hoạt động dựng và mở rộng ra lĩnh vực AI.

Livepeer cung cấp dịch vụ chuyển đổi video thời gian thực cho các nhà sáng tạo thông qua các thành viên mạng đóng góp sức mạnh tính toán GPU và băng thông của họ. Người phát sóng có thể hoàn thành việc chuyển đổi các loại video bằng cách gửi video đến Livepeer và phân phối chúng cho các người dùng cuối khác nhau, từ đó thực hiện việc phổ biến nội dung video. Đồng thời, bạn có thể dễ dàng thanh toán bằng tiền tệ hợp pháp để có được các dịch vụ như chuyển đổi video, truyền tải và lưu trữ.

Trong mạng Livepeer, bất kỳ ai cũng được phép đóng góp tài nguyên máy tính cá nhân (CPU, GPU và băng thông) để chuyển mã và phân phối video để kiếm phí. Token bản địa (LPT) đại diện cho quyền lợi của các thành viên mạng trong mạng. Số lượng token cam kết xác định trọng lượng của nút trong mạng, ảnh hưởng đến khả năng của nó trong việc nhận nhiệm vụ chuyển mã. Đồng thời, LPT cũng đóng vai trò hướng dẫn các nút hoàn thành nhiệm vụ được giao một cách an toàn, đáng tin cậy và nhanh chóng.

2. Triển lãm AIarea

Trong hệ sinh thái hiện tại trong lĩnh vực trí tuệ nhân tạo, những người chơi chính có thể được chia thành khoảng cách:

Bắt đầu từ phía yêu cầu, có sự khác biệt rõ ràng trong nhu cầu về khả năng tính toán ở các giai đoạn khác nhau của ngành công nghiệp. Lấy việc phát triển mô hình cơ bản làm ví dụ, quá trình tiền huấn luyện đòi hỏi khả năng tính toán song song, lưu trữ, giao tiếp, v.v. rất cao để đảm bảo hiệu quả của kết quả huấn luyện. Điều này đòi hỏi một cụm khả năng tính toán lớn để hoàn thành các nhiệm vụ liên quan. Hiện nay, nguồn cung chính của khả năng tính toán chủ yếu dựa vào các phòng máy tính tự xây dựng và các nền tảng dịch vụ đám mây tập trung. Ở các giai đoạn sau của việc điều chỉnh mô hình, lý do thời gian thực và phát triển ứng dụng, yêu cầu về tính toán song song và giao tiếp giữa các nút không còn cao. Đây chính là nơi mà khả năng tính toán phi tập trung có thể thể hiện toàn bộ tiềm năng của mình.

Nhìn vào các dự án đã thu hút sự quan tâm lớn trước đó, Akash Nework đã thực hiện một số thử nghiệm trong hướng của khả năng tính toán phi tập trung:

Akash Network kết hợp các thành phần công nghệ khác nhau để cho phép người dùng triển khai và quản lý các ứng dụng một cách hiệu quả và linh hoạt trong môi trường đám mây phi tập trung. Người dùng có thể sử dụng công nghệ container Docker để đóng gói ứng dụng, sau đó triển khai và mở rộng quy mô thông qua Kubernetes thông qua CloudMOS trên tài nguyên đám mây do Akash cung cấp. Akash sử dụng cách tiếp cận "đấu giá ngược", làm cho giá thấp hơn các dịch vụ đám mây truyền thống.

Akash Network cũng đã công bố vào tháng 8 năm nay rằng họ sẽ triển khai bản nâng cấp thứ sáu của mạng chính của mình, tích hợp hỗ trợ cho GPUs vào dịch vụ đám mây của mình, và cung cấp khả năng tính toán cho nhiều đội AI hơn trong tương lai.

Gensyn.ai, một dự án đã thu hút rất nhiều sự chú ý trong ngành năm nay, do a16z dẫn đầu và hoàn thành một vòng gọi vốn Series A trị giá 43 triệu đô la Mỹ. Dựa vào những tài liệu đã phát hành cho đến nay, dự án này là mạng chính dựa trên giao thức L1 PoS của mạng Polkadot, tập trung vào học sâu. Mục tiêu của dự án là đẩy ranh giới của học máy bằng cách tạo ra một mạng lưới siêu máy tính toàn cầu. Mạng này kết nối các thiết bị từ các trung tâm dữ liệu có khả năng tính toán dư thừa đến các máy tính cá nhân có thể đóng góp GPU cá nhân, ASIC tùy chỉnh và SoC.

Để giải quyết một số vấn đề hiện đang tồn tại trong khả năng tính toán phân tán, Gensyn dựa vào một số kết quả nghiên cứu lý thuyết mới trong giới học thuật:

  1. Áp dụng chứng minh học xác suất, tức là sử dụng dữ liệu siêu dữ liệu của quá trình tối ưu hóa dựa trên độ dốc để xây dựng chứng minh về việc thực hiện nhiệm vụ liên quan để tăng tốc quá trình xác minh;

  2. GPP dựa trên đồ thị, phục vụ như một cái cầu, kết nối việc thực thi ngoại tuyến của DNN (Mạng Nơ-ron Sâu) và khung hợp đồng thông minh trên blockchain, giải quyết các không nhất quán mà dễ dàng xảy ra trên các thiết bị phần cứng, và đảm bảo tính nhất quán của việc xác minh.

  3. Một phương pháp khuyến khích tương tự như Truebit, thông qua sự kết hợp của việc đặt cược và hình phạt, thiết lập một hệ thống khuyến khích cho phép các bên tham gia kinh tế một cách hợp lý thực hiện công việc được giao một cách trung thực. Cơ chế này sử dụng mật mã và phương pháp lý thuyết trò chơi. Hệ thống xác minh này là cần thiết để duy trì tính toàn vẹn và đáng tin cậy của các phép tính đào tạo mô hình lớn.

Tuy nhiên, đáng chú ý rằng nội dung trên hơn là về việc giải quyết mức độ xác minh hoàn thành nhiệm vụ, thay vì sức mạnh tính toán phân tán để đạt được các chức năng huấn luyện mô hình là điểm nổi bật chính trong tài liệu dự án, đặc biệt về tính toán song song và Tối ưu hóa phân tán của giao tiếp, đồng bộ hóa và các vấn đề khác giữa phần cứng. Hiện nay, do độ trễ mạng (Độ trễ) và băng thông (Băng thông), việc giao tiếp thường xuyên giữa các nút sẽ tăng thời gian lặp và chi phí giao tiếp. Điều này không chỉ không đem lại tối ưu thực tế, mà còn làm giảm hiệu suất huấn luyện. Phương pháp của Gensyn trong xử lý giao tiếp nút và tính toán song song trong huấn luyện mô hình có thể liên quan đến giao thức phối hợp phức tạp để quản lý tính phân tán của tính toán. Tuy nhiên, nếu thiếu thông tin kỹ thuật cụ thể hơn hoặc không hiểu rõ về các phương pháp cụ thể của họ, cơ chế chính xác mà Gensyn đạt được huấn luyện mô hình quy mô lớn thông qua mạng của mình sẽ không thể được tiết lộ cho đến khi dự án ra mắt thực sự.

Chúng tôi cũng chú ý đến giao thức Edge Matrix Computing (EMC) sử dụng công nghệ blockchain để áp dụng khả năng tính toán vào trí tuệ nhân tạo, kỹ thuật dựng hình và nghiên cứu khoa học. , Truy cập thương mại điện tử trí tuệ nhân tạo và các loại kịch bản khác, nhiệm vụ được phân phối đến các nút khả năng tính toán khác nhau thông qua tính toán co giãn. Phương pháp này không chỉ cải thiện hiệu quả của khả năng tính toán, mà còn đảm bảo an toàn của việc truyền dữ liệu. Đồng thời, nó cung cấp một thị trường khả năng tính toán nơi người dùng có thể truy cập và trao đổi tài nguyên tính toán. Nó thuận tiện cho các nhà phát triển triển khai và đạt được người dùng nhanh hơn. Kết hợp với hình thức kinh tế Web3, các nhà cung cấp khả năng tính toán cũng có thể nhận được lợi ích thực sự và các khoản trợ cấp của bên giao thức dựa trên việc sử dụng thực tế của người dùng, và các nhà phát triển trí tuệ nhân tạo cũng có thể nhận được chi phí suy luận và dựng hình thấp hơn. Dưới đây là tổng quan về các thành phần và chức năng chính của nó:

Dự kiến sẽ có các sản phẩm RWA dựa trên GPU được ra mắt. Chìa khóa của việc này là tái tạo phần cứng ban đầu được cố định trong phòng máy tính và chia nhỏ và lưu thông nó dưới dạng RWA để có thêm thanh khoản. GPU chất lượng cao có thể được sử dụng làm tài sản cơ bản của RWA. Lý do là khả năng tính toán có thể được coi là tiền mặt cứng trong lĩnh vực AI. Hiện nay, có một mâu thuẫn rõ ràng giữa cung và cầu, và mâu thuẫn này không thể được giải quyết trong tương lai ngắn, vì vậy giá của GPU tương đối ổn định.

Ngoài ra, triển khai cụm khả năng tính toán bằng cách triển khai các phòng máy tính IDC cũng là một phần quan trọng của giao thức EMC. Điều này không chỉ cho phép các GPU hoạt động trong môi trường thống nhất, mà còn xử lý hiệu quả hơn các nhiệm vụ tiêu tốn khả năng tính toán quy mô lớn liên quan, chẳng hạn như việc tiền huấn luyện mô hình. Điều này đáp ứng nhu cầu của người dùng chuyên nghiệp. Đồng thời, phòng máy tính IDC cũng có thể tập trung chủ hosting và chạy một lượng lớn GPU để đảm bảo các thông số kỹ thuật của phần cứng cùng loại chất lượng cao, từ đó dễ dàng đóng gói chúng vào thị trường dưới dạng sản phẩm RWA và mở ra những ý tưởng mới cho DeFi.

Trong những năm gần đây, cộng đồng học thuật cũng đã phát triển các lý thuyết kỹ thuật mới và thực hành ứng dụng trong lĩnh vực tính toán Edge. Là một phần bổ sung và tối ưu hóa của đám mây, tính toán Edge là một phần của trí tuệ nhân tạo đang tăng tốc từ đám mây đến lớp edge và vào các thiết bị IoT ngày càng nhỏ hơn. Các thiết bị IoT này thường nhỏ gọn, vì vậy học máy nhẹ được ưa chuộng để đáp ứng các vấn đề như tiêu thụ năng lượng, độ trễ và độ chính xác.

Network3 được xây dựng bằng cách xây dựng một AI Layer2 chuyên dụng để cung cấp cho các nhà phát triển AI trên toàn thế giới tối ưu hóa và nén thuật toán mô hình AI, học liên kết, điện toán biên và điện toán quyền riêng tư. Cung cấp dịch vụ giúp họ đào tạo hoặc xác minh mô hình một cách nhanh chóng, thuận tiện và hiệu quả. Bằng cách sử dụng một số lượng lớn các thiết bị phần cứng IoT thông minh, nó có thể tập trung vào các mô hình nhỏ để cung cấp sức mạnh tính toán tương ứng và bằng cách xây dựng TEE (Môi trường thực thi đáng tin cậy), người dùng chỉ có thể hoàn thành đào tạo có liên quan bằng cách tải lên các gradient mô hình để đảm bảo quyền riêng tư và bảo mật dữ liệu liên quan đến người dùng.

Tóm lại

• Với sự phát triển của trí tuệ nhân tạo và các lĩnh vực khác, nhiều ngành công nghiệp sẽ trải qua những thay đổi lớn trong logic cơ bản của họ, khả năng tính toán sẽ nổi lên vị trí quan trọng hơn, và các khía cạnh liên quan đến nó cũng sẽ gây ra sự khám phá mở rộ trong ngành công nghiệp. Các mạng lưới khả năng tính toán phi tập trung có những ưu điểm riêng có thể giảm thiểu nguy cơ tập trung và cũng có thể phục vụ như một bổ sung cho khả năng tính toán tập trung.

• Và các nhóm trong lĩnh vực trí tuệ nhân tạo cũng đang đứng trước một ngã rẽ. Việc lựa chọn giữa việc sử dụng các mô hình huấn luyện lớn để xây dựng sản phẩm của riêng họ hoặc tham gia huấn luyện các mô hình lớn tại các khu vực riêng của họ chủ yếu là phân biệt biện pháp. Do đó, khả năng tính toán phi tập trung có thể đáp ứng các nhu cầu kinh doanh khác nhau. Xu hướng phát triển này được chào đón, và với việc cập nhật công nghệ và lặp đi lặp lại các thuật toán, sẽ không thể tránh khỏi những đột phá trong các lĩnh vực chính.

• Đừng sợ, chỉ cần từ từ tìm hiểu là được.

Tham khảo

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/một-tổng-quan-về-mạng-livepeer-và-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

Tuyên bố từ chối trách nhiệm:

  1. Bài viết này được tái bản từ [PANews]. All copyrights belong to the original author [Khuôn viên Future3]. Nếu có ý kiến ​​phản đối về việc tái in này, vui lòng liên hệ với Gate Họcđội, và họ sẽ xử lý nhanh chóng.
  2. Miễn trừ trách nhiệm: Các quan điểm và ý kiến được thể hiện trong bài viết này chỉ thuộc về tác giả và không hình thành bất kỳ lời khuyên đầu tư nào.
  3. Bản dịch của bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm Gate Learn. Trừ khi được đề cập, việc sao chép, phân phối hoặc đạo văn các bài viết dịch là không được phép.
即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!