Phi tập trung AI đào tạo của những khám phá tiên phong: Từ tập trung đến con đường tiến hóa phân tán

Chén thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung

Trong toàn bộ chuỗi giá trị AI, huấn luyện mô hình là khâu tiêu tốn tài nguyên lớn nhất và có rào cản kỹ thuật cao nhất, trực tiếp quyết định khả năng tối đa của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn nhẹ nhàng, quá trình huấn luyện cần đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, là "ngành công nghiệp nặng" thực sự trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học tập liên bang và huấn luyện phi tập trung, mà bài viết này sẽ tập trung thảo luận.

Cốc thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung

Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức đơn lẻ trong một cụm hiệu suất cao tại địa phương, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được phối hợp hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc hợp tác sâu này cho phép chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với ưu điểm hiệu quả cao, tài nguyên có thể kiểm soát, nhưng cùng lúc đó cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.

Đào tạo phân tán là phương pháp chính hiện nay để đào tạo các mô hình lớn, cốt lõi của nó là phân chia nhiệm vụ đào tạo mô hình và phân phối đến nhiều máy để thực hiện phối hợp, nhằm vượt qua các hạn chế về tính toán và lưu trữ của một máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn do các tổ chức tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, mà nút chính phối hợp thống nhất các nhiệm vụ con. Các phương pháp chính bao gồm:

  • Dữ liệu song song: Mỗi nút đào tạo các tham số dữ liệu khác nhau, chia sẻ trọng số mô hình, cần phải khớp.
  • Mô hình song song: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ.
  • Ống dẫn song song: Thực hiện tuần tự theo giai đoạn, nâng cao tỷ lệ thông lượng
  • Phân đoạn tensor: chia nhỏ tính toán ma trận, nâng cao độ phân giải song song

Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu hết các mô hình lớn phổ biến đều được hoàn thành huấn luyện theo cách này.

Phi tập trung đào tạo thì đại diện cho một con đường tương lai có tính mở và khả năng chống kiểm duyệt cao hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) hợp tác hoàn thành nhiệm vụ đào tạo mà không cần một bộ điều phối trung tâm, thường thông qua các giao thức để điều phối phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:

  • Khó khăn trong việc phân tách và đồng bộ thiết bị: Khó khăn trong việc phối hợp thiết bị phi tập trung, hiệu quả phân tách nhiệm vụ thấp.
  • Thách thức về hiệu suất giao tiếp: Giao tiếp mạng không ổn định, rõ ràng là có rào cản trong việc đồng bộ hóa độ dốc.
  • Thiếu khả năng thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không.
  • Thiếu sự phối hợp thống nhất: không có bộ điều phối trung ương, việc phân phối nhiệm vụ và cơ chế hoàn tác bất thường phức tạp.

Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, bảo mật mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả đúng đắn" vẫn đang trong giai đoạn khám phá mẫu nguyên mẫu sớm.

Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại chỗ và tập hợp các tham số mô hình, thích hợp cho các tình huống chú trọng tới sự tuân thủ quyền riêng tư như y tế, tài chính. Học liên bang có cấu trúc kỹ thuật của việc đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời cũng có lợi thế về dữ liệu phân tán của việc đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên điều phối đáng tin cậy và không có đặc tính hoàn toàn mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp tương đối ôn hòa, phù hợp hơn cho việc triển khai chuyển tiếp trong ngành công nghiệp.

Cúp thánh của Crypto AI: Khám phá tiên tiến về đào tạo Phi tập trung

Phi tập trung đào tạo các ranh giới, cơ hội và con đường thực tế

Từ góc độ mô hình huấn luyện, huấn luyện phi tập trung không phù hợp cho tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên cực kỳ cao hoặc độ khó hợp tác lớn, nó không tự nhiên phù hợp để hoàn thành hiệu quả giữa các nút dị thể và không cần tin cậy. Ví dụ, huấn luyện mô hình lớn thường phụ thuộc vào bộ nhớ video cao, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ hiệu quả trong mạng mở; nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh bị hạn chế bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi nhiệm vụ thiếu cơ sở khuyến khích hợp tác thì không có động lực tham gia bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của huấn luyện phi tập trung hiện nay.

Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau liên quan đến định hình hành vi như RLHF, DPO(, nhiệm vụ đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các tình huống đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có đặc điểm song song cao, liên kết thấp và khả năng dung thứ cho sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu hóa phân tán, v.v.

Phi tập trung đào tạo phân tích dự án kinh điển

Hiện tại, trong lĩnh vực đào tạo Phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá nguyên bản trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể nhìn thấy những tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI Phi tập trung.

) Prime Intellect: Huấn luyện theo dõi có thể xác minh của mạng hợp tác học tăng cường tiên phong

Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin tưởng, cho phép bất kỳ ai tham gia đào tạo và nhận phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, tính mở và cơ chế khuyến khích đầy đủ.

(# 01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun quan trọng

![Crypto AI的圣杯:Phi tập trung训练的前沿探索])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp###

02、Giải thích chi tiết về cơ chế đào tạo Prime Intellect

#PRIME-RL: Kiến trúc tác vụ học tăng cường phi tập trung không đồng bộ

PRIME-RL là khung mô hình và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho các mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng thích ứng ưu tiên, tách rời cấu trúc quy trình đào tạo, suy diễn và tải trọng lên, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ độc lập tại địa phương, và phối hợp với cơ chế xác minh và tổng hợp thông qua giao diện tiêu chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lập lịch trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.

#TOPLOC:Cơ chế xác thực hành vi đào tạo nhẹ

TOPLOC là cơ chế cốt lõi về khả năng xác minh được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ bằng cách phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo nhất quán cục bộ. Đây là lần đầu tiên chuyển đổi các quỹ đạo hành vi trong quá trình huấn luyện thành đối tượng có thể xác minh, là sự đổi mới then chốt để đạt được phân phối phần thưởng huấn luyện không cần tin cậy, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và khuyến khích.

#SHARDCAST: Giao thức tổng hợp và truyền bá trọng số bất đồng bộ

SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa đặc biệt cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi các cập nhật phần trong trạng thái không đồng bộ, thực hiện sự hội tụ trọng số dần dần và sự tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và quá trình đào tạo liên tục.

#OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt

OpenDiLoCo là một khung tối ưu hóa giao tiếp được đội ngũ Prime Intellect độc lập triển khai và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt để giải quyết những thách thức phổ biến trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên sự phân dữ liệu, bằng cách xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ dựa vào các nút láng giềng cục bộ để hoàn thành việc đào tạo mô hình đồng hợp tác. Kết hợp cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.

#PCCL: Thư viện giao tiếp hợp tác

PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các nút thắt trong việc thích ứng của các thư viện giao tiếp truyền thống trên các thiết bị khác nhau và mạng có băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi từ điểm dừng, có thể chạy trên GPU cấp tiêu dùng và các nút không ổn định, là thành phần cơ bản hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể khả năng chịu đựng băng thông của mạng đào tạo và tính tương thích của thiết bị, mở ra "km cuối cùng" của cơ sở hạ tầng giao tiếp cho việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.

(# 03、Prime Intellect khuyến khích mạng lưới và phân công vai trò

Prime Intellect xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:

  • Người khởi tạo nhiệm vụ: xác định môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác minh
  • Nút huấn luyện: Thực hiện huấn luyện cục bộ, nộp cập nhật trọng số và theo dõi quan sát
  • Node xác thực: Sử dụng cơ chế TOPLOC để xác thực tính xác thực của hành vi đào tạo và tham gia vào tính toán phần thưởng cũng như tổng hợp chiến lược.

Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số )SHARDCAST### và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực tế".

![Cúp thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung]###https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(

)# 04、INTELLECT-2: phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên

Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được huấn luyện thông qua sự hợp tác của các nút phi tập trung không cần tin cậy, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự phối hợp huấn luyện của hơn 100 nút GPU không đồng nhất trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian huấn luyện vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là sự hiện thực hóa đầu tiên của mô hình "huấn luyện chính là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như cấu trúc huấn luyện không đồng bộ PRIME-RL(, xác minh hành vi huấn luyện TOPLOC) và tổng hợp trọng số không đồng bộ SHARDCAST###, đánh dấu việc mạng lưới huấn luyện phi tập trung lần đầu tiên thực hiện huấn luyện.

PRIME-1.66%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 6
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
SquidTeachervip
· 07-27 10:26
Nhà tiên tri ai cũng khen hay!
Xem bản gốcTrả lời0
ShibaOnTheRunvip
· 07-25 02:34
Huấn luyện chó mới là chén thánh.
Xem bản gốcTrả lời0
LayoffMinervip
· 07-24 13:50
Đang đào thì bị tốt nghiệp.
Xem bản gốcTrả lời0
MemecoinTradervip
· 07-24 13:46
tăng giá về đào tạo AI phi tập trung... đã chuẩn bị túi của tôi cho làn sóng câu chuyện tiếp theo
Xem bản gốcTrả lời0
ChainChefvip
· 07-24 13:45
bruh, việc đào tạo AI này cần nhiều thời gian hơn để ủ... vẫn còn quá sống thật
Xem bản gốcTrả lời0
Lonely_Validatorvip
· 07-24 13:34
Chạy không kịp Top sàn giao dịch hóa nhỏ
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)