Sự kết hợp giữa AI và Blockchain: Từ công nghệ đến ứng dụng
Sự phát triển nhanh chóng của ngành trí tuệ nhân tạo gần đây được một số người coi là khởi đầu của cuộc cách mạng công nghiệp lần thứ tư. Sự xuất hiện của các mô hình ngôn ngữ lớn đã nâng cao đáng kể hiệu quả của các ngành khác nhau, ước tính giúp cải thiện khoảng 20% hiệu quả làm việc tổng thể tại Mỹ. Đồng thời, khả năng tổng quát mà các mô hình lớn mang lại được coi là một mô hình thiết kế phần mềm hoàn toàn mới. So với thiết kế mã chính xác trong quá khứ, phát triển phần mềm hiện nay chủ yếu là tích hợp các khung mô hình lớn có khả năng tổng quát mạnh mẽ vào phần mềm, giúp phần mềm có khả năng biểu đạt mạnh mẽ hơn và khả năng đầu vào đầu ra rộng rãi hơn. Công nghệ học sâu thực sự đã mang đến một làn sóng thịnh vượng mới cho ngành AI, và làn sóng này cũng dần lan rộng sang ngành tiền điện tử.
Báo cáo này sẽ khám phá chi tiết quá trình phát triển của ngành AI, phân loại công nghệ, cũng như tác động của việc phát minh ra công nghệ học sâu đối với ngành. Sau đó, sẽ phân tích sâu về tình hình và xu hướng phát triển của chuỗi công nghiệp liên quan đến GPU, điện toán đám mây, nguồn dữ liệu, thiết bị biên trong học sâu. Tiếp theo, sẽ khám phá bản chất mối quan hệ giữa ngành Crypto và AI, và đã tổng hợp lại cấu trúc chuỗi công nghiệp AI liên quan đến Crypto.
Lịch sử phát triển của ngành AI
Ngành AI bắt đầu từ những năm 1950, để hiện thực hóa tầm nhìn về trí tuệ nhân tạo, giới học thuật và công nghiệp đã phát triển nhiều trường phái khác nhau trong các bối cảnh kỷ nguyên và nền tảng học thuật khác nhau.
Công nghệ trí tuệ nhân tạo hiện đại chủ yếu sử dụng thuật ngữ "học máy", với ý tưởng cốt lõi là cho phép máy móc dựa vào dữ liệu để lặp đi lặp lại trong các nhiệm vụ nhằm cải thiện hiệu suất hệ thống. Các bước chính là đưa dữ liệu vào thuật toán, sử dụng dữ liệu này để huấn luyện mô hình, thử nghiệm mô hình đã triển khai, và sử dụng mô hình để hoàn thành các nhiệm vụ dự đoán tự động.
Hiện nay, máy học có ba trường phái chính, lần lượt là liên kết, biểu tượng và hành vi, mô phỏng hệ thần kinh, tư duy và hành động của con người.
Hiện tại, chủ nghĩa liên kết đại diện cho mạng nơ-ron đang chiếm ưu thế ( cũng được gọi là học sâu ), lý do chính là vì kiến trúc này có một lớp đầu vào, một lớp đầu ra, nhưng có nhiều lớp ẩn. Khi số lượng lớp và số lượng tham số nơ-ron ( đủ lớn, sẽ có đủ cơ hội để phù hợp với các nhiệm vụ phức tạp chung. Thông qua việc nhập dữ liệu, có thể điều chỉnh liên tục các tham số của nơ-ron, cuối cùng trải qua nhiều dữ liệu, nơ-ron đó sẽ đạt được trạng thái tối ưu ) tham số (, đây cũng chính là nguồn gốc của thuật ngữ "sâu" - đủ số lượng lớp và nơ-ron.
![Người mới phổ cập丨AI x Crypto:Từ số không đến đỉnh cao])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Và dựa trên công nghệ học sâu của mạng nơ-ron, cũng có nhiều vòng lặp và tiến hóa công nghệ, từ mạng nơ-ron đầu tiên, đến mạng nơ-ron hồi tiếp, RNN, CNN, GAN cuối cùng tiến hóa đến các mô hình lớn hiện đại như GPT với công nghệ Transformer. Công nghệ Transformer chỉ là một hướng tiến hóa của mạng nơ-ron, đã thêm một bộ chuyển đổi )Transformer(, được sử dụng để mã hóa tất cả các kiểu dữ liệu ) như âm thanh, video, hình ảnh, v.v. ( thành các giá trị tương ứng để biểu thị. Sau đó, chúng được đưa vào mạng nơ-ron, như vậy mạng nơ-ron có thể khớp bất kỳ loại dữ liệu nào, tức là thực hiện đa mô thức.
Sự phát triển của AI đã trải qua ba làn sóng công nghệ. Làn sóng đầu tiên diễn ra vào những năm 60 của thế kỷ 20, là một thập kỷ sau khi công nghệ AI được đưa ra. Làn sóng này được thúc đẩy bởi sự phát triển của công nghệ chủ nghĩa ký hiệu, công nghệ này giải quyết vấn đề xử lý ngôn ngữ tự nhiên tổng quát cũng như giao tiếp giữa người và máy. Cùng thời điểm đó, hệ thống chuyên gia ra đời, đó là hệ thống chuyên gia DENRAL được hoàn thành bởi Đại học Stanford, hệ thống này có kiến thức hóa học rất mạnh, thông qua các câu hỏi để suy luận nhằm tạo ra các câu trả lời giống như một chuyên gia hóa học. Hệ thống chuyên gia hóa học này có thể được coi là sự kết hợp giữa kho kiến thức hóa học và hệ thống suy luận.
Làn sóng công nghệ AI thứ hai xảy ra vào năm 1997, khi IBM Deep Blue đánh bại nhà vô địch cờ vua Kasparov với tỷ số 3.5:2.5, chiến thắng này được coi là một cột mốc của trí tuệ nhân tạo.
Làn sóng công nghệ AI thứ ba xảy ra vào năm 2006. Ba ông lớn trong lĩnh vực học sâu là Yann LeCun, Geoffrey Hinton và Yoshua Bengio đã đưa ra khái niệm học sâu, một thuật toán mà sử dụng mạng nơ-ron nhân tạo làm kiến trúc để học biểu diễn dữ liệu. Sau đó, các thuật toán học sâu dần tiến hóa, từ RNN, GAN đến Transformer và Stable Diffusion, những thuật toán này đã cùng nhau định hình làn sóng công nghệ thứ ba, đây cũng là thời kỳ hoàng kim của chủ nghĩa kết nối.
![Người mới khoa học phổ thông丨AI x Crypto: Từ con số không đến đỉnh cao])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
Chuỗi công nghiệp học sâu
Các mô hình ngôn ngữ lớn hiện tại đều sử dụng phương pháp học sâu dựa trên mạng nơ-ron. Dưới sự dẫn dắt của GPT, các mô hình lớn đã tạo ra một làn sóng nhiệt huyết trong lĩnh vực trí tuệ nhân tạo, với rất nhiều người chơi đổ xô vào lĩnh vực này. Chúng tôi cũng nhận thấy nhu cầu về dữ liệu và sức mạnh tính toán trên thị trường bùng nổ mạnh mẽ. Do đó, trong phần báo cáo này, chúng tôi chủ yếu khám phá chuỗi công nghiệp của thuật toán học sâu. Trong ngành AI do thuật toán học sâu dẫn dắt, các mối quan hệ giữa các bên trên và dưới như thế nào, và hiện trạng cũng như mối quan hệ cung cầu của các bên này, cũng như sự phát triển trong tương lai ra sao.
Đầu tiên, chúng ta cần làm rõ rằng, khi thực hiện việc huấn luyện các mô hình lớn LLMs dựa trên công nghệ Transformer do GPT dẫn đầu ), sẽ được chia thành ba bước.
Trước khi huấn luyện, vì dựa trên Transformer, nên bộ chuyển đổi cần chuyển đổi đầu vào văn bản thành số, quá trình này được gọi là "Tokenization", sau đó những số này được gọi là Token. Theo quy tắc kinh nghiệm chung, một từ hoặc ký tự tiếng Anh có thể được coi là một Token, trong khi mỗi ký tự Hán có thể được coi là hai Token. Đây cũng là đơn vị cơ bản được sử dụng để định giá GPT.
Bước đầu tiên, tiền huấn luyện. Bằng cách cung cấp đủ nhiều cặp dữ liệu cho lớp đầu vào để tìm kiếm các tham số tối ưu của từng nơ-ron trong mô hình, lúc này cần rất nhiều dữ liệu, và quá trình này cũng là quá trình tốn nhiều sức mạnh tính toán nhất, vì phải lặp đi lặp lại để các nơ-ron thử nghiệm các tham số khác nhau.
Bước thứ hai, tinh chỉnh. Tinh chỉnh là việc cung cấp một lượng dữ liệu nhỏ nhưng chất lượng rất cao để huấn luyện, sự thay đổi này sẽ khiến đầu ra của mô hình có chất lượng cao hơn, vì việc huấn luyện trước cần một lượng lớn dữ liệu, nhưng nhiều dữ liệu có thể chứa lỗi hoặc chất lượng thấp.
Bước ba, học tăng cường. Đầu tiên sẽ xây dựng một mô hình hoàn toàn mới, chúng tôi gọi nó là "mô hình thưởng", mục đích của mô hình này rất đơn giản, đó là sắp xếp kết quả đầu ra. Sau đó, sử dụng mô hình này để xác định xem đầu ra của mô hình lớn của chúng tôi có phải là chất lượng cao hay không, như vậy có thể sử dụng một mô hình thưởng để tự động lặp lại các tham số của mô hình lớn.
Nói một cách đơn giản, trong quá trình huấn luyện mô hình lớn, việc tiền huấn luyện có yêu cầu rất cao về lượng dữ liệu, và cần tiêu tốn nhiều sức mạnh tính toán GPU nhất, trong khi việc tinh chỉnh cần dữ liệu chất lượng cao hơn để cải thiện các tham số, và học tăng cường có thể lặp đi lặp lại các tham số thông qua một mô hình thưởng để xuất ra kết quả chất lượng cao hơn.
Trong quá trình huấn luyện, số lượng tham số càng nhiều thì trần khả năng tổng quát càng cao. Do đó, hiệu suất của mô hình lớn chủ yếu được quyết định bởi ba yếu tố: số lượng tham số, khối lượng và chất lượng dữ liệu, và sức mạnh tính toán, ba yếu tố này cùng nhau ảnh hưởng đến chất lượng kết quả và khả năng tổng quát của mô hình lớn.
Mối quan hệ giữa Crypto và AI
Blockchain được hưởng lợi từ sự phát triển của công nghệ ZK, đã phát triển thành tư tưởng phi tập trung + phi tín nhiệm. Chúng ta quay lại lúc khởi tạo blockchain, đó là chuỗi Bitcoin. Trong bài luận của Satoshi Nakamoto, ông đã gọi nó là hệ thống chuyển giao giá trị phi tín nhiệm. Sau đó, Vitalik và những người khác đã công bố bài luận giới thiệu nền tảng hợp đồng thông minh phi tập trung, phi tín nhiệm, và trao đổi giá trị.
Quay trở lại bản chất, chúng tôi cho rằng toàn bộ mạng lưới Blockchain chính là một mạng lưới giá trị, mỗi giao dịch đều là sự chuyển đổi giá trị dựa trên các đồng tiền cơ bản. Giá trị ở đây được thể hiện dưới hình thức Token, và Tokenomics chính là các quy tắc thể hiện giá trị cụ thể của Token.
Token và công nghệ blockchain, phương tiện tái định nghĩa và khám phá giá trị này, đều rất quan trọng đối với bất kỳ ngành nào, bao gồm cả ngành AI. Trong ngành AI, việc phát hành token có thể cho phép tái cấu trúc giá trị trong tất cả các khía cạnh của chuỗi công nghiệp AI, từ đó khuyến khích nhiều người sẵn sàng đào sâu vào các phân khúc khác nhau của ngành AI, vì lợi ích mà nó mang lại sẽ trở nên rõ ràng hơn, không chỉ là dòng tiền quyết định giá trị hiện tại của nó, mà sự cộng hưởng của token sẽ nâng cao giá trị của cơ sở hạ tầng, điều này sẽ tự nhiên dẫn đến sự hình thành của mô hình giao thức béo và ứng dụng gầy.
Thứ hai, tất cả các dự án trong chuỗi công nghiệp AI sẽ nhận được lợi nhuận từ việc tăng giá trị vốn, và loại token này có thể hồi phục hệ sinh thái cũng như thúc đẩy sự ra đời của một số tư tưởng triết học.
Rõ ràng, kinh tế token có ảnh hưởng tích cực đến ngành công nghiệp, tính không thể thay đổi và tính không cần tin cậy của công nghệ Blockchain cũng có ý nghĩa thực tiễn đối với ngành AI, có thể thực hiện một số ứng dụng cần sự tin cậy, chẳng hạn như dữ liệu người dùng của chúng tôi có thể cho phép trên một mô hình nào đó, nhưng đảm bảo rằng mô hình không biết dữ liệu cụ thể, đảm bảo rằng mô hình không rò rỉ dữ liệu, đảm bảo trả về dữ liệu thực sự từ suy luận của mô hình đó. Khi GPU không đủ, có thể phân phối thông qua mạng Blockchain, khi GPU lặp lại, GPU nhàn rỗi có thể đóng góp sức mạnh tính toán cho mạng, khám phá lại giá trị dư thừa, đây là điều mà mạng giá trị toàn cầu mới có thể làm.
Tóm lại, kinh tế token có thể thúc đẩy việc tái cấu trúc và khám phá giá trị, sổ cái phi tập trung có thể giải quyết vấn đề niềm tin, chuyển giá trị trên toàn cầu.
Tổng quan về các dự án AI liên quan đến ngành Crypto
( Cung cấp GPU
Hiện tại, dự án Render được sử dụng nhiều hơn, dự án này được ra mắt vào năm 2020, chủ yếu phục vụ cho các nhiệm vụ render video không thuộc loại mô hình lớn. Các tình huống mà Render hướng tới không giống với AI, vì vậy không thể coi đây là một phần của lĩnh vực AI theo nghĩa nghiêm túc. Hơn nữa, dịch vụ render video của nó thực sự có một nhu cầu thực tế nhất định, do đó, thị trường điện toán đám mây GPU không chỉ có thể phục vụ cho việc đào tạo và suy diễn mô hình AI, mà còn có thể áp dụng cho các nhiệm vụ render truyền thống, điều này đã giảm thiểu rủi ro phụ thuộc vào một thị trường đơn lẻ của thị trường điện toán đám mây GPU.
Trong chuỗi công nghiệp AI liên quan đến Crypto, cung cấp sức mạnh tính toán chắc chắn là điểm quan trọng nhất. Theo dự đoán của ngành, nhu cầu sức mạnh tính toán GPU vào năm 2024 sẽ khoảng 75 tỷ USD, đến năm 2032 sẽ có nhu cầu thị trường khoảng 773 tỷ USD, tỷ lệ tăng trưởng hàng năm )CAGR### khoảng 33,86%.
Tốc độ lặp lại của GPU tuân theo định luật Moore (18-24, hiệu suất gấp đôi mỗi tháng, giá giảm một nửa ), vì vậy nhu cầu về sức mạnh tính toán GPU chia sẻ sẽ trở nên rất lớn, do sự bùng nổ của thị trường GPU, sẽ hình thành một lượng lớn GPU không phải thế hệ mới nhất dưới ảnh hưởng của định luật Moore trong tương lai, lúc này những GPU nhàn rỗi này sẽ tiếp tục phát huy giá trị của mình như là sức mạnh tính toán đuôi dài trong mạng chia sẻ, vì vậy chúng tôi thực sự lạc quan về tiềm năng dài hạn và hiệu quả thực tế của lĩnh vực này, không chỉ là nhu cầu cho các mô hình nhỏ và vừa mà còn cho các dịch vụ render truyền thống cũng sẽ tạo ra nhu cầu mạnh mẽ.
( Dữ liệu
Các dự án hiện đang được ra mắt bao gồm EpiK Protocol, Synesis One, Masa, v.v., điểm khác biệt là EpiK Protocol và Synesis One tập trung vào việc thu thập dữ liệu công khai, trong khi Masa dựa trên công nghệ ZK, cho phép thu thập dữ liệu riêng tư, điều này thân thiện hơn với người dùng.
So với các doanh nghiệp dữ liệu truyền thống Web2 khác, nhà cung cấp dữ liệu Web3 có lợi thế ở phía thu thập dữ liệu, vì cá nhân có thể đóng góp dữ liệu không riêng tư của mình, do đó, phạm vi tiếp cận của dự án sẽ trở nên rất rộng, không chỉ là ToB, mà còn có thể định giá dữ liệu của bất kỳ người dùng nào, mọi dữ liệu trong quá khứ đều có giá trị, và do sự tồn tại của kinh tế token, giá trị và giá của mạng lưới là phụ thuộc lẫn nhau, token không tốn chi phí sẽ tăng cao khi giá trị mạng lưới tăng, và những token này sẽ giảm chi phí cho nhà phát triển, để thưởng cho người dùng, động lực người dùng đóng góp dữ liệu sẽ trở nên mạnh mẽ hơn.
![Người mới phổ cập丨AI x Crypto: Từ số không đến đỉnh cao])https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp###
( ZKML
Nếu dữ liệu muốn thực hiện tính toán riêng tư và đào tạo, giải pháp ZK chính được ngành công nghiệp hiện nay sử dụng, sử dụng công nghệ mã hóa đồng cấu, sẽ suy luận dữ liệu ngoài chuỗi và sau đó tải kết quả và chứng minh ZK lên, thì có thể đảm bảo tính riêng tư và suy luận của dữ liệu.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
AI và Blockchain kết hợp: Từ tiến bộ công nghệ đến bố trí chuỗi công nghiệp
Sự kết hợp giữa AI và Blockchain: Từ công nghệ đến ứng dụng
Sự phát triển nhanh chóng của ngành trí tuệ nhân tạo gần đây được một số người coi là khởi đầu của cuộc cách mạng công nghiệp lần thứ tư. Sự xuất hiện của các mô hình ngôn ngữ lớn đã nâng cao đáng kể hiệu quả của các ngành khác nhau, ước tính giúp cải thiện khoảng 20% hiệu quả làm việc tổng thể tại Mỹ. Đồng thời, khả năng tổng quát mà các mô hình lớn mang lại được coi là một mô hình thiết kế phần mềm hoàn toàn mới. So với thiết kế mã chính xác trong quá khứ, phát triển phần mềm hiện nay chủ yếu là tích hợp các khung mô hình lớn có khả năng tổng quát mạnh mẽ vào phần mềm, giúp phần mềm có khả năng biểu đạt mạnh mẽ hơn và khả năng đầu vào đầu ra rộng rãi hơn. Công nghệ học sâu thực sự đã mang đến một làn sóng thịnh vượng mới cho ngành AI, và làn sóng này cũng dần lan rộng sang ngành tiền điện tử.
Báo cáo này sẽ khám phá chi tiết quá trình phát triển của ngành AI, phân loại công nghệ, cũng như tác động của việc phát minh ra công nghệ học sâu đối với ngành. Sau đó, sẽ phân tích sâu về tình hình và xu hướng phát triển của chuỗi công nghiệp liên quan đến GPU, điện toán đám mây, nguồn dữ liệu, thiết bị biên trong học sâu. Tiếp theo, sẽ khám phá bản chất mối quan hệ giữa ngành Crypto và AI, và đã tổng hợp lại cấu trúc chuỗi công nghiệp AI liên quan đến Crypto.
Lịch sử phát triển của ngành AI
Ngành AI bắt đầu từ những năm 1950, để hiện thực hóa tầm nhìn về trí tuệ nhân tạo, giới học thuật và công nghiệp đã phát triển nhiều trường phái khác nhau trong các bối cảnh kỷ nguyên và nền tảng học thuật khác nhau.
Công nghệ trí tuệ nhân tạo hiện đại chủ yếu sử dụng thuật ngữ "học máy", với ý tưởng cốt lõi là cho phép máy móc dựa vào dữ liệu để lặp đi lặp lại trong các nhiệm vụ nhằm cải thiện hiệu suất hệ thống. Các bước chính là đưa dữ liệu vào thuật toán, sử dụng dữ liệu này để huấn luyện mô hình, thử nghiệm mô hình đã triển khai, và sử dụng mô hình để hoàn thành các nhiệm vụ dự đoán tự động.
Hiện nay, máy học có ba trường phái chính, lần lượt là liên kết, biểu tượng và hành vi, mô phỏng hệ thần kinh, tư duy và hành động của con người.
Hiện tại, chủ nghĩa liên kết đại diện cho mạng nơ-ron đang chiếm ưu thế ( cũng được gọi là học sâu ), lý do chính là vì kiến trúc này có một lớp đầu vào, một lớp đầu ra, nhưng có nhiều lớp ẩn. Khi số lượng lớp và số lượng tham số nơ-ron ( đủ lớn, sẽ có đủ cơ hội để phù hợp với các nhiệm vụ phức tạp chung. Thông qua việc nhập dữ liệu, có thể điều chỉnh liên tục các tham số của nơ-ron, cuối cùng trải qua nhiều dữ liệu, nơ-ron đó sẽ đạt được trạng thái tối ưu ) tham số (, đây cũng chính là nguồn gốc của thuật ngữ "sâu" - đủ số lượng lớp và nơ-ron.
![Người mới phổ cập丨AI x Crypto:Từ số không đến đỉnh cao])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Và dựa trên công nghệ học sâu của mạng nơ-ron, cũng có nhiều vòng lặp và tiến hóa công nghệ, từ mạng nơ-ron đầu tiên, đến mạng nơ-ron hồi tiếp, RNN, CNN, GAN cuối cùng tiến hóa đến các mô hình lớn hiện đại như GPT với công nghệ Transformer. Công nghệ Transformer chỉ là một hướng tiến hóa của mạng nơ-ron, đã thêm một bộ chuyển đổi )Transformer(, được sử dụng để mã hóa tất cả các kiểu dữ liệu ) như âm thanh, video, hình ảnh, v.v. ( thành các giá trị tương ứng để biểu thị. Sau đó, chúng được đưa vào mạng nơ-ron, như vậy mạng nơ-ron có thể khớp bất kỳ loại dữ liệu nào, tức là thực hiện đa mô thức.
Sự phát triển của AI đã trải qua ba làn sóng công nghệ. Làn sóng đầu tiên diễn ra vào những năm 60 của thế kỷ 20, là một thập kỷ sau khi công nghệ AI được đưa ra. Làn sóng này được thúc đẩy bởi sự phát triển của công nghệ chủ nghĩa ký hiệu, công nghệ này giải quyết vấn đề xử lý ngôn ngữ tự nhiên tổng quát cũng như giao tiếp giữa người và máy. Cùng thời điểm đó, hệ thống chuyên gia ra đời, đó là hệ thống chuyên gia DENRAL được hoàn thành bởi Đại học Stanford, hệ thống này có kiến thức hóa học rất mạnh, thông qua các câu hỏi để suy luận nhằm tạo ra các câu trả lời giống như một chuyên gia hóa học. Hệ thống chuyên gia hóa học này có thể được coi là sự kết hợp giữa kho kiến thức hóa học và hệ thống suy luận.
Làn sóng công nghệ AI thứ hai xảy ra vào năm 1997, khi IBM Deep Blue đánh bại nhà vô địch cờ vua Kasparov với tỷ số 3.5:2.5, chiến thắng này được coi là một cột mốc của trí tuệ nhân tạo.
Làn sóng công nghệ AI thứ ba xảy ra vào năm 2006. Ba ông lớn trong lĩnh vực học sâu là Yann LeCun, Geoffrey Hinton và Yoshua Bengio đã đưa ra khái niệm học sâu, một thuật toán mà sử dụng mạng nơ-ron nhân tạo làm kiến trúc để học biểu diễn dữ liệu. Sau đó, các thuật toán học sâu dần tiến hóa, từ RNN, GAN đến Transformer và Stable Diffusion, những thuật toán này đã cùng nhau định hình làn sóng công nghệ thứ ba, đây cũng là thời kỳ hoàng kim của chủ nghĩa kết nối.
![Người mới khoa học phổ thông丨AI x Crypto: Từ con số không đến đỉnh cao])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
Chuỗi công nghiệp học sâu
Các mô hình ngôn ngữ lớn hiện tại đều sử dụng phương pháp học sâu dựa trên mạng nơ-ron. Dưới sự dẫn dắt của GPT, các mô hình lớn đã tạo ra một làn sóng nhiệt huyết trong lĩnh vực trí tuệ nhân tạo, với rất nhiều người chơi đổ xô vào lĩnh vực này. Chúng tôi cũng nhận thấy nhu cầu về dữ liệu và sức mạnh tính toán trên thị trường bùng nổ mạnh mẽ. Do đó, trong phần báo cáo này, chúng tôi chủ yếu khám phá chuỗi công nghiệp của thuật toán học sâu. Trong ngành AI do thuật toán học sâu dẫn dắt, các mối quan hệ giữa các bên trên và dưới như thế nào, và hiện trạng cũng như mối quan hệ cung cầu của các bên này, cũng như sự phát triển trong tương lai ra sao.
Đầu tiên, chúng ta cần làm rõ rằng, khi thực hiện việc huấn luyện các mô hình lớn LLMs dựa trên công nghệ Transformer do GPT dẫn đầu ), sẽ được chia thành ba bước.
Trước khi huấn luyện, vì dựa trên Transformer, nên bộ chuyển đổi cần chuyển đổi đầu vào văn bản thành số, quá trình này được gọi là "Tokenization", sau đó những số này được gọi là Token. Theo quy tắc kinh nghiệm chung, một từ hoặc ký tự tiếng Anh có thể được coi là một Token, trong khi mỗi ký tự Hán có thể được coi là hai Token. Đây cũng là đơn vị cơ bản được sử dụng để định giá GPT.
Bước đầu tiên, tiền huấn luyện. Bằng cách cung cấp đủ nhiều cặp dữ liệu cho lớp đầu vào để tìm kiếm các tham số tối ưu của từng nơ-ron trong mô hình, lúc này cần rất nhiều dữ liệu, và quá trình này cũng là quá trình tốn nhiều sức mạnh tính toán nhất, vì phải lặp đi lặp lại để các nơ-ron thử nghiệm các tham số khác nhau.
Bước thứ hai, tinh chỉnh. Tinh chỉnh là việc cung cấp một lượng dữ liệu nhỏ nhưng chất lượng rất cao để huấn luyện, sự thay đổi này sẽ khiến đầu ra của mô hình có chất lượng cao hơn, vì việc huấn luyện trước cần một lượng lớn dữ liệu, nhưng nhiều dữ liệu có thể chứa lỗi hoặc chất lượng thấp.
Bước ba, học tăng cường. Đầu tiên sẽ xây dựng một mô hình hoàn toàn mới, chúng tôi gọi nó là "mô hình thưởng", mục đích của mô hình này rất đơn giản, đó là sắp xếp kết quả đầu ra. Sau đó, sử dụng mô hình này để xác định xem đầu ra của mô hình lớn của chúng tôi có phải là chất lượng cao hay không, như vậy có thể sử dụng một mô hình thưởng để tự động lặp lại các tham số của mô hình lớn.
Nói một cách đơn giản, trong quá trình huấn luyện mô hình lớn, việc tiền huấn luyện có yêu cầu rất cao về lượng dữ liệu, và cần tiêu tốn nhiều sức mạnh tính toán GPU nhất, trong khi việc tinh chỉnh cần dữ liệu chất lượng cao hơn để cải thiện các tham số, và học tăng cường có thể lặp đi lặp lại các tham số thông qua một mô hình thưởng để xuất ra kết quả chất lượng cao hơn.
Trong quá trình huấn luyện, số lượng tham số càng nhiều thì trần khả năng tổng quát càng cao. Do đó, hiệu suất của mô hình lớn chủ yếu được quyết định bởi ba yếu tố: số lượng tham số, khối lượng và chất lượng dữ liệu, và sức mạnh tính toán, ba yếu tố này cùng nhau ảnh hưởng đến chất lượng kết quả và khả năng tổng quát của mô hình lớn.
Mối quan hệ giữa Crypto và AI
Blockchain được hưởng lợi từ sự phát triển của công nghệ ZK, đã phát triển thành tư tưởng phi tập trung + phi tín nhiệm. Chúng ta quay lại lúc khởi tạo blockchain, đó là chuỗi Bitcoin. Trong bài luận của Satoshi Nakamoto, ông đã gọi nó là hệ thống chuyển giao giá trị phi tín nhiệm. Sau đó, Vitalik và những người khác đã công bố bài luận giới thiệu nền tảng hợp đồng thông minh phi tập trung, phi tín nhiệm, và trao đổi giá trị.
Quay trở lại bản chất, chúng tôi cho rằng toàn bộ mạng lưới Blockchain chính là một mạng lưới giá trị, mỗi giao dịch đều là sự chuyển đổi giá trị dựa trên các đồng tiền cơ bản. Giá trị ở đây được thể hiện dưới hình thức Token, và Tokenomics chính là các quy tắc thể hiện giá trị cụ thể của Token.
Token và công nghệ blockchain, phương tiện tái định nghĩa và khám phá giá trị này, đều rất quan trọng đối với bất kỳ ngành nào, bao gồm cả ngành AI. Trong ngành AI, việc phát hành token có thể cho phép tái cấu trúc giá trị trong tất cả các khía cạnh của chuỗi công nghiệp AI, từ đó khuyến khích nhiều người sẵn sàng đào sâu vào các phân khúc khác nhau của ngành AI, vì lợi ích mà nó mang lại sẽ trở nên rõ ràng hơn, không chỉ là dòng tiền quyết định giá trị hiện tại của nó, mà sự cộng hưởng của token sẽ nâng cao giá trị của cơ sở hạ tầng, điều này sẽ tự nhiên dẫn đến sự hình thành của mô hình giao thức béo và ứng dụng gầy.
Thứ hai, tất cả các dự án trong chuỗi công nghiệp AI sẽ nhận được lợi nhuận từ việc tăng giá trị vốn, và loại token này có thể hồi phục hệ sinh thái cũng như thúc đẩy sự ra đời của một số tư tưởng triết học.
Rõ ràng, kinh tế token có ảnh hưởng tích cực đến ngành công nghiệp, tính không thể thay đổi và tính không cần tin cậy của công nghệ Blockchain cũng có ý nghĩa thực tiễn đối với ngành AI, có thể thực hiện một số ứng dụng cần sự tin cậy, chẳng hạn như dữ liệu người dùng của chúng tôi có thể cho phép trên một mô hình nào đó, nhưng đảm bảo rằng mô hình không biết dữ liệu cụ thể, đảm bảo rằng mô hình không rò rỉ dữ liệu, đảm bảo trả về dữ liệu thực sự từ suy luận của mô hình đó. Khi GPU không đủ, có thể phân phối thông qua mạng Blockchain, khi GPU lặp lại, GPU nhàn rỗi có thể đóng góp sức mạnh tính toán cho mạng, khám phá lại giá trị dư thừa, đây là điều mà mạng giá trị toàn cầu mới có thể làm.
Tóm lại, kinh tế token có thể thúc đẩy việc tái cấu trúc và khám phá giá trị, sổ cái phi tập trung có thể giải quyết vấn đề niềm tin, chuyển giá trị trên toàn cầu.
Tổng quan về các dự án AI liên quan đến ngành Crypto
( Cung cấp GPU
Hiện tại, dự án Render được sử dụng nhiều hơn, dự án này được ra mắt vào năm 2020, chủ yếu phục vụ cho các nhiệm vụ render video không thuộc loại mô hình lớn. Các tình huống mà Render hướng tới không giống với AI, vì vậy không thể coi đây là một phần của lĩnh vực AI theo nghĩa nghiêm túc. Hơn nữa, dịch vụ render video của nó thực sự có một nhu cầu thực tế nhất định, do đó, thị trường điện toán đám mây GPU không chỉ có thể phục vụ cho việc đào tạo và suy diễn mô hình AI, mà còn có thể áp dụng cho các nhiệm vụ render truyền thống, điều này đã giảm thiểu rủi ro phụ thuộc vào một thị trường đơn lẻ của thị trường điện toán đám mây GPU.
Trong chuỗi công nghiệp AI liên quan đến Crypto, cung cấp sức mạnh tính toán chắc chắn là điểm quan trọng nhất. Theo dự đoán của ngành, nhu cầu sức mạnh tính toán GPU vào năm 2024 sẽ khoảng 75 tỷ USD, đến năm 2032 sẽ có nhu cầu thị trường khoảng 773 tỷ USD, tỷ lệ tăng trưởng hàng năm )CAGR### khoảng 33,86%.
Tốc độ lặp lại của GPU tuân theo định luật Moore (18-24, hiệu suất gấp đôi mỗi tháng, giá giảm một nửa ), vì vậy nhu cầu về sức mạnh tính toán GPU chia sẻ sẽ trở nên rất lớn, do sự bùng nổ của thị trường GPU, sẽ hình thành một lượng lớn GPU không phải thế hệ mới nhất dưới ảnh hưởng của định luật Moore trong tương lai, lúc này những GPU nhàn rỗi này sẽ tiếp tục phát huy giá trị của mình như là sức mạnh tính toán đuôi dài trong mạng chia sẻ, vì vậy chúng tôi thực sự lạc quan về tiềm năng dài hạn và hiệu quả thực tế của lĩnh vực này, không chỉ là nhu cầu cho các mô hình nhỏ và vừa mà còn cho các dịch vụ render truyền thống cũng sẽ tạo ra nhu cầu mạnh mẽ.
( Dữ liệu
Các dự án hiện đang được ra mắt bao gồm EpiK Protocol, Synesis One, Masa, v.v., điểm khác biệt là EpiK Protocol và Synesis One tập trung vào việc thu thập dữ liệu công khai, trong khi Masa dựa trên công nghệ ZK, cho phép thu thập dữ liệu riêng tư, điều này thân thiện hơn với người dùng.
So với các doanh nghiệp dữ liệu truyền thống Web2 khác, nhà cung cấp dữ liệu Web3 có lợi thế ở phía thu thập dữ liệu, vì cá nhân có thể đóng góp dữ liệu không riêng tư của mình, do đó, phạm vi tiếp cận của dự án sẽ trở nên rất rộng, không chỉ là ToB, mà còn có thể định giá dữ liệu của bất kỳ người dùng nào, mọi dữ liệu trong quá khứ đều có giá trị, và do sự tồn tại của kinh tế token, giá trị và giá của mạng lưới là phụ thuộc lẫn nhau, token không tốn chi phí sẽ tăng cao khi giá trị mạng lưới tăng, và những token này sẽ giảm chi phí cho nhà phát triển, để thưởng cho người dùng, động lực người dùng đóng góp dữ liệu sẽ trở nên mạnh mẽ hơn.
![Người mới phổ cập丨AI x Crypto: Từ số không đến đỉnh cao])https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp###
( ZKML
Nếu dữ liệu muốn thực hiện tính toán riêng tư và đào tạo, giải pháp ZK chính được ngành công nghiệp hiện nay sử dụng, sử dụng công nghệ mã hóa đồng cấu, sẽ suy luận dữ liệu ngoài chuỗi và sau đó tải kết quả và chứng minh ZK lên, thì có thể đảm bảo tính riêng tư và suy luận của dữ liệu.