# AIとブロックチェーンの融合:技術から応用まで人工知能業界の最近の急速な発展は、一部の人々によって第四次産業革命の始まりと見なされています。大型言語モデルの出現は、さまざまな業界の効率を著しく向上させ、アメリカ全体の作業効率を約20%向上させたと推定されています。同時に、大モデルがもたらす一般化能力は、新しいソフトウェア設計のパラダイムと考えられています。過去の正確なコード設計と比較して、現在のソフトウェア開発は、一般化能力の高い大モデルフレームワークをソフトウェアに組み込むことが多くなり、ソフトウェアはより強い表現力とより広範な入出力能力を持つようになっています。深層学習技術は確かにAI業界に新たな繁栄をもたらし、この熱潮は徐々に暗号通貨業界にも広がっています。本報告では、AI業界の発展の歴史、技術の分類、そして深層学習技術の発明が業界に与えた影響について詳しく探討します。次に、深層学習におけるGPU、クラウドコンピューティング、データソース、エッジデバイスなどの産業チェーンの上下流の発展状況とトレンドを深く分析します。その後、本質的にCryptoとAI業界の関係を探討し、Crypto関連のAI産業チェーンの構造を整理しました。! [新人科学丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-7e025deb1fddcd5fa716b6f144701074)## AI業界の歴史AI業界は20世紀50年代に始まり、人工知能のビジョンを実現するために、学術界と産業界は異なる時代の異なる学問的背景の下で、人工知能を実現するためのさまざまな流派を発展させてきました。現代の人工知能技術は主に「機械学習」という用語を使用し、その核心理念は機械がデータに基づいてタスクを繰り返し反復することでシステムの性能を改善することです。主なステップは、データをアルゴリズムに入力し、そのデータを用いてモデルをトレーニングし、モデルをテストしてデプロイし、そのモデルを使用して自動化された予測タスクを完了することです。現在、機械学習には3つの主要な流派があり、それぞれ連合主義、記号主義、行動主義であり、人間の神経系、思考、行動を模倣しています。! [新参者科学人気丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c)現在、神経ネットワークを代表とする結合主義が優位を占めており(、深層学習)とも呼ばれています。その主な理由は、このアーキテクチャには入力層と出力層があり、複数の隠れ層があるためです。層数と神経元(のパラメータ)の数が十分に多くなると、複雑な一般的なタスクにフィットする機会が十分に得られます。データを入力することにより、神経元のパラメータを継続的に調整し、最終的に多くのデータを経て、その神経元は最適な状態(のパラメータ)に達します。これが「深さ」と呼ばれる理由であり、十分な層数と神経元があるからです。! 【新人科学丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/social/moments-0c9bdea33a39a2c07d1f06760ed7e804)神経ネットワークに基づく深層学習技術には、初期の神経ネットワークからフィードフォワード神経ネットワーク、RNN、CNN、GANを経て、現代の大規模モデルであるGPTなどが使用するTransformer技術に至るまで、いくつかの技術の反復と進化があります。Transformer技術は神経ネットワークの一つの進化の方向であり、すべてのモダリティ(、音声、映像、画像など)のデータを対応する数値にエンコードするための変換器(を追加しています。これを神経ネットワークに入力することで、神経ネットワークはあらゆる種類のデータに適合できるようになり、つまりマルチモーダルを実現します。AIの発展は三つの技術の波を経てきました。最初の波は20世紀60年代で、AI技術が提案されてから十年後のことです。この波は、記号主義技術の発展によって引き起こされました。この技術は、汎用の自然言語処理や人間と機械の対話の問題を解決しました。同時期に、専門家システムが誕生しました。これはスタンフォード大学で完成したDENRAL専門家システムであり、このシステムは非常に強力な化学の知識を持ち、質問を通じて推論を行い、化学の専門家と同じような回答を生成します。この化学専門家システムは、化学の知識ベースと推論システムの組み合わせとして見ることができます。第2回目のAI技術の波は1997年に発生し、IBMのディープブルーが3.5:2.5でチェスチャンピオンのカスパロフに勝利しました。この勝利は人工知能の一つのマイルストーンと見なされています。第三次AI技術浪潮は2006年に発生しました。深層学習の三巨頭であるYann LeCun、Geoffrey Hinton、Yoshua Bengioは、人工神経ネットワークを構造としたデータの表現学習アルゴリズムである深層学習の概念を提唱しました。その後、深層学習のアルゴリズムは徐々に進化し、RNN、GANからTransformer、Stable Diffusionまで、これらのアルゴリズムは第三の技術浪潮を共に形成し、連合主義の絶頂期でもありました。! [新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/social/moments-609c5dd6ee0abcec6bf9c118d7741867(## ディープラーニング産業チェーン現在、大規模モデル言語に使用されているのは、すべて神経ネットワークに基づく深層学習方法です。GPTを先頭に立てた大規模モデルは、人工知能の熱潮を生み出し、多くのプレイヤーがこの分野に流入しています。また、市場ではデータや計算能力の需要が急増していることもわかりました。したがって、レポートのこの部分では、主に深層学習アルゴリズムの産業チェーンを探求します。深層学習アルゴリズムが主導するAI業界では、その上下流はどのように構成されているのか、また上下流の現状や需給関係、未来の発展はどうなるのかを見ていきます。まず明確にする必要があるのは、Transformer技術に基づくGPTを先頭とするLLMs)大モデル(のトレーニングは、合計で3つのステップに分かれているということです。トレーニングの前に、Transformerに基づいているため、トランスフォーマーはテキスト入力を数値に変換する必要があります。このプロセスは「トークン化」と呼ばれ、その後これらの数値はトークンと呼ばれます。一般的な経験則に従うと、英単語や文字は粗く1つのトークンと見なすことができ、各漢字は粗く2つのトークンと見なすことができます。これがGPTの評価に使用される基本単位でもあります。第一歩、事前学習。入力層に十分なデータペアを与えることによって、このモデル下の各ニューロンの最適なパラメータを探します。この時、大量のデータが必要であり、このプロセスは最も計算リソースを消費するプロセスでもあります。なぜなら、ニューロンがさまざまなパラメータを試すために繰り返し反復する必要があるからです。第二ステップ、ファインチューニング。ファインチューニングは、少量ですが非常に高品質なデータを与えてトレーニングすることです。このような変更により、モデルの出力はより高い品質を持つようになります。プレトレーニングには大量のデータが必要ですが、多くのデータにはエラーや低品質なものが含まれている可能性があります。第三ステップ、強化学習。まず、全く新しいモデルを構築します。これを「報酬モデル」と呼びます。このモデルの目的は非常に単純で、出力結果の順位付けを行うことです。その後、このモデルを使用して私たちの大モデルの出力が高品質であるかどうかを判断します。これにより、報酬モデルを使用して自動的に大モデルのパラメータを反復更新することができます。簡潔に言えば、大規模モデルのトレーニングプロセスにおいて、事前トレーニングはデータの量に非常に高い要求があり、必要とされるGPU計算能力も最も多く、ファインチューニングはパラメータを改善するためにより高品質なデータを必要とし、強化学習は報酬モデルを通じてパラメータを繰り返しイテレーションし、より高品質な結果を出力することができます。トレーニングの過程では、パラメーターが多いほど、その一般化能力の上限が高くなります。したがって、大規模モデルのパフォーマンスに影響を与える要因は主に3つの側面によって決まります。パラメーターの数、データの量と質、計算能力の3つが共同で大規模モデルの結果の質と一般化能力に影響します。! [新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/social/moments-f37fb0100218188368f4d31940aab2a3(## クリプトとAIの関係ブロックチェーンはZK技術の発展の恩恵を受けて、去中心化 + 去信任化の思想に進化しました。私たちはブロックチェーンの創造の初めに戻ります。それはビットコインチェーンです。中本聡の論文では、最初にそれを去信任化された、価値移転システムと呼びました。その後、Vitalikらが論文を発表し、去中心化、去信任化、価値交換のスマートコントラクトプラットフォームを導入しました。本質に戻ると、私たちは全体のブロックチェーンネットワークを価値ネットワークと考えています。各取引は、基盤となるトークンを基にした価値の変換です。ここでの価値はトークンの形で表現され、トークノミクスは具体的なトークンの価値を表現するルールです。トークンとブロックチェーン技術は、価値の再定義と発見の手段として、あらゆる業界、特にAI業界にとって重要です。AI業界では、トークンを発行することでAI産業チェーンの各側面が価値を再構築できるようになり、より多くの人々がAI業界のさまざまなセグメントに深く関与する意欲を高めるでしょう。なぜなら、その結果として得られる利益はより顕著になり、現在の価値を決定するのは現金フローだけではなく、トークンの相乗効果がインフラの価値を向上させるためです。これにより、自然に「太ったプロトコルが痩せたアプリケーション」というパラダイムが形成されることになります。次に、AI産業チェーンのすべてのプロジェクトは資本の価値上昇の利益を得ることができ、このトークンはエコシステムに還元され、ある哲学的思想の誕生を促進することができる。トークンエコノミーは明らかに業界に対して積極的な影響を持ち、ブロックチェーン技術の改ざん不可能で信頼を必要としない特性はAI業界に実際的な意義を持ち、信頼を必要とするアプリケーションの実現を可能にします。例えば、我々のユーザーデータはあるモデルの上で許可されることができますが、モデルが具体的なデータを知らず、データを漏洩せず、そのモデルの推論から得られた実際のデータを返すことを保証します。GPUが不足している時、ブロックチェーンネットワークを通じて分配でき、GPUがイテレートする際、遊休のGPUがネットワークに計算能力を提供し、残りの価値を再発見することができるのです。これはグローバルな価値ネットワークでしかできないことです。要するに、トークンエコノミーは価値の再構築と発見を促進し、分散型台帳は信頼問題を解決し、価値を世界的に再流動させることができる。! [新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/social/moments-8848582a34ba293d15afae15d90e3c95(## Crypto業界のAI関連プロジェクトの概要) GPU供給側現在多く使用されているのはRenderプロジェクトで、2020年に導入され、主に大規模モデルではないビデオレンダリングタスクに使用されます。Renderが対象とするシーンはAIとは異なるため、厳密にはAIセクターには含まれません。また、そのビデオレンダリング業務には確かに一定の実需があるため、GPUクラウドコンピューティング市場はAIモデルのトレーニングや推論だけでなく、従来のレンダリングタスクにも適用でき、これによりGPUクラウド市場の単一市場への依存リスクが低減されます。CryptoにおけるAIの産業チェーンでは、計算能力の供給が最も重要なポイントであることは間違いありません。業界の予測によれば、2024年のGPUの計算能力の需要は約750億ドル、2032年には約7730億ドルの市場需要が見込まれており、年平均成長率###CAGR(は約33.86%です。GPUのイテレーションレートはムーアの法則に従い)18-24各月の性能が倍増し、価格が半分に下がります(。ですから、共有GPU計算力の需要は非常に大きくなるでしょう。GPU市場の爆発は、将来のムーアの法則の影響の下で、最新の数世代ではない大量のGPUを形成します。このとき、これらの未使用のGPUは長尾計算力として共有ネットワークでその価値を発揮し続けるでしょう。したがって、私たちはこの分野の長期的な潜在能力と実際の効用を非常に期待しています。中小モデルのビジネスだけでなく、従来のレンダリングビジネスにもかなりの需要が生じるでしょう。! [新参者科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/social/moments-53c48daf49a3dbb35c1a2b47e234f180() データ現在オンラインにあるプロジェクトにはEpiK Protocol、Synesis One、Masaなどが含まれています。異なる点は、EpiK protocolとSynesis Oneが公開データソースの収集を行っているのに対し、MasaはZK技術に基づいており、プライバシーデータの収集を実現しています。これにより、ユーザーにとってより友好的です。他のWeb2の伝統的なデータ企業と比較して、Web3データプロバイダーが持つ利点はデータ収集側にあります。なぜなら、個人が自分の非プライバシーデータを提供できるからです。このため、プロジェクトの接触面は非常に広がり、単なるToBにとどまらず、あらゆるユーザーのデータに価格を付けることができ、過去のデータには価値が生まれます。また、トークンエコノミクスの存在により、ネットワークの価値と価格は相互に依存しており、0コストのトークンはネットワークの価値が高まるにつれて高くなります。これらのトークンは開発者のコストを削減し、ユーザーに報酬を与えるために使用され、ユーザーがデータを提供する動機がより強くなります。! [新人科学丨AI×暗号:ゼロからピークまで]###https://img-cdn.gateio.im/social/moments-250a286e79261e91a0e7ac4941ff5c76() ZKMLのデータがプライバシー計算とトレーニングを実現したい場合、現在業界で主に採用されているZKソリューションでは、同型暗号技術を使用してデータをオフチェーンで推論し、その結果とZK証明をアップロードすることで、データのプライバシーと推論を保証することができます。
AIとブロックチェーンの融合:技術の進化から産業チェーンの配置まで
AIとブロックチェーンの融合:技術から応用まで
人工知能業界の最近の急速な発展は、一部の人々によって第四次産業革命の始まりと見なされています。大型言語モデルの出現は、さまざまな業界の効率を著しく向上させ、アメリカ全体の作業効率を約20%向上させたと推定されています。同時に、大モデルがもたらす一般化能力は、新しいソフトウェア設計のパラダイムと考えられています。過去の正確なコード設計と比較して、現在のソフトウェア開発は、一般化能力の高い大モデルフレームワークをソフトウェアに組み込むことが多くなり、ソフトウェアはより強い表現力とより広範な入出力能力を持つようになっています。深層学習技術は確かにAI業界に新たな繁栄をもたらし、この熱潮は徐々に暗号通貨業界にも広がっています。
本報告では、AI業界の発展の歴史、技術の分類、そして深層学習技術の発明が業界に与えた影響について詳しく探討します。次に、深層学習におけるGPU、クラウドコンピューティング、データソース、エッジデバイスなどの産業チェーンの上下流の発展状況とトレンドを深く分析します。その後、本質的にCryptoとAI業界の関係を探討し、Crypto関連のAI産業チェーンの構造を整理しました。
! 新人科学丨AI×暗号:ゼロからピークまで
AI業界の歴史
AI業界は20世紀50年代に始まり、人工知能のビジョンを実現するために、学術界と産業界は異なる時代の異なる学問的背景の下で、人工知能を実現するためのさまざまな流派を発展させてきました。
現代の人工知能技術は主に「機械学習」という用語を使用し、その核心理念は機械がデータに基づいてタスクを繰り返し反復することでシステムの性能を改善することです。主なステップは、データをアルゴリズムに入力し、そのデータを用いてモデルをトレーニングし、モデルをテストしてデプロイし、そのモデルを使用して自動化された予測タスクを完了することです。
現在、機械学習には3つの主要な流派があり、それぞれ連合主義、記号主義、行動主義であり、人間の神経系、思考、行動を模倣しています。
! 新参者科学人気丨AI×暗号:ゼロからピークまで
現在、神経ネットワークを代表とする結合主義が優位を占めており(、深層学習)とも呼ばれています。その主な理由は、このアーキテクチャには入力層と出力層があり、複数の隠れ層があるためです。層数と神経元(のパラメータ)の数が十分に多くなると、複雑な一般的なタスクにフィットする機会が十分に得られます。データを入力することにより、神経元のパラメータを継続的に調整し、最終的に多くのデータを経て、その神経元は最適な状態(のパラメータ)に達します。これが「深さ」と呼ばれる理由であり、十分な層数と神経元があるからです。
! 【新人科学丨AI×暗号:ゼロからピークまで](https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp)
神経ネットワークに基づく深層学習技術には、初期の神経ネットワークからフィードフォワード神経ネットワーク、RNN、CNN、GANを経て、現代の大規模モデルであるGPTなどが使用するTransformer技術に至るまで、いくつかの技術の反復と進化があります。Transformer技術は神経ネットワークの一つの進化の方向であり、すべてのモダリティ(、音声、映像、画像など)のデータを対応する数値にエンコードするための変換器(を追加しています。これを神経ネットワークに入力することで、神経ネットワークはあらゆる種類のデータに適合できるようになり、つまりマルチモーダルを実現します。
AIの発展は三つの技術の波を経てきました。最初の波は20世紀60年代で、AI技術が提案されてから十年後のことです。この波は、記号主義技術の発展によって引き起こされました。この技術は、汎用の自然言語処理や人間と機械の対話の問題を解決しました。同時期に、専門家システムが誕生しました。これはスタンフォード大学で完成したDENRAL専門家システムであり、このシステムは非常に強力な化学の知識を持ち、質問を通じて推論を行い、化学の専門家と同じような回答を生成します。この化学専門家システムは、化学の知識ベースと推論システムの組み合わせとして見ることができます。
第2回目のAI技術の波は1997年に発生し、IBMのディープブルーが3.5:2.5でチェスチャンピオンのカスパロフに勝利しました。この勝利は人工知能の一つのマイルストーンと見なされています。
第三次AI技術浪潮は2006年に発生しました。深層学習の三巨頭であるYann LeCun、Geoffrey Hinton、Yoshua Bengioは、人工神経ネットワークを構造としたデータの表現学習アルゴリズムである深層学習の概念を提唱しました。その後、深層学習のアルゴリズムは徐々に進化し、RNN、GANからTransformer、Stable Diffusionまで、これらのアルゴリズムは第三の技術浪潮を共に形成し、連合主義の絶頂期でもありました。
! [新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
ディープラーニング産業チェーン
現在、大規模モデル言語に使用されているのは、すべて神経ネットワークに基づく深層学習方法です。GPTを先頭に立てた大規模モデルは、人工知能の熱潮を生み出し、多くのプレイヤーがこの分野に流入しています。また、市場ではデータや計算能力の需要が急増していることもわかりました。したがって、レポートのこの部分では、主に深層学習アルゴリズムの産業チェーンを探求します。深層学習アルゴリズムが主導するAI業界では、その上下流はどのように構成されているのか、また上下流の現状や需給関係、未来の発展はどうなるのかを見ていきます。
まず明確にする必要があるのは、Transformer技術に基づくGPTを先頭とするLLMs)大モデル(のトレーニングは、合計で3つのステップに分かれているということです。
トレーニングの前に、Transformerに基づいているため、トランスフォーマーはテキスト入力を数値に変換する必要があります。このプロセスは「トークン化」と呼ばれ、その後これらの数値はトークンと呼ばれます。一般的な経験則に従うと、英単語や文字は粗く1つのトークンと見なすことができ、各漢字は粗く2つのトークンと見なすことができます。これがGPTの評価に使用される基本単位でもあります。
第一歩、事前学習。入力層に十分なデータペアを与えることによって、このモデル下の各ニューロンの最適なパラメータを探します。この時、大量のデータが必要であり、このプロセスは最も計算リソースを消費するプロセスでもあります。なぜなら、ニューロンがさまざまなパラメータを試すために繰り返し反復する必要があるからです。
第二ステップ、ファインチューニング。ファインチューニングは、少量ですが非常に高品質なデータを与えてトレーニングすることです。このような変更により、モデルの出力はより高い品質を持つようになります。プレトレーニングには大量のデータが必要ですが、多くのデータにはエラーや低品質なものが含まれている可能性があります。
第三ステップ、強化学習。まず、全く新しいモデルを構築します。これを「報酬モデル」と呼びます。このモデルの目的は非常に単純で、出力結果の順位付けを行うことです。その後、このモデルを使用して私たちの大モデルの出力が高品質であるかどうかを判断します。これにより、報酬モデルを使用して自動的に大モデルのパラメータを反復更新することができます。
簡潔に言えば、大規模モデルのトレーニングプロセスにおいて、事前トレーニングはデータの量に非常に高い要求があり、必要とされるGPU計算能力も最も多く、ファインチューニングはパラメータを改善するためにより高品質なデータを必要とし、強化学習は報酬モデルを通じてパラメータを繰り返しイテレーションし、より高品質な結果を出力することができます。
トレーニングの過程では、パラメーターが多いほど、その一般化能力の上限が高くなります。したがって、大規模モデルのパフォーマンスに影響を与える要因は主に3つの側面によって決まります。パラメーターの数、データの量と質、計算能力の3つが共同で大規模モデルの結果の質と一般化能力に影響します。
! [新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
クリプトとAIの関係
ブロックチェーンはZK技術の発展の恩恵を受けて、去中心化 + 去信任化の思想に進化しました。私たちはブロックチェーンの創造の初めに戻ります。それはビットコインチェーンです。中本聡の論文では、最初にそれを去信任化された、価値移転システムと呼びました。その後、Vitalikらが論文を発表し、去中心化、去信任化、価値交換のスマートコントラクトプラットフォームを導入しました。
本質に戻ると、私たちは全体のブロックチェーンネットワークを価値ネットワークと考えています。各取引は、基盤となるトークンを基にした価値の変換です。ここでの価値はトークンの形で表現され、トークノミクスは具体的なトークンの価値を表現するルールです。
トークンとブロックチェーン技術は、価値の再定義と発見の手段として、あらゆる業界、特にAI業界にとって重要です。AI業界では、トークンを発行することでAI産業チェーンの各側面が価値を再構築できるようになり、より多くの人々がAI業界のさまざまなセグメントに深く関与する意欲を高めるでしょう。なぜなら、その結果として得られる利益はより顕著になり、現在の価値を決定するのは現金フローだけではなく、トークンの相乗効果がインフラの価値を向上させるためです。これにより、自然に「太ったプロトコルが痩せたアプリケーション」というパラダイムが形成されることになります。
次に、AI産業チェーンのすべてのプロジェクトは資本の価値上昇の利益を得ることができ、このトークンはエコシステムに還元され、ある哲学的思想の誕生を促進することができる。
トークンエコノミーは明らかに業界に対して積極的な影響を持ち、ブロックチェーン技術の改ざん不可能で信頼を必要としない特性はAI業界に実際的な意義を持ち、信頼を必要とするアプリケーションの実現を可能にします。例えば、我々のユーザーデータはあるモデルの上で許可されることができますが、モデルが具体的なデータを知らず、データを漏洩せず、そのモデルの推論から得られた実際のデータを返すことを保証します。GPUが不足している時、ブロックチェーンネットワークを通じて分配でき、GPUがイテレートする際、遊休のGPUがネットワークに計算能力を提供し、残りの価値を再発見することができるのです。これはグローバルな価値ネットワークでしかできないことです。
要するに、トークンエコノミーは価値の再構築と発見を促進し、分散型台帳は信頼問題を解決し、価値を世界的に再流動させることができる。
! [新人科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
Crypto業界のAI関連プロジェクトの概要
) GPU供給側
現在多く使用されているのはRenderプロジェクトで、2020年に導入され、主に大規模モデルではないビデオレンダリングタスクに使用されます。Renderが対象とするシーンはAIとは異なるため、厳密にはAIセクターには含まれません。また、そのビデオレンダリング業務には確かに一定の実需があるため、GPUクラウドコンピューティング市場はAIモデルのトレーニングや推論だけでなく、従来のレンダリングタスクにも適用でき、これによりGPUクラウド市場の単一市場への依存リスクが低減されます。
CryptoにおけるAIの産業チェーンでは、計算能力の供給が最も重要なポイントであることは間違いありません。業界の予測によれば、2024年のGPUの計算能力の需要は約750億ドル、2032年には約7730億ドルの市場需要が見込まれており、年平均成長率###CAGR(は約33.86%です。
GPUのイテレーションレートはムーアの法則に従い)18-24各月の性能が倍増し、価格が半分に下がります(。ですから、共有GPU計算力の需要は非常に大きくなるでしょう。GPU市場の爆発は、将来のムーアの法則の影響の下で、最新の数世代ではない大量のGPUを形成します。このとき、これらの未使用のGPUは長尾計算力として共有ネットワークでその価値を発揮し続けるでしょう。したがって、私たちはこの分野の長期的な潜在能力と実際の効用を非常に期待しています。中小モデルのビジネスだけでなく、従来のレンダリングビジネスにもかなりの需要が生じるでしょう。
! [新参者科学丨AI×暗号:ゼロからピークまで])https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
) データ
現在オンラインにあるプロジェクトにはEpiK Protocol、Synesis One、Masaなどが含まれています。異なる点は、EpiK protocolとSynesis Oneが公開データソースの収集を行っているのに対し、MasaはZK技術に基づいており、プライバシーデータの収集を実現しています。これにより、ユーザーにとってより友好的です。
他のWeb2の伝統的なデータ企業と比較して、Web3データプロバイダーが持つ利点はデータ収集側にあります。なぜなら、個人が自分の非プライバシーデータを提供できるからです。このため、プロジェクトの接触面は非常に広がり、単なるToBにとどまらず、あらゆるユーザーのデータに価格を付けることができ、過去のデータには価値が生まれます。また、トークンエコノミクスの存在により、ネットワークの価値と価格は相互に依存しており、0コストのトークンはネットワークの価値が高まるにつれて高くなります。これらのトークンは開発者のコストを削減し、ユーザーに報酬を与えるために使用され、ユーザーがデータを提供する動機がより強くなります。
! [新人科学丨AI×暗号:ゼロからピークまで]###https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp(
) ZKMLの
データがプライバシー計算とトレーニングを実現したい場合、現在業界で主に採用されているZKソリューションでは、同型暗号技術を使用してデータをオフチェーンで推論し、その結果とZK証明をアップロードすることで、データのプライバシーと推論を保証することができます。