Epoch 205
出典 Neural Networks in AI and Neuroscience: From Biological Brain Function to Neuraxon Aigarth | Qubic
執筆: Qubic Scientific Team / 公開日: 2026年2月24日
Neuraxon Intelligence Academy — Volume 4
「ネットワーク」という言葉は、神経科学と人工知能の双方で頻繁に登場します。しかし、同じレッテルを共有しているにもかかわらず、生物学的ニューラルネットワークと人工ニューラルネットワークは根本的に異なるシステムです。それぞれが実際に何を行っているのか、そして第3のアプローチがどこに位置づけられるのかを理解するためには、あらゆるレベルでネットワークのアーキテクチャと振る舞いを見る必要があります。
生物学的ニューラルネットワークは、情報を処理し行動を生み出すことを機能とする、相互接続されたニューロンのシステムです。これらのネットワークは動的です。私たちが意識的にタスクに従事していないときでも、時間の経過とともにアクティブな状態を維持します。それらはエネルギーコストを伴いますが、人間の脳の場合、それが生み出す複雑さに比べると驚くほど低いです。
生物学的ネットワークは、時間・周波数という独自の言語を使用して、内部および外部のシグナルを統合します。複数の楽器が異なるリズムで演奏する音楽バンドを思い浮かべてみてください。バスドラムがテンポを刻み、ベースが1拍に2つの音を弾き、シンバルが16分音符を埋めます。メロディーはビートを失うことなく自由に動きます。ミュージシャンは、完璧に噛み合う異なるリズムで楽譜を結合させます。これらは入れ子になった周波数であり、これこそが脳のネットワークが機能する方法です。異なるネットワークの時間・周波数言語は、それ自体の内側に入れ子になります。これは交差周波数結合(cross-frequency coupling)として知られる概念です。
すべてはニューロンから始まります。その単一の神経細胞は活動電位、つまり軸索に沿って伝播する短い電気的インパルスを生成します。ニューロンは樹状突起を介してシグナルを受け取り、細胞体(ソーマ)でそれらを統合し、閾値を超えればシグナルを送信します。このプロセスについては、「NIA Volume 1: なぜ知性はステップではなく時間で計算されるのか」、および「NIA Volume 2: 生きた知能のモデルとしての三進法ダイナミクス」で詳しく取り上げました。
ニューロンは、神経伝達物質が放出される化学シナプス(「NIA Volume 3: 神経修飾と脳型AI」を参照)、または電流が細胞間を直接通過する電気シナプスを介して、他のニューロンと接続します。ネットワークを形成するために、多くのニューロンが相互接続し、リカレント回路を作成します。しかし、この統合は非線形です。つまり、全体の応答は、その部分の単純な合計と等しくはありません。その規模は驚異的です:人間の脳には約860億個のニューロンと、10^14から10^15個のシナプスが含まれています(Azevedo et al., 2009)。
トポロジーレベルでは、これらのネットワークはスモールワールド特性、つまり高い局所的クラスタリングと短いグローバル接続の組み合わせを示します。このアーキテクチャにより、特殊化された局所的処理を維持しながら、脳全体での効率的なコミュニケーションが可能になります。
生物学的ニューラルネットワークの機能は、興奮と抑制のバランスに依存しています。興奮が優位になれば活動は不安定化し、抑制が優位になればネットワークは沈黙します。動的な安定性は、両方の力のバランスから生じます。このバランスはシナプス可塑性、つまり経験に基づいて接続の強度を変化させるメカニズムによって維持されます。さらに、神経修飾(ニューロモデュレーション)が回路のゲインを調整し、入力がどれほど強く出力を生み出すかを制御します(Marder, 2012)。例えば脅威的な状況において、ノルアドレナリンは感覚の感度と急速な学習能力を向上させます。
ネットワークは、複数の時間スケールで同時に動作します。ニューロンレベルでは、活動電位はミリ秒単位で発火します。ニューロンの振動は秒単位で展開します。シナプスの変化は数時間または数日かけて進行し、構造の再編成は数年がかりで発生します。すべてが調和のとれた、ダイナミックで絡み合ったパターンで機能します。
しかし、すべてが構造なしにすべてと通信するわけではありません。大脳皮質の脳機能は、特殊化されたネットワークに組織化されています。最も重要なものには以下が含まれます:自己言及や自己と他者についての思考に関連するデフォルト・モード・ネットワーク。直接的なタスク実行に関連するセントラル・エグゼクティブ・ネットワーク。各瞬間において何が関連しているかを検出し、異なるモード間の切り替えを可能にするセイリエンス・ネットワーク。自発的な運動を支える感覚運動ネットワーク。そして、様々な注意のネットワーク。人間はまた、言語の理解と生成の両方を可能にする、特徴的な言語ネットワークも備えています。
生物学的ネットワークにおいて、孤立した音符は交響曲にはなりません。交響曲は、音符間の関係性のダイナミックなパターンから創発します。脳は物を格納しません。ハードドライブがファイルを保存するように記憶を保存するわけではありません。脳は動的な構成を構築します。
Courtesy from DOI: 10.3389/fnagi.2023.1204134
人工ニューラルネットワーク(ANN)は、データから複雑な関数を近似するように設計された数学的モデルです。それは脳から抽象的なインスピレーションを得ています:「人工ニューロン」と呼ばれる相互接続されたユニットを使用しますが、これらは細胞ではありません。それらは代数演算です。代数演算をニューロンと呼ぶのは、間違いなく誇張された外挿(補外)であり、言語予測を「知能」と呼ぶことも同様に誤解を招く可能性があります。しかし、これらが確立された用語であるため、それらを理解し、実体と誇大広告を分けることが重要です。
各人工ニューロンは3つのステップを実行します。第一に、一連の数値入力を受け取ります。次に、各入力にシナプス重み(調整可能なパラメーター)を掛け合わせます。最後に、その結果を合計し、非線形性を導入する活性化関数を適用します。一般的な活性化関数には、値を0と1の間に圧縮するシグモイドや、負の値をキャンセルして正の値を通過させるReLU(Rectified Linear Unit)が含まれます。
非線形性がなければ、ネットワークは単に線形変換を実行するだけであり、複雑なパターンをモデル化することはできません。ANNは、データが入る入力層、データが漸進的に変換される隠れ層、そして予測を生成する出力層に組織化されます。
すべての現代のアーキテクチャの起源は、閾値を持つ単純な線形ニューロンであるパーセプトロン(Rosenblatt, 1958)に遡ります。現代のディープラーニング・ネットワークには、数百の層と数十億のパラメーターが含まれることがあります。しかし、その中核において、ANNは出力が期待される結果と一致するまで何百万もの数値セルを調整する、巨大な自動化されたスプレッドシートのように機能します。
人工ネットワークにおける学習は、生物学的学習のようには機能しません。生きられた経験に基づく神経修飾物質やシナプス強度の調整はありません。代わりに、学習は、ネットワークの予測と正解との間の差異を定量化する誤差関数(エラー関数)を最小化することに基づいています。
簡単な例を考えてみましょう:モデルが「パリは〜の首都である」を完了するように求められます。予測が「イタリア」である場合、誤差関数はイタリアとフランスの間のギャップを測定し、それに従って重みを調整します。この調整の背後にある中心的なメカニズムが、誤差逆伝播法(バックプロパゲーション)です(Rumelhart et al., 1986)。このアルゴリズムは、出力での誤差を計算し、その誤差を層ごとに逆方向に伝播させ、誤差を減らす方向へパラメーターを変更する数学的手法である勾配降下法を使用して重みを調整します。
形式的には、学習とは、多次元の空間において微分可能な関数を最適化することで構成されます。物理的な空間で考えれば、次元は x、y、z です。しかし言語においては、単数形、複数形、女性名詞、男性名詞、動詞、主語、属性、名詞、形容詞、イントネーション、同義語といった次元を想像してください。何百万もの次元と十分な計算能力を導入すれば、モデルは訓練中の予測誤差を減らすだけで、「パリはフランスの首都である」ことを学習できます。
用語は神経科学と重複していますが、そのプロセスは生命システムが学習する方法とは似ていません。ANNにおいて、調整はグローバルな計算と、最終的な誤差に関する明示的な知識に依存します。ネットワークは、自分がどれだけ間違っていたかを正確に知る必要があります。
ネットワークが猫を認識することを学習する場合、数千または数百万のラベル付き画像を受け取ります。失敗するたびに、重みをわずかに調整します。何百万回もの反復の後、内部パターンは猫を他の物体から区別する構成に安定します。このプロセスは純粋に統計的です。ネットワークは猫とは何かを「理解」していません。ピクセル内の数値的相関を検出しているのです。猫の「世界モデル」を保持しているのではなく、大規模な数値の行列を保持しているに過ぎません。これがなぜ重要なのかについてのより深い見解については、私たちのベンチマーキング世界モデル学習の分析をお読みください。
人工ニューラルネットワークには、いくつかの重要なアーキテクチャが存在します。畳み込みネットワーク(CNN)は、エッジ、テクスチャ、階層的なパターンを検出する空間フィルターを使用し、コンピュータービジョンに不可欠です。リカレントネットワーク(RNN、LSTM)は、シーケンスを処理するための時間的記憶を組み込みます。そして、現在主流となっているトランスフォーマー(Transformers)は、入力のどの部分が最も関連性が高いかを動的に重み付けするアテンションメカニズムを使用します(Vaswani et al., 2017)。トランスフォーマーは現在、自然言語処理における大部分の大規模言語モデルを駆動しています。
これらのネットワークの成長は、生命システムのように有機的に起こるわけではありません。それは、高性能計算センターでの大規模な訓練を通じた、明示的な設計とパラメーターのスケーリングによって発生します。適応は訓練期間に限定されます。一度訓練されると、ネットワークは自発的にそのアーキテクチャを再編成することはありません。いかなる変更も、新たな最適化プロセスを必要とします。「静的なAIは行き止まりである」で探求したように、この凍結された性質は、現在のAIシステムの根本的な限界です。
「ネットワーク」という名前を共有しているにもかかわらず、人工ニューラルネットワークと生物学的ニューラルネットワークの類似性は限定的です。類推は構造的かつ抽象的なものです:どちらも相互接続されたユニットを使用し、接続の調整を通じて学習します。しかし、脳は進化論的で、身体化された、自己制御型のシステムです。ANNは数値空間における関数オプティマイザーです。
Neuraxon AIGarth でシミュレートされるネットワークは、概念的には生物学的ネットワークと従来の人工ニューラルネットワークの間に位置付けられます。それらは生きた組織ではありませんが、単に勾配によって最適化される数学的関数でもありません。それらの目的は、マルチスケールの可塑性、コンテキスト依存の変調、および自己組織化を含む、生物学的システムに特有のダイナミクスを近似することであり、これらはすべて、Qubic の分散型AIインフラストラクチャのために構築された計算フレームワーク内で実行されます。
Volume 1 で自己組織化された代謝システムを説明し、Volume 2 で微分可能な最適化関数を探求したとすれば、Neuraxon は、後者の数学的形式化を放棄することなく、前者の動的特性を組み込むことを試みています。
典型的な連続的活性化(例えば、ReLU後の実数値)の代わりに、Neuraxon は三進法の状態:-1、0、+1を使用します。ここで、+1は興奮性活性化、-1は抑制性活性化、0は休息または非アクティブを表します。
このスキームは、生物学的な活動電位をコピーしようとするものではありません。むしろ、上記の生物学的ネットワークのセクションで説明した興奮・抑制バランスの機能的原理を捉えています。脳において、安定性はこの力学のバランスから創発します。Neuraxon では、離散状態空間が、単純な連続変換というよりも、状態遷移システムに近いダイナミクスを強います。
活性化が生理学的意味を持たない浮動小数点数である古典的な人工ネットワークとは対照的に、三進法システムは、活動がネットワークを通じてどのように伝播するかを形作る構造的な制約を課します。
生物学的ニューラルネットワークは、異なる時間スケールでの可塑性を示します:シナプス効率の急速な変化と、時間の経過とともに起こるより遅い固定化です。Neuraxon は、2つの重みコンポーネントを通じてこのアイデアを導入します:
これにより、システムが標準的なバックプロパゲーションのような均質な重み更新に排他的に依存することを防ぎます。学習の一部は一時的である一方、別の部分は徐々に固定化されます。このメカニズムは、ほとんどの人工ニューラルネットワークには存在しない次元を導入します:学習率は固定されておらず、システムのグローバルな状態に依存します。
生物学的ネットワークにおいて、ノルアドレナリンやドーパミンといった神経修飾物質は、特定の情報コンテンツを伝達しません。代わりに、広範な神経細胞集団のゲインと可塑性を変化させます。これについては「NIA Volume 3: 神経修飾と脳型AI」で深く探求しました。
Neuraxon において、変数 `meta` は機能的に類似した役割を果たします。それは特定の情報をエンコードするのではなく、シナプス更新の大きさを変更します。これは、学習が動機付けや顕著性(セイリエンス)のコンテキストに依存するという生物学的原理を近似しています。従来の人工ネットワークでは、勾配は誤差に基づいて均一に適用されます。Neuraxon では、内部状態やグローバルな外部シグナルに応じて、学習を強化または減衰させることができます。
この概念的な違いは重要です。古典的なディープラーニング・ネットワークでは、誤差が学習を駆動します。Neuraxon では、誤差は、任意の瞬間においてどれだけの量が学習されるかを変更する、コンテキスト的な変調シグナルと共存することができます。
生物学的ネットワークは、システムが秩序とカオスの間の均衡を維持する、自己組織化臨界性と呼ばれるレジームの近くで動作します。このレジームにより、安定性を失うことなく柔軟性が可能になります。
Neuraxon は、ネットワークが中間の動的状態に向かって進化することを可能にすることで、この特性をモデル化します。この状態では、小さな摂動がシステムを崩壊させることなく、広範な再編成を生み出すことができます。
チームが現在開発している「固有受容覚(proprioception)によって拡張されたライフゲーム」のようなモデルにおいて、システムは外部シグナル(環境)と内部シグナル(それ自身の状態、エネルギー、過去の衝突)を受信することができます。エージェントが障害物に繰り返し衝突した場合、覚醒の増加に類似した、`meta` シグナルの増加が生成される可能性があります。そのシグナルは一時的に可塑性を高め、構造の再編成を促進します。
ここでは、ネットワークは間違えたからという理由だけで学習するわけではありません。環境が適応上の妥当性を獲得するから学習するのです。脳との類似性は依然として限定的です:Neuraxon は生物学、代謝、または主観的経験を持っていません。しかしながら、それはほとんどの従来の人工ニューラルネットワークには存在しない動的な次元を導入し、分散型インフラストラクチャにおける脳型AIへの真に斬新なアプローチとして位置づけられます。
Neuraxon のシミュレーションを実行するために必要な計算能力は、Useful Proof of Work を通じてQubicのマイナーのグローバルネットワークによって提供され、AIの訓練自体をコンセンサスメカニズムへと転換しています。
本記事は、生物学的な脳(生体ニューラルネットワーク)と、従来の人工知能(人工ニューラルネットワーク:ANN)の根本的な違いを整理し、両者の橋渡しとなる Qubic の次世代AIアーキテクチャ「Neuraxon Aigarth」の革新性を解説しています。
脳のネットワークは、単なるデータの保存場所ではなく、常に活動を続ける「動的なシステム」です。
ディープラーニングやLLM(大規模言語モデル)などの従来のAIは、脳からインスピレーションを得ていますが、実態は全く異なります。
Neuraxon は、従来のAIの数学的な形式を保ちながら、生物学的な動的特性を組み込んだ全く新しいアプローチです。
Neuraxon は、純粋な生物組織でも、従来の関数オプティマイザーでもありません。
Qubic の分散型インフラ上で稼働し、環境に適応し続ける「生きたAI」を実現するための全く新しい枠組みを提供しています。