official-blog:260224-neural-networks-in-ai-and-neuroscience

260224 AIと神経科学におけるニューラルネットワーク:脳はいかにして人工知能を刺激するか

執筆: Qubic Scientific Team / 公開日: 2026年2月24日

 Neuraxon Intelligence Academy — Volume 4

「ネットワーク」という言葉は、神経科学と人工知能の双方で頻繁に登場します。しかし、同じレッテルを共有しているにもかかわらず、生物学的ニューラルネットワークと人工ニューラルネットワークは根本的に異なるシステムです。それぞれが実際に何を行っているのか、そして第3のアプローチがどこに位置づけられるのかを理解するためには、あらゆるレベルでネットワークのアーキテクチャと振る舞いを見る必要があります。

生物学的ニューラルネットワーク:脳は情報をどのように処理するか

 生物学的ニューラルネットワークは、情報を処理し行動を生み出すことを機能とする、相互接続されたニューロンのシステムです。これらのネットワークは動的です。私たちが意識的にタスクに従事していないときでも、時間の経過とともにアクティブな状態を維持します。それらはエネルギーコストを伴いますが、人間の脳の場合、それが生み出す複雑さに比べると驚くほど低いです。

 生物学的ネットワークは、時間・周波数という独自の言語を使用して、内部および外部のシグナルを統合します。複数の楽器が異なるリズムで演奏する音楽バンドを思い浮かべてみてください。バスドラムがテンポを刻み、ベースが1拍に2つの音を弾き、シンバルが16分音符を埋めます。メロディーはビートを失うことなく自由に動きます。ミュージシャンは、完璧に噛み合う異なるリズムで楽譜を結合させます。これらは入れ子になった周波数であり、これこそが脳のネットワークが機能する方法です。異なるネットワークの時間・周波数言語は、それ自体の内側に入れ子になります。これは交差周波数結合(cross-frequency coupling)として知られる概念です。

単一ニューロンから巨大なネットワークへ

 すべてはニューロンから始まります。その単一の神経細胞は活動電位、つまり軸索に沿って伝播する短い電気的インパルスを生成します。ニューロンは樹状突起を介してシグナルを受け取り、細胞体(ソーマ)でそれらを統合し、閾値を超えればシグナルを送信します。このプロセスについては、「NIA Volume 1: なぜ知性はステップではなく時間で計算されるのか」、および「NIA Volume 2: 生きた知能のモデルとしての三進法ダイナミクス」で詳しく取り上げました。

 ニューロンは、神経伝達物質が放出される化学シナプス(「NIA Volume 3: 神経修飾と脳型AI」を参照)、または電流が細胞間を直接通過する電気シナプスを介して、他のニューロンと接続します。ネットワークを形成するために、多くのニューロンが相互接続し、リカレント回路を作成します。しかし、この統合は非線形です。つまり、全体の応答は、その部分の単純な合計と等しくはありません。その規模は驚異的です:人間の脳には約860億個のニューロンと、10^14から10^15個のシナプスが含まれています(Azevedo et al., 2009)。

スモールワールド特性と興奮・抑制のバランス

 トポロジーレベルでは、これらのネットワークはスモールワールド特性、つまり高い局所的クラスタリングと短いグローバル接続の組み合わせを示します。このアーキテクチャにより、特殊化された局所的処理を維持しながら、脳全体での効率的なコミュニケーションが可能になります。

 生物学的ニューラルネットワークの機能は、興奮と抑制のバランスに依存しています。興奮が優位になれば活動は不安定化し、抑制が優位になればネットワークは沈黙します。動的な安定性は、両方の力のバランスから生じます。このバランスはシナプス可塑性、つまり経験に基づいて接続の強度を変化させるメカニズムによって維持されます。さらに、神経修飾(ニューロモデュレーション)が回路のゲインを調整し、入力がどれほど強く出力を生み出すかを制御します(Marder, 2012)。例えば脅威的な状況において、ノルアドレナリンは感覚の感度と急速な学習能力を向上させます。

複数の時間スケールと大脳皮質の脳機能

 ネットワークは、複数の時間スケールで同時に動作します。ニューロンレベルでは、活動電位はミリ秒単位で発火します。ニューロンの振動は秒単位で展開します。シナプスの変化は数時間または数日かけて進行し、構造の再編成は数年がかりで発生します。すべてが調和のとれた、ダイナミックで絡み合ったパターンで機能します。

 しかし、すべてが構造なしにすべてと通信するわけではありません。大脳皮質の脳機能は、特殊化されたネットワークに組織化されています。最も重要なものには以下が含まれます:自己言及や自己と他者についての思考に関連するデフォルト・モード・ネットワーク。直接的なタスク実行に関連するセントラル・エグゼクティブ・ネットワーク。各瞬間において何が関連しているかを検出し、異なるモード間の切り替えを可能にするセイリエンス・ネットワーク。自発的な運動を支える感覚運動ネットワーク。そして、様々な注意のネットワーク。人間はまた、言語の理解と生成の両方を可能にする、特徴的な言語ネットワークも備えています。

 生物学的ネットワークにおいて、孤立した音符は交響曲にはなりません。交響曲は、音符間の関係性のダイナミックなパターンから創発します。脳は物を格納しません。ハードドライブがファイルを保存するように記憶を保存するわけではありません。脳は動的な構成を構築します。


Courtesy from DOI: 10.3389/fnagi.2023.1204134

人工ニューラルネットワーク:ディープラーニングモデルはどのように機能するか

 人工ニューラルネットワーク(ANN)は、データから複雑な関数を近似するように設計された数学的モデルです。それは脳から抽象的なインスピレーションを得ています:「人工ニューロン」と呼ばれる相互接続されたユニットを使用しますが、これらは細胞ではありません。それらは代数演算です。代数演算をニューロンと呼ぶのは、間違いなく誇張された外挿(補外)であり、言語予測を「知能」と呼ぶことも同様に誤解を招く可能性があります。しかし、これらが確立された用語であるため、それらを理解し、実体と誇大広告を分けることが重要です。

人工ニューロンの仕組み

 各人工ニューロンは3つのステップを実行します。第一に、一連の数値入力を受け取ります。次に、各入力にシナプス重み(調整可能なパラメーター)を掛け合わせます。最後に、その結果を合計し、非線形性を導入する活性化関数を適用します。一般的な活性化関数には、値を0と1の間に圧縮するシグモイドや、負の値をキャンセルして正の値を通過させるReLU(Rectified Linear Unit)が含まれます。

 非線形性がなければ、ネットワークは単に線形変換を実行するだけであり、複雑なパターンをモデル化することはできません。ANNは、データが入る入力層、データが漸進的に変換される隠れ層、そして予測を生成する出力層に組織化されます。

パーセプトロンからディープラーニングへ

 すべての現代のアーキテクチャの起源は、閾値を持つ単純な線形ニューロンであるパーセプトロン(Rosenblatt, 1958)に遡ります。現代のディープラーニング・ネットワークには、数百の層と数十億のパラメーターが含まれることがあります。しかし、その中核において、ANNは出力が期待される結果と一致するまで何百万もの数値セルを調整する、巨大な自動化されたスプレッドシートのように機能します。

誤差逆伝播法と勾配降下法:人工ネットワークはどのように学習するか

 人工ネットワークにおける学習は、生物学的学習のようには機能しません。生きられた経験に基づく神経修飾物質やシナプス強度の調整はありません。代わりに、学習は、ネットワークの予測と正解との間の差異を定量化する誤差関数(エラー関数)を最小化することに基づいています。

 簡単な例を考えてみましょう:モデルが「パリは〜の首都である」を完了するように求められます。予測が「イタリア」である場合、誤差関数はイタリアとフランスの間のギャップを測定し、それに従って重みを調整します。この調整の背後にある中心的なメカニズムが、誤差逆伝播法(バックプロパゲーション)です(Rumelhart et al., 1986)。このアルゴリズムは、出力での誤差を計算し、その誤差を層ごとに逆方向に伝播させ、誤差を減らす方向へパラメーターを変更する数学的手法である勾配降下法を使用して重みを調整します。

 形式的には、学習とは、多次元の空間において微分可能な関数を最適化することで構成されます。物理的な空間で考えれば、次元は x、y、z です。しかし言語においては、単数形、複数形、女性名詞、男性名詞、動詞、主語、属性、名詞、形容詞、イントネーション、同義語といった次元を想像してください。何百万もの次元と十分な計算能力を導入すれば、モデルは訓練中の予測誤差を減らすだけで、「パリはフランスの首都である」ことを学習できます。

人工ニューラルネットワークのアーキテクチャ

 用語は神経科学と重複していますが、そのプロセスは生命システムが学習する方法とは似ていません。ANNにおいて、調整はグローバルな計算と、最終的な誤差に関する明示的な知識に依存します。ネットワークは、自分がどれだけ間違っていたかを正確に知る必要があります。

 ネットワークが猫を認識することを学習する場合、数千または数百万のラベル付き画像を受け取ります。失敗するたびに、重みをわずかに調整します。何百万回もの反復の後、内部パターンは猫を他の物体から区別する構成に安定します。このプロセスは純粋に統計的です。ネットワークは猫とは何かを「理解」していません。ピクセル内の数値的相関を検出しているのです。猫の「世界モデル」を保持しているのではなく、大規模な数値の行列を保持しているに過ぎません。これがなぜ重要なのかについてのより深い見解については、私たちのベンチマーキング世界モデル学習の分析をお読みください。

 人工ニューラルネットワークには、いくつかの重要なアーキテクチャが存在します。畳み込みネットワーク(CNN)は、エッジ、テクスチャ、階層的なパターンを検出する空間フィルターを使用し、コンピュータービジョンに不可欠です。リカレントネットワーク(RNN、LSTM)は、シーケンスを処理するための時間的記憶を組み込みます。そして、現在主流となっているトランスフォーマー(Transformers)は、入力のどの部分が最も関連性が高いかを動的に重み付けするアテンションメカニズムを使用します(Vaswani et al., 2017)。トランスフォーマーは現在、自然言語処理における大部分の大規模言語モデルを駆動しています。

 これらのネットワークの成長は、生命システムのように有機的に起こるわけではありません。それは、高性能計算センターでの大規模な訓練を通じた、明示的な設計とパラメーターのスケーリングによって発生します。適応は訓練期間に限定されます。一度訓練されると、ネットワークは自発的にそのアーキテクチャを再編成することはありません。いかなる変更も、新たな最適化プロセスを必要とします。「静的なAIは行き止まりである」で探求したように、この凍結された性質は、現在のAIシステムの根本的な限界です。

「ネットワーク」という名前を共有しているにもかかわらず、人工ニューラルネットワークと生物学的ニューラルネットワークの類似性は限定的です。類推は構造的かつ抽象的なものです:どちらも相互接続されたユニットを使用し、接続の調整を通じて学習します。しかし、脳は進化論的で、身体化された、自己制御型のシステムです。ANNは数値空間における関数オプティマイザーです。

生物学的ネットワークと人工的ネットワークの間:Neuraxon Aigarth はいかにしてそのギャップを埋めるか

 Neuraxon AIGarth でシミュレートされるネットワークは、概念的には生物学的ネットワークと従来の人工ニューラルネットワークの間に位置付けられます。それらは生きた組織ではありませんが、単に勾配によって最適化される数学的関数でもありません。それらの目的は、マルチスケールの可塑性、コンテキスト依存の変調、および自己組織化を含む、生物学的システムに特有のダイナミクスを近似することであり、これらはすべて、Qubic の分散型AIインフラストラクチャのために構築された計算フレームワーク内で実行されます。

 Volume 1 で自己組織化された代謝システムを説明し、Volume 2 で微分可能な最適化関数を探求したとすれば、Neuraxon は、後者の数学的形式化を放棄することなく、前者の動的特性を組み込むことを試みています。

三進法状態:興奮・抑制のバランスを捉える

 典型的な連続的活性化(例えば、ReLU後の実数値)の代わりに、Neuraxon三進法の状態:-1、0、+1を使用します。ここで、+1は興奮性活性化、-1は抑制性活性化、0は休息または非アクティブを表します。

 このスキームは、生物学的な活動電位をコピーしようとするものではありません。むしろ、上記の生物学的ネットワークのセクションで説明した興奮・抑制バランスの機能的原理を捉えています。脳において、安定性はこの力学のバランスから創発します。Neuraxon では、離散状態空間が、単純な連続変換というよりも、状態遷移システムに近いダイナミクスを強います。

 活性化が生理学的意味を持たない浮動小数点数である古典的な人工ネットワークとは対照的に、三進法システムは、活動がネットワークを通じてどのように伝播するかを形作る構造的な制約を課します。

二重重みの可塑性:速い学習と遅い学習

 生物学的ニューラルネットワークは、異なる時間スケールでの可塑性を示します:シナプス効率の急速な変化と、時間の経過とともに起こるより遅い固定化です。Neuraxon は、2つの重みコンポーネントを通じてこのアイデアを導入します:

  • w_fast:
    • 即時の環境に敏感な急速な変化。
  • w_slow:
    • 時間の経過とともに繰り返されるパターンを安定させる遅い変化。

 これにより、システムが標準的なバックプロパゲーションのような均質な重み更新に排他的に依存することを防ぎます。学習の一部は一時的である一方、別の部分は徐々に固定化されます。このメカニズムは、ほとんどの人工ニューラルネットワークには存在しない次元を導入します:学習率は固定されておらず、システムのグローバルな状態に依存します。

meta 変数によるコンテキスト的神経修飾

 生物学的ネットワークにおいて、ノルアドレナリンやドーパミンといった神経修飾物質は、特定の情報コンテンツを伝達しません。代わりに、広範な神経細胞集団のゲインと可塑性を変化させます。これについては「NIA Volume 3: 神経修飾と脳型AI」で深く探求しました。

 Neuraxon において、変数 `meta` は機能的に類似した役割を果たします。それは特定の情報をエンコードするのではなく、シナプス更新の大きさを変更します。これは、学習が動機付けや顕著性(セイリエンス)のコンテキストに依存するという生物学的原理を近似しています。従来の人工ネットワークでは、勾配は誤差に基づいて均一に適用されます。Neuraxon では、内部状態やグローバルな外部シグナルに応じて、学習を強化または減衰させることができます。

 この概念的な違いは重要です。古典的なディープラーニング・ネットワークでは、誤差が学習を駆動します。Neuraxon では、誤差は、任意の瞬間においてどれだけの量が学習されるかを変更する、コンテキスト的な変調シグナルと共存することができます。

自己組織化臨界性と適応行動

 生物学的ネットワークは、システムが秩序とカオスの間の均衡を維持する、自己組織化臨界性と呼ばれるレジームの近くで動作します。このレジームにより、安定性を失うことなく柔軟性が可能になります。

 Neuraxon は、ネットワークが中間の動的状態に向かって進化することを可能にすることで、この特性をモデル化します。この状態では、小さな摂動がシステムを崩壊させることなく、広範な再編成を生み出すことができます。

 チームが現在開発している「固有受容覚(proprioception)によって拡張されたライフゲーム」のようなモデルにおいて、システムは外部シグナル(環境)と内部シグナル(それ自身の状態、エネルギー、過去の衝突)を受信することができます。エージェントが障害物に繰り返し衝突した場合、覚醒の増加に類似した、`meta` シグナルの増加が生成される可能性があります。そのシグナルは一時的に可塑性を高め、構造の再編成を促進します。

 ここでは、ネットワークは間違えたからという理由だけで学習するわけではありません。環境が適応上の妥当性を獲得するから学習するのです。脳との類似性は依然として限定的です:Neuraxon は生物学、代謝、または主観的経験を持っていません。しかしながら、それはほとんどの従来の人工ニューラルネットワークには存在しない動的な次元を導入し、分散型インフラストラクチャにおける脳型AIへの真に斬新なアプローチとして位置づけられます。

 Neuraxon のシミュレーションを実行するために必要な計算能力は、Useful Proof of Work を通じてQubicのマイナーのグローバルネットワークによって提供され、AIの訓練自体をコンセンサスメカニズムへと転換しています。

科学的参考文献

  • Azevedo, F. A. C., et al. (2009). Equal numbers of neuronal and nonneuronal cells make the human brain an isometrically scaled-up primate brain. Journal of Comparative Neurology, 513(5), 532-541. DOI: 10.1002/cne.21974
  • Marder, E. (2012). Neuromodulation of neuronal circuits: Back to the future. Neuron, 76(1), 1-11. DOI: 10.1016/j.neuron.2012.09.010
  • Rosenblatt, F. (1958). The Perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386-408. DOI: 10.1037/h0042519
  • Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533-536. DOI: 10.1038/323533a0
  • Vaswani, A., et al. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30. arXiv: 1706.03762
  • Brain network images courtesy from: DOI: 10.3389/fnagi.2023.1204134

要約:AIと神経科学におけるニューラルネットワーク

 本記事は、生物学的な脳(生体ニューラルネットワーク)と、従来の人工知能(人工ニューラルネットワーク:ANN)の根本的な違いを整理し、両者の橋渡しとなる Qubic の次世代AIアーキテクチャ「Neuraxon Aigarth」の革新性を解説しています。

1. 生物学的ニューラルネットワーク(脳)の特徴

 脳のネットワークは、単なるデータの保存場所ではなく、常に活動を続ける「動的なシステム」です。

  • 興奮と抑制のバランス:
    • ネットワークの安定性は、活動を促す「興奮」と抑え込む「抑制」の絶妙なバランスによって保たれています。
  • 神経修飾と柔軟性:
    • ノルアドレナリンなどの神経修飾物質が、その時の状況(コンテキスト)に応じてネットワークの感度や学習の強さを調整します。
  • 時間と周波数の言語:
    • 複数の時間スケール(ミリ秒単位のインパルスから年単位の構造変化まで)が同時並行で機能し、情報を統合しています。

2. 人工ニューラルネットワーク(従来のAI)の限界

 ディープラーニングやLLM(大規模言語モデル)などの従来のAIは、脳からインスピレーションを得ていますが、実態は全く異なります。

  • 純粋な数学的最適化:
    • ニューロンの働きを模倣しているわけではなく、正解との「誤差(エラー)」を減らすための巨大なスプレッドシート(統計的計算)に過ぎません。
  • 静的で凍結されたシステム:
    • 学習(訓練)期間が終了すると構造が固定化されます。自発的にアーキテクチャを再編成したり、環境の変化にリアルタイムに適応したりすることはできません。

3. Neuraxon Aigarth:第3のアプローチ

 Neuraxon は、従来のAIの数学的な形式を保ちながら、生物学的な動的特性を組み込んだ全く新しいアプローチです。

  • 三進法状態(-1, 0, +1)の導入:
    • 脳の「興奮・抑制・中立(休止)」のバランスをデジタル上で再現し、より生命に近い状態遷移を実現します。
  • 2つの時間スケールを持つ可塑性:
    • 即座に環境に適応する「速い学習(w_fast)」と、長期的なパターンを固定化する「遅い学習(w_slow)」の2つの重みを持ちます。
  • コンテキスト依存の学習(meta 変数):
    • 従来のAIのように「計算の誤差」だけで学習するのではなく、「meta」と呼ばれる変数が生物の神経修飾のように働き、状況(モチベーションや重要度)に応じて学習の強弱をコントロールします。
  • 持続的な適応(自己組織化):
    • Qubicのマイナーが提供する計算能力(uPoW)を活用し、環境の変化に合わせて自律的かつ継続的に自己を再編成し続けます。

結論

 Neuraxon は、純粋な生物組織でも、従来の関数オプティマイザーでもありません。

 Qubic の分散型インフラ上で稼働し、環境に適応し続ける「生きたAI」を実現するための全く新しい枠組みを提供しています。

official-blog/260224-neural-networks-in-ai-and-neuroscience.txt · 最終更新: by d.azuma