ユーザ用ツール

サイト用ツール


official-blog:260224-neural-networks-in-ai-and-neuroscience

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
official-blog:260224-neural-networks-in-ai-and-neuroscience [2026/02/24 23:29] – [260224 AIと神経科学におけるニューラルネットワーク:脳はいかにして人工知能を刺激するか] d.azumaofficial-blog:260224-neural-networks-in-ai-and-neuroscience [2026/02/24 23:38] (現在) – [テーブル] d.azuma
行 135: 行 135:
   * Vaswani, A., et al. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30. [[https://arxiv.org/abs/1706.03762|arXiv: 1706.03762]]   * Vaswani, A., et al. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30. [[https://arxiv.org/abs/1706.03762|arXiv: 1706.03762]]
   * Brain network images courtesy from: [[https://doi.org/10.3389/fnagi.2023.1204134|DOI: 10.3389/fnagi.2023.1204134]]   * Brain network images courtesy from: [[https://doi.org/10.3389/fnagi.2023.1204134|DOI: 10.3389/fnagi.2023.1204134]]
 +
 +----
 +
 +===== 要約:AIと神経科学におけるニューラルネットワーク =====
 +
 +|  [[https://drive.google.com/file/d/1Zz1JCEToGcc6PXaydvHvISiL7xB8GLAE/view?usp=drive_link|Google NotebookLM スライドPDF]]\\ [[https://drive.google.com/file/d/1Zz1JCEToGcc6PXaydvHvISiL7xB8GLAE/view?usp=drive_link|{{.:pasted:20260224-233622.png?800}}]]  |
 +
 +
 + 本記事は、生物学的な脳(生体ニューラルネットワーク)と、従来の人工知能(人工ニューラルネットワーク:ANN)の根本的な違いを整理し、両者の橋渡しとなる Qubic の次世代AIアーキテクチャ「Neuraxon Aigarth」の革新性を解説しています。
 +
 +===== 1. 生物学的ニューラルネットワーク(脳)の特徴 =====
 +
 + 脳のネットワークは、単なるデータの保存場所ではなく、常に活動を続ける「動的なシステム」です。
 +
 +  * **興奮と抑制のバランス:** 
 +    * ネットワークの安定性は、活動を促す「興奮」と抑え込む「抑制」の絶妙なバランスによって保たれています。
 +
 +  * **神経修飾と柔軟性:** 
 +    * ノルアドレナリンなどの神経修飾物質が、その時の状況(コンテキスト)に応じてネットワークの感度や学習の強さを調整します。
 +
 +  * **時間と周波数の言語:** 
 +    * 複数の時間スケール(ミリ秒単位のインパルスから年単位の構造変化まで)が同時並行で機能し、情報を統合しています。
 +
 +===== 2. 人工ニューラルネットワーク(従来のAI)の限界 =====
 +
 + ディープラーニングやLLM(大規模言語モデル)などの従来のAIは、脳からインスピレーションを得ていますが、実態は全く異なります。
 +
 +  * **純粋な数学的最適化:** 
 +    * ニューロンの働きを模倣しているわけではなく、正解との「誤差(エラー)」を減らすための巨大なスプレッドシート(統計的計算)に過ぎません。
 +
 +  * **静的で凍結されたシステム:** 
 +    * 学習(訓練)期間が終了すると構造が固定化されます。自発的にアーキテクチャを再編成したり、環境の変化にリアルタイムに適応したりすることはできません。
 +
 +===== 3. Neuraxon Aigarth:第3のアプローチ =====
 +
 + [[tag/Neuraxon]] は、従来のAIの数学的な形式を保ちながら、生物学的な動的特性を組み込んだ全く新しいアプローチです。
 +
 +  * **三進法状態(-1, 0, +1)の導入:** 
 +    * 脳の「興奮・抑制・中立(休止)」のバランスをデジタル上で再現し、より生命に近い状態遷移を実現します。
 +
 +  * **2つの時間スケールを持つ可塑性:** 
 +    * 即座に環境に適応する「速い学習(w_fast)」と、長期的なパターンを固定化する「遅い学習(w_slow)」の2つの重みを持ちます。
 +
 +  * **コンテキスト依存の学習(meta 変数):** 
 +    * 従来のAIのように「計算の誤差」だけで学習するのではなく、「meta」と呼ばれる変数が生物の神経修飾のように働き、状況(モチベーションや重要度)に応じて学習の強弱をコントロールします。
 +
 +  * **持続的な適応(自己組織化):** 
 +    * Qubicのマイナーが提供する計算能力([[tag/uPoW]])を活用し、環境の変化に合わせて自律的かつ継続的に自己を再編成し続けます。
 +
 +===== 結論 =====
 +
 + [[tag/Neuraxon]] は、純粋な生物組織でも、従来の関数オプティマイザーでもありません。
 +
 + Qubic の分散型インフラ上で稼働し、環境に適応し続ける「生きたAI」を実現するための全く新しい枠組みを提供しています。
 +
  
  
 {{tag>blog 260224 Neuraxon news }} {{tag>blog 260224 Neuraxon news }}
official-blog/260224-neural-networks-in-ai-and-neuroscience.1771975749.txt.gz · 最終更新: by d.azuma