official_blog:260107_neuraxon_time

文書の過去の版を表示しています。


20260107 NEURAXON TIME:知能は「ステップ」ではなく「時間」で計算される理由(転載)

執筆: Qubic Scientific Team
公開日: 2026年1月7日

脳は時間の中で計算するのではなく、時間「と共に」計算します。

生物学的なニューロンは、寝室の照明スイッチがオンになるような仕組みでは機能しません。それらは連続的なダイナミックシステム(動的システム)です。ニューロンの状態は、外部からの刺激がない場合でも、常に進化し続けています。

ニューロンは時間とともにどのように機能するのか?

基本的には、細胞膜の内外に電荷(イオン)を移動させること、つまり電位を変化させることによって機能します。イオン(主にナトリウムとカリウム)は、特定の強度でニューロンのさまざまなゲートを通って出入りし、電位を修正します。漏洩ゲート(leakage gates)と呼ばれる、イオンが常に絶え間なく出入りしているゲートも存在します。

時間は「暗黙的」なものです。電位は時間とともに常に変化します。

ニューロンの電位の時間的な変化は、以下に依存します: 印加された外部電流 + ゲートを開閉して通過するナトリウムイオンの流れ(電位を上げる)とカリウムイオンの流れ(電位を下げる)のバランス

グラフを見てパニックにならないでください。正と負の電荷(イオン)がゲートを流れ、脱分極(電流がニューロンの末端まで移動する)または過分極(中立状態に戻る)を引き起こします。

電位(V)は時間とともに変化します。数学的には、入出力ゲートの関数の合計として dV/dt と表されます。

これは計算神経科学の基本モデルであり、ニューロンの状態が現在の信号と、その直前の履歴の両方に依存していることを示しています。刺激は常に動作しているシステムに対して投げかけられるため、イベント間に「リセット」は存在しません。

バイオインスパイアード・モデル「Neuraxon」

次に、バイオインスパイアード(生体模倣)モデルである Neuraxon に話を移しましょう。

私たちは、それを生きた「知能の組織(intelligent tissue)」にしたいと考えています。それは離散的な状態(discrete states)を持つことはできず、連続的な状態(continuous ones)を持たなければなりません。

Neuraxon では、電荷を移動させ電位を変える開閉式のイオンゲートの代わりに、「動的なシナプス重み(dynamic synaptic weights)」を採用しています。しかし、モデルの方程式は生物学的ニューロンと明確かつ直接的な類似性を維持しています。

これが何を意味するのでしょうか?

生物学的ニューロンの電圧「V」の代わりに、Neuraxonの状態は「s」となります。そしてそれも時間とともに変化するため、ds/dt は重み、活性化、および前の状態の関数となります。

ネットワークのシナプス重みが入力に対する型にはまった出力を表す従来のAIモデルとは異なり、Neuraxonの重みは静的ではありません。

例えば、「メールの受信トレイ」の自動応答メカニズムを想像してみてください。

  • 従来のAI: ルールは時間や文脈によって調整されたり変化したりすることはありません。
  • Neuraxon: 「メールの入力」が同じ人物から来たものか(緊急性を示す可能性がある)、あるいは週末に届いたものか(返信なしの出力を生成する可能性がある)といったことが考慮されます。言い換えれば、ルールは残りますが、いつ、どのように応答が与えられるかが変調(モジュレート)されるのです。

LLMは「時間」を計算しているか?

大規模言語モデル(LLM)は、多くの文脈において深い理解を示しているように見えますが、生物学的システムとは異なる論理で動作しています(Vaswani, 2017)。それらは内部的な時間力学や、応答を変調させる「電位の変化」「シナプス重み」に基づいて機能しているのではなく、離散的なシーケンス(配列)を処理しています。

LLMには「時間」が存在しません。そのため、知能のような生物学的行動をシミュレートすることが困難です。LLMはどの単語が前で、どの単語が後かを区別することはできますが、「持続」や「継続」の経験を与えることはありません。「順序(Order)」が時間に取って代わっているのです。

Neuraxonとは異なり、LLMは加速したり減速したりする内部リズムを持たず、繰り返される刺激に対する漸進的な慣れを示すこともなく、時間とともに変化する内部状態に基づいて動的に予測することもできません。

LLMモデルの計算は次のようなものになります:

  • output = Fθ(input)

したがって、結果は入力の関数(組み合わせ)から導かれる固定された解となります。 時間の関数としての「状態」は存在しません。これらは巨大な行列を形成するデータであり、特定の関数を通じてその値を変化させますが、前述の例のように「メール入力 → 自動応答」という可能性を制限するものです。

まとめ

Neuraxonのようなバイオインスパイアード・モデルとLLMの距離は、計算能力やデータ量で説明されるべきではありません。そこにはより深い違いがあります。

脳はそれ自体が連続的な時間システムです。その機能は、時間とともに展開するダイナミクス、すなわち外部刺激がない場合でも永続的に進化し、減衰し、再編成される「状態」によって定義されます(Deco et al., 2009; Northoff, 2018)。

Neuraxonは、意図的にその同じ論理の中に位置付けられています。脳の生物物理学的な複雑さを1対1で模倣しようとするのではなく、計算変数として「時間」を明示的に組み込んでいます。その内部状態は連続的に進化し、過去を運び、現在を変調させることで、リセットを必要とせずに適応を可能にします。

対照的に、LLMの動作は大きく異なります。彼らは独自の型を持たない、離散的なシーケンスに並べられたシンボルを操作します。そこには時間がなく、順序しかありません。適応はなく、事前に定義された応答があるだけです。

「時間」が計算を支配する状態の一部にならない限り、LLMは効果的かもしれませんが、強い意味での「自律性」を持つことは難しいでしょう。

未来の人工知能は、動的な環境で作動することを目指しています。これが、Neuraxonが「時間」を基本変数として含んでいる理由です。

生きた知能の組織として……。

これがどのようにQubicに関連するのか?

Qubicは、時間を意識した知能(time-aware intelligence)に必要とされる、継続的に実行され、状態を保持する計算環境を提供します。

Qubicは、Neuraxonのようなモデル(適応型で、持続性があり、決して「リセット」されないモデル)が存在し、進化し続けるための自然な基盤(基質)なのです。

補遺 (Addenda)

方程式を見てみましょう。パニックにならないで!

  1. 生物学的ニューロン: V(電位)、「流入・流出するゲートフラックスの合計」
  2. Neuraxonモデル方程式: 生物学的ニューロンとの明確かつ直接的な類似性。s(状態)、wi & f(si)(動的シナプス重み)
  3. LLMモデル方程式: 入力(行列に並べられたもの)が固定された関数を通じて行列出力を生成する。
    • p (xn+1 | x₁, …, xn) = softmax (Fθ (x₁, …, xn) )

参考文献 (References)

  • Deco, G., Jirsa, V. K., Robinson, P. A., Breakspear, M., & Friston, K. J. (2009). The dynamic brain. PLoS Computational Biology, 5(8), e1000092.
  • Northoff, G. (2018). The spontaneous brain. MIT Press.
  • Vaswani, A., et al. (2017). Attention is all you need. NeurIPS.
  • Vivancos, D., & Sanchez, J. (2025). Neuraxon: A new neural growth & computation blueprint. Qubic Science.

要約

1. 脳は「時間と共に」計算する

生物学的なニューロンは、単純なオン/オフのスイッチではありません。それらは連続的な動的システムです。

  • 状態の継続性: ニューロンの電位は、外部刺激がない時でも常に変動しており、直前の履歴と現在の入力のバランスによって変化します。
  • リセットなし: イベントごとにリセットされることはなく、常に稼働しているシステム上で刺激が処理されます。

2. Neuraxon:バイオインスパイアード・モデル

Neuraxonは、この生物学的論理を模倣しています。

  • 動的なシナプス重み: 固定されたルールではなく、時間や文脈(例:週末か平日か、送信者は誰か)に応じて応答を変調(モジュレート)させます。
  • 数式: 生物学的ニューロンの電圧変化 ($dV/dt$) と同様に、Neuraxonの状態 $s$ も時間変化 ($ds/dt$) として定義されます。

3. LLM(大規模言語モデル)の限界

LLMは高度に見えますが、生物とは異なるロジックで動作しています。

  • 時間がない: LLMにあるのは「順序(シーケンス)」だけであり、「時間」や「持続」の概念がありません。
  • 離散的ステップ: 入力に対して固定された関数で出力するだけであり、内部リズムや、時間経過による適応・慣れを持ちません。

4. QubicとNeuraxonの結合

真の自律的なAIには、時間が計算の一部として組み込まれている必要があります。

  • Qubicの役割: Neuraxonのような「適応し、持続し、決してリセットされない」モデルが生存・進化するための、継続的でステートフル(状態保持型)な計算環境を提供します。
official_blog/260107_neuraxon_time.1768430175.txt.gz · 最終更新: by d.azuma