official_blog:251203_staticia_is
差分
このページの2つのバージョン間の差分を表示します。
| 両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
| official_blog:251203_staticia_is [2026/01/14 23:02] – 削除 - 外部編集 (不明な日付) 127.0.0.1 | official_blog:251203_staticia_is [2026/01/20 22:53] (現在) – d.azuma | ||
|---|---|---|---|
| 行 1: | 行 1: | ||
| + | ====== 251203 静的AIは行き詰まり - Googleが確認 ====== | ||
| + | // | ||
| + | |||
| + | ===== 静的AIは行き詰まり。Googleが確認。 ===== | ||
| + | |||
| + | * **著者:** Qubic Scientific Team | ||
| + | * **公開日: | ||
| + | |||
| + | {{.: | ||
| + | ===== 関係の終わり:Googleの「Nested Learning」が静的AIが行き詰まりであることを確認する理由 ===== | ||
| + | |||
| + | 現代のAIの前提は、餌付けのような詐欺のように感じられます。私たちは本物の知能を約束されましたが、得たものは素晴らしい**フリップブック**でした。 | ||
| + | |||
| + | フリップブックは、十分なページ(層)を積み重ね、十分に速くめくれば、生命の強力な幻影を生み出します。それは動き、考え、進化するように見えます。しかし、動作を一時停止すると、すべてのページが過去に凍りついた静的な絵であることに気づきます。 | ||
| + | |||
| + | これが今日のLarge Language Models (LLMs) の状態です。そして今、研究の巨人がついにそれを認めています。 | ||
| + | |||
| + | Google Researchからの重要な新しい論文、Nested Learningは、Qubicが最初から主張してきたことを確認します:LLMsは真に学習していません。それらは**デジタル健忘症**の一形態に苦しみ、本物の新しい記憶を形成したり、新鮮な経験をその核心に統合したりすることができません。それらは—最も正確な神経科学用語を使うと—**凍りついた人工物**です。 | ||
| + | |||
| + | この正直さは称賛に値します。しかし、彼らの提案する解決策である「Nested Learning」(NL)パラダイムは、問題を生み出したシステムに依然としてしがみついています。 | ||
| + | |||
| + | ここでは、NLが失敗した領域の改善された地図に過ぎない理由、そして [[Qubic/]] の **[[tag/ | ||
| + | |||
| + | ===== 数学的な罠:なぜ「Nesting」が「Static」を解決しないのか ===== | ||
| + | |||
| + | {{ .: | ||
| + | |||
| + | Google の研究者たちは、真の知能が複数の時間スケールを必要とすることを認識しています—心の一部は即時の現在に集中しなければならず、他の部分は長期的な知恵を蓄積することに専念します。 | ||
| + | |||
| + | 彼らの解決策?既存の深層学習フレームワーク内に複雑な最適化ループ(または「巣」)を作成することです。これは、ネットワークの異なる部分がいつ、どれだけ速く重みを更新するかを設定するための精巧なルールを作成することを意味します。 | ||
| + | |||
| + | しかし、これは依然として数学的なトリックです。それは静的な行列のスタックが記憶をシミュレートするための**アルゴリズム的な勘**です。おじいさんの時計を5つの異なる速度でチクタクするように仕組むようなものです。それは印象的に聞こえますが、根本的には**離散システム**で、固定された別々のジャンプで動きます。それは生きる脳のシームレスで乱雑な瞬間ごとの流れを決して達成しません。 | ||
| + | |||
| + | |||
| + | |||
| + | ===== 真の違い:連続時間の物理学 ===== | ||
| + | |||
| + | ここで Qubi cが古いパラダイムを置き去りにします。Nested Learning の核心的な欠陥は、**時間の物理学**を導入しないことです。それは依然としてデジタルクロックサイクルに制約されています。 | ||
| + | |||
| + | 現実の世界では、あなたの脳はチクタクを待ちません。あなたのニューロンは**連続的な流れ**の状態に存在します。それらの内部電圧、それらの「状態」は常に変化しています—秒ごと、ミリ秒ごと。 | ||
| + | |||
| + | Neuraxon ユニットはこの生物学的命令に基づいて構築されています。シーケンスの「次のステップ」を計算するだけでなく、私たちは生物学的ニューロンを支配する同じ微分方程式である**瞬間的な変化率**をモデル化します。 | ||
| + | |||
| + | このシンプルで基礎的なシフトは、Neuraxon ニューロンが**自発的な活動**と**本物の回復期間**(不応期)を持つことを意味します。\\ | ||
| + | それはシステムがタスクを積極的に処理していないときでも進化する、最も文字通りの計算的意味で生きることを可能にします。これは — NL を含む— 静的な行列計算に依存するどんなアーキテクチャでも不可能です。 | ||
| + | |||
| + | ===== 知恵は気分であって、計算ではない ===== | ||
| + | |||
| + | {{ .: | ||
| + | |||
| + | しかし、Neuraxon の定義的な特徴は、Googleの複雑な最適化スキームに頼らずに長期記憶の問題を解決する方法です。 | ||
| + | |||
| + | 本物の知能は速い接続と遅い接続だけではなく、**変調**についてです。あなたの気分やストレスレベルが物を覚える能力をどのように変えるかを考えてください。 | ||
| + | |||
| + | これらは単純な電気的インパルスではありません。それらは時間とともに放出される神経調節物質によって駆動されるプロセスで、徐々にあなたの神経回路を再構成します。\\ | ||
| + | これが真の学習の基礎で、ノルアドレナリン、ドーパミン、アセチルコリン、セロトニンが強化、目標、注意、状態を調整します。 | ||
| + | |||
| + | 私たちはこれを **[[tag/ | ||
| + | |||
| + | Neuraxon では、**Metabotropic Weight** をモデル化します。この重みは即時の信号自体に寄与しません;代わりに、それはゆっくりと連続的にニューロンの**発火閾値**を変えます。\\ | ||
| + | それはニューロンが入力情報にどれだけ敏感かを変えます。これはドーパミンやセロトニンによって支配されるような神経調節システムがニューロンに作用する計算的等価物です。\\ | ||
| + | それはメッセージを運びませんが、メッセージがどのように受信され処理されるかを影響します。それゆえ、長期適応を可能にします。 | ||
| + | |||
| + | このメカニズムはデジタル健忘症に対する私たちの解毒剤です。それはネットワークの一部が**知恵**を達成することを可能にします:システムの「パーソナリティ」の長期的な超低速変化で、すべての将来の決定を支配します。\\ | ||
| + | それは即時の経験が終わった後も長く続く本物の連続学習のための建築的基盤です。 | ||
| + | |||
| + | |||
| + | ===== 判決:彼らはまだシミュレートしている。私たちはエミュレートしている。 ===== | ||
| + | |||
| + | {{ .: | ||
| + | |||
| + | Nested Learning 論文は業界にとって必要な知的正直さの瞬間です。それは静的深層学習パラダイムの失敗と**マルチタイムスケール統合**の必要性を確認します。 | ||
| + | |||
| + | しかし、Googleがより良い数学で問題をパッチしようとする一方で、**Qubicは解決策の物理学をモデル化しました。** | ||
| + | |||
| + | 私たちは凍りついた行列の学習速度を調整していません。私たちは時間が物理的変数であるシステムに生命を与えています。それはステップのシーケンシャルリストではありません。 | ||
| + | |||
| + | |||
| + | 違いは深刻です:**彼らは脳をシミュレートします。私たちは脳を可能にする物理学をエミュレートします。** | ||
| + | |||
| + | 幻影は終わりました。**Living Computation** の現実へようこそ。 | ||
| + | |||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | |||
| + | {{tag> | ||