AIエージェント最前線リサーチ(2026年2月22日)論文1: Recursive Language Models…

AIツール

論文1: Recursive Language Models (RLM) — 2026年のパラダイム

要約:
Prime Intellectが「Recursive Language Model」の研究を発表。LLMが自分自身のコンテキストを能動的に管理し、Pythonスクリプトやサブ-LLMにコンテキストを委任する手法。既存のcontext foldingアプローチ(AgentFold等)と異なり、要約による情報損失を回避。強化学習でコンテキスト管理を学習させることで、週〜月単位の長期タスクを解決するエージェントの実現を目指す。

素人向け:
AIが「記憶の整理係」を自分で務められるようにする研究。今のAIは長時間作業すると前の方の指示を忘れちゃうけど、RLMは大事な情報を自分でメモ帳に書き出して、必要な時に読み返せる。つまりAIが何週間もかかる仕事を途切れずにこなせるようになる。

ソース: https://www.primeintellect.ai/blog/rlm
論文: https://arxiv.org/abs/2512.24601

論文2: ハワイ大学 — 物理法則を守るAIアルゴリズム

論文2: ハワイ大学 — 物理法則を守るAIアルゴリズム

要約:
ハワイ大学マノア校の研究チームが、物理法則に基づく機械学習の新アルゴリズムをAIP Advancesに発表。従来の「ブラックボックス」AIと異なり、データが少ない状況でも物理的に妥当な予測を保証。流体力学や気候モデリングの精度が大幅向上。

素人向け:
普通のAIは「パターンを丸暗記」するから、見たことない状況だとデタラメを言う。この新しいAIは「物理の法則」を教え込んであるから、データが少なくても「ありえない答え」を出さない。天気予報や再エネ計画がもっと正確になる。

ソース: https://www.hawaii.edu/news/2026/02/19/new-algorithm-aip-advances/

論文3: GLM-5 — Zhipu AIの744BパラメータMoEモデル

要約:
中国のZhipu AIがGLM-5を発表。744Bパラメータ(44Bアクティブ)のMoEモデルで、200Kコンテキスト、SWE-bench Verifiedで77.8%を達成。Huawei Ascendチップで訓練し、MITライセンスで公開。オープンソースベンチマークで1位を獲得。

素人向け:
中国のAI企業が「めちゃくちゃ賢いのに省エネ」なAIを作った。744億の知識パーツのうち44億だけを同時に使う仕組みで、コスパが良い。しかもオープンソース(無料で使える)。プログラミング能力は世界トップクラス。

ソース: https://llm-stats.com/blog/research/glm-5-launch

論文4: RAPTOR-AI — 災害対応OODAループのマルチモーダルRAG

論文4: RAPTOR-AI — 災害対応OODAループのマルチモーダルRAG

要約:
arXivに投稿された新論文。災害対応のOODA(観察-方向付け-決定-行動)ループに階層的マルチモーダルRAGと経験駆動型エージェント意思決定を統合。リアルタイムの災害情報を画像・テキスト・センサーデータから統合処理。

素人向け:
災害が起きた時に、AIが写真・文章・センサーの情報を全部まとめて「次に何をすべきか」を素早く判断してくれるシステム。過去の災害経験も活かして、より良い判断ができる。

ソース: https://arxiv.org/list/cs.LG/current

論文5: Context Folding研究の進展

要約:
2025年後半から続くContext Folding(コンテキスト折り畳み)研究が活発化。AgentFold、Agentic Context Engineering等の手法が提案され、LLMエージェントの長期タスク遂行能力を大幅に改善。RLMと合わせて、2026年のエージェントAI基盤技術として注目。

素人向け:
AIの「短期記憶」の限界を克服する研究群。AIが長い作業をする時に、重要な部分だけを圧縮して覚えておく技術。本を読む時に付箋を貼るようなイメージ。

関連論文:


この記事は AI Tech Fi が独自に収集・分析した情報です。最新のAI・テクノロジー・投資情報を毎日お届けしています。

ポリシー/運営情報: 利用規約 / プライバシーポリシー / お問い合わせ / 運営者情報

本サイトは情報提供を目的としており、特定の金融商品の売買を推奨するものではありません。投資判断はご自身の責任で行ってください。

コメント

タイトルとURLをコピーしました