研究整理 2026-03-26

AIエージェントの発展と
インタラクション構造の変化

現状の思考まとめ

相原立弥 / 大学院研究

1
この研究について

「研究の仕方の手段を提示する」研究

AIの変化は速く、あるテーマを深掘りしようとしても前提が次々と変わりうる。そうした変化の激しい領域で、サービスのあり方・ユーザーの認知・プロダクト開発などさまざまな観点から思考を回し整理していくこと——

その営み自体を通じて、変化の激しい領域における研究の仕方の手段を提示していくことが本研究の目的。

実験・検証型ではなく概念・理論的に積み上げるスタイル。多角的に考え整理するプロセスそのものが、この領域での研究のひとつのやり方を示す。(教授より「こういう研究があってもいい」と肯定)
2
今見えている核心

5つの見え方

3
見えていること 01

認知負荷の移行:
実行から言語化へ

従来、ユーザーの認知負荷は「どう操作するか」という実行の手順にかかっていた。

AIが実行を担う今、負荷は「意図をAIに伝わる言葉に変換すること」へ移動。言語化が必要な範囲は目標・計画・行為の設定まで広がる。

頭の中で閉じていた認知プロセスの前半が、AIへの入力として丸ごと外部に引き出される。

目標 計画 行為の設定 実行 AI 知覚 解釈 評価 言語化 が必要 ノーマンの7段階モデル(再解釈)
4
着目している動き

期待の人間化

AIが人間らしくふるまうほど、ユーザーの評価基準も人間への期待に近づいていく——この動きを「期待の人間化」と呼んでいる。

機械への期待(確定的・予測可能)から、人間への期待(意図を汲む・文脈を読む・感情に応える)へ。期待の基準そのものが変質する。

Marchegiani (2025) は67%のユーザーがChatGPTに何らかの意識を帰属させていると報告しており、この傾向の広がりを示している。

AIが人間らしくふるまう 会話・文脈理解・感情的な応答 ユーザーが人間的な期待を投影 「意図を汲んでほしい」「文脈を読んでほしい」 ギャップが意図・解釈レベルへ高度化 「なぜこの出力になったか分からない」 Marchegiani (2025): 67% が ChatGPT に意識を帰属
5
見えていること 02・03

メンタルモデルのギャップは「性質が変わる」

従来のUI AI時代のインタラクション
ギャップの種類 操作・実行レベル
「ボタンの場所がわからない」
意図・解釈レベル
「なぜこの出力になったかわからない」
ギャップの推移 学習で安定していく 非決定的・不安定(同じ入力 ≠ 同じ出力)
ユーザーの期待 機械的な予測可能性 人間的な意図理解(期待の人間化
デザイン対象 ユーザーフロー 行動契約(AIへの委譲の範囲)
6
見えていること 04

言語化支援が
デザインの問いになっている

インターフェースの役割が「操作を補助する」から「言語化を補助する」へ転換しつつある。

この変化はすでに実装として現れており、UIパターンとして観察できる。

設計の成果物も「ユーザーフロー」から「行動契約(委譲の範囲)」へ移行しつつある。

言語化支援のUIパターン(観察例) ① プロアクティブな深掘り提案 ChatGPT / Gemini の続けて聞く提案・質問候補ボタン ② 目的別ショートカット Genspark の統一入り口 + 目的別モード切替 ③ 入力補助・テンプレート提示 AIが「どう頼むか」のひな形を先に示す → 設計成果物が「ユーザーフロー」から「行動契約」へ
7
未解決の問い

まだ見えていないこと

8
次のステップ

さまざまな観点からの思考を
引き続き回していく

この研究では特定の「答え」を急がない。変化の激しいAI領域において、多角的に思考を回し整理し続けることがそのまま研究の積み上げになる。

次に考えていきたいこと:言語化負荷の増減条件 / 既存設計原則との接続 / 行動契約の設計原則

多角的な思考の積み上げ自体が、この領域における研究の仕方を示す。
9