ゼミ02(2026-03-22〜)
※ 中間発表(ゼミ01)後のゼミサイクル。このシステムでの最初の記録。
2026-03-22 ゼミ(中間発表フィードバック報告)
教授フィードバック:
- 「こういう研究があってもいいと思う」と研究の方向性を肯定
- 「研究の仕方の手段を提示していく考え方もある」
- 「本を書くようにまとめる」「斬新な着眼点を」とアドバイス
他の先生からの指摘(中間発表時):
- 「デジタルサービスの定義が広い、絞れ」(と言う指示を受けたけど、研究室の教授からのフィードバックでは、絞れって意見もわかるけど、この急速に発達しているAIの中で、何かに焦点を当て、絞っていくことは変化が早すぎるから難しいので、なので、いろいろさまざまな角度から思考を回し、整理し、研究の仕方の手段だったり何か着眼点を提示していくと言う研究があってもいいのではと言う意見を得た。この方針でいく。s21b3001FQ@s.chibakoudai.jp)
参照資料:
- 中間発表原稿.md、相原立弥_中間_パネル.pdf、音声(千葉工業大学 津田沼キャンパス 15.m4a)
試行錯誤ログ
2026-03-22
呟き: 実験・検証型じゃなくて概念・理論的貢献でいく。対象読者は実務者(デザイナー・プロダクト開発者)の方が陳腐化しにくい。今まではユーザーの認知負荷は実行の手順にかかっていたけど、AIが実行してくれる今は「言語化」が新たな認知負荷になっている。
整理:
- 概念・理論的貢献という軸が教授により肯定された
- 対象読者を実務者(デザイナー・プロダクト開発者)に設定
- 核心的な洞察:コマンドベースでは実行手順に認知負荷があったが、インテントベースでは「AIへの言語化」が新たな認知負荷になっている
- この転換はノーマンの7段階モデルとの接続が期待される
キーワード: #認知負荷の移行 #言語化負荷 #インテントベースインタラクション #理論的貢献 #実務者向け #母親メタファー #ノーマン7段階モデル
2026-03-23
呟き: メンタルモデルのギャップは縮まるのではなく、性質が変わっていく方向に向かうんじゃないか。操作・実行レベルから意図・解釈レベルへ。AIが人間らしくふるまうほど、ユーザーの期待も高度化・複雑化する。デザイナーが設計する対象も「ユーザーフロー」から「行動契約(AIへの委譲の範囲)」に変わっていく。
整理:
- メンタルモデルのギャップは「縮まる」のではなく「性質が変わる」
- 従来:操作・実行レベルのギャップ(「ボタンの場所がわからない」)
- AI時代:意図・解釈レベルのギャップ(「なぜこの出力になったかわからない」「意図が伝わっているかわからない」)
- AIが人間らしくふるまうほど、ユーザーはより人間的な期待を投影し、ギャップの内容が高度化・複雑化する
- デザイン対象の転換:「ユーザーフロー」から「行動契約(AIへの委譲の範囲)」へ
- プロジェクトフォルダ構造を整備(research/ / analysis/ / writing/ / logs/)
- リサーチャーで13件の文献を収録(→ research/references.md)
- analysis/2026-03-23-mental-model-gap.md に考察メモを作成
キーワード: #メンタルモデルのギャップ #ギャップの性質変化 #意図・解釈レベル #行動契約 #AIへの委譲 #エンビジョニングのガルフ #第3のUIパラダイム #言語化負荷
2026-03-25
呟き: デジタルサービスの中にAIが普及してきている中で、論文にもあったようにユーザーの期待や認知が、従来のサービスに対してのものにしていたものから、より人間に期待していることと近くなってくるようになるのではと思った。これは、実行というものをAIに委任し、そのためにユーザーは言語化して伝えるから。
整理:
- AIが実行を担うことで、ユーザーとのインターフェースが「操作」から「対話」に移行している
- 対話ベースのインタラクションでは、ユーザーは相手を「機械」ではなく「人間(エージェント)」として認知し始める
- その結果、ユーザーの期待や評価基準が、従来のサービスUI(確定的・予測可能)に向けていたものから、人間に向けるもの(意図を汲む・文脈を読む・信頼できる)へ近づいていく
- これは「期待の人間化」ともいえる転換で、メンタルモデルのギャップが「意図・解釈レベル」に移行するという3/23の洞察と一致する
- 実行委任 → 言語化必要 → 対話的認知 → 人間的期待、という連鎖が成立する
キーワード: #期待の人間化 #実行委任 #言語化 #対話的認知 #AIへの擬人化期待 #インタラクションパラダイム転換
2026-03-25(2)
呟き: そもそもノーマンの行為7段階モデルは本質的には変化することはないと思う。ユーザー自身の「何かやりたい」という目標を立て、計画を立て、実行をし、知覚するというものは本質的には変わらない。ただ実行がAIに変わるだけだったり、従来は頭の中で無意識に行なっていた行為の設定が、意図を伝える際の言語化として表出してくるだけで、本質的には変わらない。
整理:
- ノーマンの7段階モデルは「目標 → 計画 → 行為の設定 → 実行 → 知覚 → 解釈 → 評価」という構造を持つ
- この構造自体はAI時代でも変化しない。ユーザーが「やりたいこと」を持ち、それを評価するという認知的プロセスは普遍的
- 変化するのは各ステップの担い手・表出形式:
- 「実行」:ユーザー自身 → AIへの委任
- 「行為の設定」:内面の無意識的な操作手順の組み立て → 言語化・明示化(プロンプト・指示)として外部に表出
- つまりモデルの構造は不変、インスタンスが変わるという見立て
- これは「7段階モデルは時代遅れ」ではなく「AI時代のUIを解釈するのに今でも有効」という立場を支持する
- 一方で、言語化として外部に表出した「行為の設定」は、従来は不可視だったものが可視化されるという意味で、設計の対象になりうる(デザイン上の新しい介入ポイント)
キーワード: #ノーマン7段階モデル #構造の不変性 #行為の設定の言語化 #モデルの再解釈 #AIと認知的プロセス #設計の介入ポイント
2026-03-25(3)
呟き: AIが実行を担うとその負荷が下がり、代わりに「どう伝えるか」という負荷が生じ、それに伴って今まではユーザーの頭の中で無意識に行われていただろう、行為の設定(調節バーをスライドさせようなど)が、言語化の必要が生まれ、その前の段階の意図の設定も言語化して伝える必要が出てくる。今までのUIや体験設計において、ユーザーが目的の操作をするためのステップがわかりやすい設計・UIが求められていた。それに加えて現在では、実行をAIが行ってくれるため、そのステップがユーザーに実際に生じる機会は少なくなる?と思っており、目標を達成させるために実行させるための意図や操作の言語化をどのようにやりやすくするか、ということが求められてくるのでは。
整理:
- 言語化が必要になる範囲は「行為の設定」だけでなく、その手前の「意図の設定」まで広がる
- 従来:意図は頭の中にあれば十分、手順(行為の設定)も無意識に組み立てられる
- AI時代:意図をAIに伝わる言葉に変換する必要があり、意図の設定も外部に引き出される
- 従来のUIデザインの価値観:「ユーザーが操作ステップをたどりやすくする」
- AI時代のUIデザインの価値観(仮説):「ユーザーが意図・操作を言語化しやすくする」
- これはインターフェースの役割の転換でもある:操作を補助する → 言語化を補助する
- 「言語化支援」が新たなUXデザインの課題領域になる可能性
キーワード: #意図の設定の言語化 #言語化支援 #操作ステップの消失 #インターフェースの役割転換 #言語化しやすさのデザイン
2026-03-25(4)
呟き: 言語化を補助するための機能やインターフェイス・設計がすでに求められ、実装されているのでは。ChatGPT/Geminiの「さらに詳細にリサーチできますが、お手伝いしましょうか?」という問いかけ、チャット欄の質問候補ボタン、Gensparkのホーム画面でAI画像生成・AI動画・AIドキュメント・AIデザイナーと入り口が分かれている設計など。AIへの入り口を統一するのではなく分けることで、ユーザーが「AIに何をお願いしたいか」を整理しやすくさせ、サービス側もそれに適したプロンプト・仕様を裏で設計している。これらは「意図や目的をAIに伝えるためのサポート」であり、言語化支援として機能している。
整理:
- 「言語化支援」はすでに実装として現れており、いくつかのUIパターンとして観察できる:
- プロアクティブな深掘り提案(ChatGPT・Geminiの「さらに調べましょうか?」):AIが能動的に意図を引き出す
- サジェスト型入力補助(質問候補ボタン):言語化の出発点を提供する
- 統一入り口+目的別ショートカット(Genspark):上部に大きなチャット欄(統一入り口)を置きつつ、その下に目的別ボタン(AIスライド・AIドキュメント・AIデザイナー等)を並べ、自由入力と意図カテゴリ選択の両方を提供する
- 特にGensparkのアプローチは補助的な意図カテゴリを選択肢として重ねる構成。柔軟な自由入力を残しつつ、迷うユーザーには出発点となる目的分類を提示することで言語化コストを下げている
- サービス裏側では目的別に異なるプロンプト・仕様が設計されており、「言語化支援」はフロントの設計とバックの設計が連動している
- これらは「言語化しやすさのデザイン」がすでに実践的課題として認識されていることの傍証になりうる
- 「既知のことかも」という留保はあるが、自分の理論的整理(言語化負荷・言語化支援)と既存の実装を接続できると、理論の妥当性を支える事例群として機能する
キーワード: #言語化支援のUIパターン #プロアクティブな意図引き出し #サジェスト型補助 #意図カテゴリの事前分類 #Genspark #入り口設計 #言語化コストの低減 #理論と実装の接続
2026-03-26(5)
呟き: 言語化が必要な範囲を行為の設定と計画(意図の設定)にしていたけど、目標の段階も言語化して伝える必要があると思う。実行に至るまでの段階などをコンテキストとして言語化して伝える必要があるから。
整理:
- 言語化が必要な範囲はさらに「目標」まで拡大する
- 目標:「こういうことがしたい」というゴール自体をAIに伝える
- 計画(意図の設定):どんな文脈・意図かを言語化
- 行為の設定:具体的な操作内容を言語化
- 「実行」に至るまでの全段階(目標・計画・行為の設定)がAIへのコンテキストとして言語化が必要になる
- これはゴールから行為に至る認知プロセスの前半部分が丸ごと、AIへの入力として外部に引き出されることを意味する
- 従来のUIでは、ユーザーが目標を頭の中で持っていれば、あとは画面操作で完結した。AIインタラクションでは、目標も含めたすべてを「言葉で渡す」必要がある
キーワード: #言語化範囲の拡大 #目標の言語化 #コンテキストとしての言語化 #実行前の全段階
2026-03-31
原文:
この方が言っている通り、AIは急速に性能が発達したり、プロダクト開発などのシーンに介入してくる機会がこれからもっと増えていくと思う。でも、そんな中で人間側の能力や認知だったり、デジタルプロダクトを利用するシーンにおいての根本的な構造は変わらないと思う。これは、ノーマンの行為の7段階モデルの、ユーザーが目標を達成するための段階的な行動というものは根本的に変わらないと思っているから。変わっていくのは、中のインスタンスだと思う。従来は実行に至るまでの、目標の設計や意図の設計、行為の設計などの頭の中で行っていたものが、AIが普及してくるようになると、それを言語化してAIに伝えなければならないが、実行の部分はAIに委任する機会が多くなる。
そして、目的を達成させるために、システムをユーザー自身で実行していた今までにおいては、ユーザーのメンタルモデルはシステムに対するものであって、これからは、自分の目的や意図などを言語化し、それを自然言語で指示することでAIが実行してくれるようになり、そのAIからの結果の確認、フィードバックも自然言語になり、そうなると、ユーザーが目的を達成するために認知することや考えること、期待することは、今までのシステムに対するメンタルモデルみたいなものから、より人間に期待すること、に近づいていくと思っている。
(参照: 村越さんのnote を読んでの呟き)
呟き: 村越さん(Ubie)のnote記事を読んで自分の研究との親和性を感じた。村越さんはペースレイヤリング(スチュアート・ブランド)で振り返り、最上層(ツール・モデル)ではなく最深層(ユーザーの課題構造・情報設計の原理原則)に向き合うべきだと言っている。「舞台装置と踊り手」という概念で原理原則をプラットフォームに組み込む仕事と課題に向き合いアウトカムを出す仕事を分けている。デザイナーの暗黙知を「情報タイプ×認知タスク×コンテキスト」で分解しClaude Codeのスキルとして形式化した、というのも面白い。自分が「ノーマンの7段階モデルの構造は変わらない、変わるのはインスタンス」と考えていること、村越さんが「情報設計の原理原則は変わらない、変わるのはツールやモデル」と言っていること——語彙は違うが同じ二層構造を見ている。村越さんは「作る側の舞台装置」、自分は「使う側の認知とメンタルモデル」を同じ深い層に置いていて、対になっている気がする。メンタルモデルが「人間への期待に近づく」という自分の考えは、完全な対人モデルではなく「人間っぽいが機械的制約と統計的挙動を持つ相手」のハイブリッドになりやすいかもしれない。
整理:
- 7段階モデルの認知プロセス構造自体は変わらない。変わるのはインスタンスで、頭の中でやっていた目標設定・意図設計・行為設計をAIに伝えるために言語化する必要が出てくる。実行はAIに自然言語で委任する
- 認知負荷は「どう操作するか」から「どう言語化して伝えるか」へ移動している
- そうなると、ユーザーのメンタルモデルは「システムに対する期待」から「より人間に期待すること」に近づいていくのではないか
- ペースレイヤリング(スチュアート・ブランド)の枠組みがこの見方を支持する——7段階モデルの認知構造は最深層(変わらない)に位置するのではないか
- この「深い層の暗黙知を言語化して外部に引き出す」動きは、作る側(設計の暗黙知の形式知化)と使う側(認知プロセスの言語化)の両方で起きている
- メンタルモデルの「人間化」は、完全な対人モデルではなく「人間っぽいが統計的で非決定的な相手」というハイブリッドなモデルになるのかもしれない——まだ形がはっきりしない
キーワード: #認知負荷の移行 #言語化 #メンタルモデルの人間化 #ペースレイヤリング #深い層と表層 #作る側vs使う側 #ハイブリッドなメンタルモデル
次のゼミに向けて
- 「実行負荷から言語化負荷へ」の転換の議論(未完、次回継続)
- メンタルモデルのギャップが「高度化・複雑化」していくという仮説の深掘り
- 既存フレームワーク(ノーマンの7段階モデル、ニールセンの10原則)のAI文脈での限界の整理