まだ輪郭はぼやけているけれど、いま見えていること

はじめに

AIを組み込んだサービスを使うとき、あなたの頭は「どこを押すか」よりも「何と頼むか」に向いていませんか。大学院の研究では、この変化をデジタルサービス全体の設計や、人の認知の仕方まで含めて整理しようとしています。実験で数値を測るより、概念を積み上げて本のようにまとめていくスタイルです。教授からも「こういう研究があってもいい」と言ってもらえているので、いまの思考のありのままを書き留めます。

研究が向かっている場所

目標は、変容の実態を整理し、プロダクト開発者やデザイナーが「AIを取り入れたサービスをどう考えるか」の思考枠組みを提示することです。

三つ、いま見えていること

認知負荷の移行。 従来は「どう操作するか」に頭の負荷がかかっていました。AIが実行を代行するようになると、負荷は「自分の意図をAIに伝わる言葉に変換すること」へ移動している、という認識です。ノーマンの「行為の7段階モデル」——人が目標から評価までどう進むかを示した枠組み——で言えば、実行側のガルフ(理想と現実の差)が小さくなり、意図の言語化や出力の解釈・評価に負荷が集中する、という変質だと整理しています。

メンタルモデル(ユーザーが頭の中で描く「このサービスはこう動く」という地図)のギャップ。 従来のUIでは、一度「ダブルタップ=いいね」と分かれば挙動は安定していました。AIは同じ入力でも同じ出力とは限らず、安定した地図を描きにくい。しかも人間らしくふるまうほど、人間的な期待が投影され、ギャップは縮まるより性質が変わる——操作のレベルから、意図や解釈のレベルへと高度化していく、という見立てです。

デザインの対象。 UIがユーザーのメンタルモデルに歩み寄る責任をデザイナーが負っていた時代から、ユーザーが意図を言語化する支援へ。Designative(2025)の言い方を借りれば、「ユーザーフロー」から「行動契約」——AIにどこまで委ねるか——へと設計の成果物が移りつつある、という感覚です。

文献とあわせて読むと

音声エージェントのギャップ(Luger & Sellen 2016)、LLMとの対話で人がツールから「人間との会話」へ移行する話(Schneider 2025)、ゴール言語化の負荷がユーザー側に移る話(Subramonyam et al. 2025)などは、上の整理と噛み合いそうです。

まだ見えていないこと

7段階モデルに、実行負荷から言語化負荷への転換をどう厳密に接続するか。「母親メタファー」を方法論としてどう扱うか。ニールセンの10原則やHAI18原則(人間中心のAI設計の指針)との関係をどう整理するか。

おわりに

いまは問いと仮説の置き場としてのメモです。輪郭がはっきりしたら、論文に向けてもう一段鍛えます。同じテーマでも、もう少し読み物として整えた稿を 2026-03-23-ai-interaction-shift.md に置いています。そちらと併せて読んでもらえるとうれしいです。