- デジタル庁 (2026). policy-dashboard-assets. GitHub. https://github.com/digital-go-jp/policy-dashboard-assets
- 概要:Power BI向けのデザインテンプレート(
.pbit)、テーマ(.json)、行政区域ポリゴンデータを公開している公式リポジトリ。powerbi-theme-pbitにはSolidGray/Blue/LightBlue/Green/Cyan/Red/Orangeの7色テンプレート、powerbi-theme-jsonに対応テーマJSON、data/mapに都道府県・市区町村GeoJSONが含まれる。 - 関連性:現在手元にある
デザインテンプレート_SolidGray_1_0_0.pbitの出典と配布元を特定できる。利用規約上、加工して利用する場合は原則出典記載不要、無加工公開時は出典記載が必要という実務ルールも明記されており、研究発表・制作物への転用時の扱い判断に直接使える。
- 概要:Power BI向けのデザインテンプレート(
AI Research Lab
参考文献
参考文献
28件 — ../research/references.md
公開テンプレート調査(URL追記)
メンタルモデル(AI・会話型インタフェース文脈)
- Schneider, J. (2025). Mental model shifts in human-LLM interactions. Journal of Intelligent Information Systems, 63, 1737–1752. https://link.springer.com/article/10.1007/s10844-025-00960-6
- 概要:20万件超の会話ログを計算言語学的手法で分析し、LLMとのやり取りを通じてユーザーのメンタルモデルがどう変化するかを実証的に調査。最初は「ソフトウェアツール」として扱っていたユーザーが、対話を経るにつれて人間同士の会話スタイルへ移行することを確認した。
- 関連性:「コマンドベース→インテントベース」への認知移行を実データで裏付ける証拠として直接使える。AIとの対話による認知変容のプロセスを理論化する起点になる。
- Luger, E. & Sellen, A. (2016). "Like Having a Really Bad PA": The Gulf between User Expectation and Experience of Conversational Agents. Proc. ACM CHI 2016. https://www.semanticscholar.org/paper/%22Like-Having-a-Really-Bad-PA%22:-The-Gulf-between-and-Luger-Sellen/814e62bb4f0ec6facd640fbd3e3fcbd189716d20
- 概要:音声エージェント(Siri等)の日常利用者14名へのインタビューから、ユーザーが持つメンタルモデルとエージェントの実能力との間に大きな乖離があることを明らかにした。エージェントのフィードバック不足が期待と体験のギャップを生む。
- 関連性:「母親メタファー」(理想のエージェント像)と現実のAIの差分から生じるUX上の欠陥を実証した先行研究。研究の核心的なフレームと直接対応する古典的な参照点。
- Norman, D. A. (1988). The Design of Everyday Things. Basic Books. ※改訂版2013.
- 概要:メンタルモデル・概念モデル・行為の7段階(ゴール形成→意図形成→行為詳細化→実行→知覚→解釈→評価)・実行のガルフ・評価のガルフを定式化したHCIの基礎的古典。デザイナーのモデル/システムイメージ/ユーザーモデルの三層構造を提示。
- 関連性:本研究の理論的骨格。「行為の7段階モデル」をAIインタラクション文脈に再解釈するための原典として必須。
認知負荷・エンビジョニング(LLM文脈でのノーマン理論拡張)
- Subramonyam, H., Pea, R., Pondoc, C., Agrawala, M., & Seifert, C. (2024). Bridging the Gulf of Envisioning: Cognitive Challenges in Prompt Based Interactions with LLMs. Proc. ACM CHI 2024. https://dl.acm.org/doi/10.1145/3613904.3642754 / arXiv: https://arxiv.org/abs/2309.14459
- 概要:ノーマンの「実行のガルフ・評価のガルフ」では捉えきれない、LLM操作特有の認知的課題として「エンビジョニングのガルフ(Gulf of Envisioning)」を提唱。ユーザーが①LLMにできることが分からない(能力ギャップ)、②どう指示すればいいか分からない(指示ギャップ)、③出力に何を期待すればいいか分からない(意図性ギャップ)という3つのミスアラインメントを定式化。
- 関連性:本研究の中核論点「認知負荷の移動・変質」を直接支持する最重要論文のひとつ。ノーマンの7段階モデルをAI時代に拡張する論拠として不可欠。
- Sensemaking of LLM Outputs at Scale. (2024). Supporting Sensemaking of Large Language Model Outputs at Scale. Proc. ACM CHI 2024. https://dl.acm.org/doi/10.1145/3613904.3642139
- 概要:LLMの出力に対するユーザーのセンスメイキング(意味の構築プロセス)を支援するテキスト分析アルゴリズムとUI設計を提案。アナロジカル学習理論に基づき、LLMの挙動についてのロバストなメンタルモデル形成を促す設計手法を示した。
- 関連性:ユーザーがAI出力をどう理解し、どうメンタルモデルを更新するかのプロセスに着目した実践的研究。AIとのインタラクションにおける「評価のガルフ」縮小設計の参考になる。
Human-AI Interaction(HAI)全般
- Amershi, S., Weld, D., Vorvoreanu, M., et al. (2019). Guidelines for Human-AI Interaction. Proc. ACM CHI 2019. https://dl.acm.org/doi/10.1145/3290605.3300233
- 概要:20年以上のHAI研究を統合し、AIシステムが初回インタラクション時・通常利用時・エラー時・経時変化に際してどう振る舞うべきかを規定する18のガイドラインを提示。49名のデザイン実務者による検証を経て策定。Microsoftが主導。
- 関連性:AIプロダクト設計の実務指針として現在も最も引用される文書。「プロダクト開発者・デザイナー向けの思考枠組み」を提示する本研究と直接対応する。
- Weisz, J. D., He, J., Muller, M., Hoefer, G., Miles, R., & Geyer, W. (2024). Design Principles for Generative AI Applications. Proc. ACM CHI 2024. https://dl.acm.org/doi/10.1145/3613904.3642466 / arXiv: https://arxiv.org/pdf/2401.14484
- 概要:Amershi et al. (2019) の枠組みを生成AIの特性(出力の可変性・共創性・不完全性)に合わせて拡張した6原則29戦略を提示。「適切な信頼とリライアンスのための設計」「生成可変性への設計」「共創への設計」等を含む。IBMリサーチによる実践的検証を経た成果。
- 関連性:生成AI UXに特化した最新の設計原則集。本研究の「プロダクト開発者・デザイナー向け思考枠組み」の比較対象・参照先として重要。
- Shneiderman, B. (2022). Human-Centered AI. Oxford University Press. https://global.oup.com/academic/product/human-centered-ai-9780192845290
- 概要:「高い人間コントロール」と「高い自動化」を二軸とする2次元HCAI(Human-Centered AI)フレームワークを提示し、信頼性・安全性・説明責任を確保しながら自律システムを設計する方法論を体系化。2023年PROSEアワード受賞。
- 関連性:AIエージェントの自律性とユーザーコントロールのバランスという本研究が扱うテーマの重要な理論的基盤。「エージェントへの委譲」が進む中でのUX設計論の出発点。
インテントベース・インタラクションとUIパラダイム転換
- Nielsen, J. (2023). AI: First New UI Paradigm in 60 Years. Nielsen Norman Group. https://www.nngroup.com/articles/ai-paradigm/
- 概要:コンピューティング60年以上の歴史の中でUIパラダイムは「バッチ処理」「GUIコマンド操作」に続き、「インテントベースアウトカム指定」が第3のパラダイムになったと論じる。ユーザーは「何をするか」ではなく「何が得たいか」を伝えるだけになる。2023年NNGの最多読み記事のひとつ。
- 概要と関連性:本研究の「コマンドベース→インテントベース」という中心的な問いを最も端的に言語化した実務寄りの一次資料。研究の出発点として引用必須。
- Designative (2025). Flows in the Age of Agentic AI: Our Core UX Models No Longer Apply? [https://www.designative.info/2025/11/20/flows-age-agentic-ai-what-if-our-core-ux-models-no-longer-apply/](https://www.designative.info/2025/11/20/flows-age-agentic-ai-what-if-our-core-ux-models-no longer-apply/)
- 概要:AIエージェントがステップを代行するようになると、従来の「ユーザーフロー」設計手法が機能しなくなると論じる。デザインの成果物が「フロー図」から「行動契約(behavioral contract)」へ移行すると予測。Human-Agent Centered Design (H-ACD) を提唱。
- 関連性:エージェントの台頭がデザイン実践そのものをどう変えるかを論じた実務寄り論考。本研究の「プロダクト開発プロセスの変化」という側面の考察に使える。
AIへの信頼・過剰依存・オートメーションバイアス
- Cau, M. et al. (2023). Measuring and Understanding Trust Calibrations for Automated Systems: A Survey of the State-Of-The-Art and Future Directions. Proc. ACM CHI 2023. https://dl.acm.org/doi/full/10.1145/3544548.3581197
- 概要:1000件以上の論文から96件を特定し、自動化システムへのトラスト・キャリブレーション(過信・過小信頼の是正)研究を包括的にサーベイ。適切なリライアンスの実現に向けた設計介入を整理。
- 関連性:ユーザーが「AIに任せすぎる」問題の理論的・実証的基盤。インテントベース化による認知負荷の新たな偏りを議論する際の参照点になる。
- Exploring automation bias in human–AI collaboration. (2025). AI & SOCIETY, Springer. https://link.springer.com/article/10.1007/s00146-025-02422-7
- 概要:医療・法律・行政など高リスク領域におけるオートメーションバイアス(AI推奨への過度な依存)を体系的にレビュー。説明可能AI(XAI)がバイアスを増幅するリスクも指摘。
- 関連性:AIへの意図委託が進む中でのユーザーの批判的判断能力の低下という問題を論じる際に有用。UX設計の責任論にも接続できる。
AIリテラシーとメンタルモデルの誤解
- Generative AI Literacy: A Comprehensive Framework for Literacy and Responsible Use. (2025). arXiv. https://arxiv.org/html/2504.19038v1
- 概要:生成AIリテラシーを「機能的リテラシー」「批判的リテラシー」「間接的便益リテラシー」の3観点で整理し、ブルームのタキソノミーと対応させた包括的フレームワークを提示。適切なメンタルモデル構築には技術的基礎理解が必要と論じる。
- 関連性:ユーザーの「AIへの誤ったメンタルモデル」の原因構造を分析する際に使える分類体系。AIリテラシーの欠如がインテントの言語化困難につながるというロジックの補強に使える。
- Exploring Human-LLM Conversations: Mental Models and the Originator of Toxicity. (2024). arXiv. https://arxiv.org/html/2407.05977
- 概要:人間とLLMの会話パターンを分析し、ユーザーのメンタルモデルが会話の性質(有益・有害・誤解を招く)にどう影響するかを調査。人間からLLMへの毒性の"起源"を探る観点も含む。
- 関連性:ユーザーのAIに対するメンタルモデルが対話品質を左右するというメカニズムの実証研究。意図伝達の質とメンタルモデルの関係を裏付ける。
設計原則・エージェントUX
- Smashing Magazine (2026). Designing For Agentic AI: Practical UX Patterns For Control, Consent, And Accountability. https://www.smashingmagazine.com/2026/02/designing-agentic-ai-practical-ux-patterns/
- 概要:AIエージェントがユーザーに代わってタスクを実行する環境向けに、コントロール・同意・説明責任のためのUXパターンを実践的にまとめたガイド記事。インターベンション・オーバーライド・自律度ダイヤルなどの設計パターンを紹介。
- 関連性:「エージェント時代のUX設計」の具体的手法を示す実務資料。本研究が提示するプロダクト開発者向け思考枠組みの実装例として参照できる。
- Subramonyam, H. et al. (2025). Agentic Workflows for Conversational Human-AI Interaction Design. arXiv. https://arxiv.org/html/2501.18002v1
- 概要:従来の直接操作インタフェース(ユーザーのメンタルモデルに合ったアフォーダンスを提供)とは対照的に、会話型HAIはゴール指定の負担をユーザーに移しつつタスク実行を自動化するというパラダイム転換を論じる。エージェントワークフローの設計フレームを提案。
- 関連性:「実行はAIが担い、ゴール言語化がユーザー負担になる」という本研究の核心命題を、インタラクション設計の観点から直接論じた論文。
日本語圏・関連動向
- JST/CRDS (2024). 俯瞰セミナー&ワークショップ報告書:人・AI共生社会のための基盤技術. 国立研究開発法人科学技術振興機構. https://www.jst.go.jp/crds/pdf/2024/WR/CRDS-FY2024-WR-08.pdf
- 概要:AIが「ツール型」から「自律エージェント型」に移行する段階において、人間側のメンタルモデル認識と共生設計が重要になるとまとめた国内ワークショップ報告書(2024年9〜10月開催)。世界モデル・認知科学的メンタルモデルとの接続も論じる。
- 関連性:日本語文脈でのAIエージェント×メンタルモデル論の公的・学術的な動向把握に有用。ゼミ資料での国内事情の引用に使える。
- 野村総合研究所 (2024). 日本のChatGPT利用動向(2024年9月時点). NRI. https://www.nri.com/jp/knowledge/report/20241016_1.html
- 概要:ChatGPTの国内認知率72.2%・利用率20.4%を報告。利用者の懸念として「回答が不正確」(47.7%)と「AIに頼って自分で考えなくなること」(39.6%)が上位を占める。
- 関連性:日本ユーザーのAI利用実態と認知的不安(過剰依存・批判的判断の低下)の定量データ。研究の背景・動機づけに使える。
ノーマン7段階モデルのLLM文脈適用
- Bhat, A., Shrivastava, D., & Guo, J. L. C. (2023). Approach Intelligent Writing Assistants Usability with Seven Stages of Action. arXiv / CHI 2023. https://arxiv.org/abs/2304.02822
- 概要:ノーマンの行為7段階モデルをLLMとのインタラクション設計に適用した立場論文。各段階をLLM利用文脈に読み替え(「行為の設定」→プロンプト指定、「実行」→LLM出力生成)、ライティング支援ツールの設計フレームワークとして提示。CHI 2023発表。
- 関連性:自分の「7段階モデルは構造不変・インスタンスが変わる」という解釈の直接の先行研究。設計提案 vs 理論的再解釈という差分を明確化する必要がある。
言語化負荷・認知負荷の低減(技術・設計アプローチ)
- Liao, Z., Liao, J., & Zhao, X. (2026). Prism: Towards Lowering User Cognitive Load in LLMs via Complex Intent Understanding. arXiv. https://arxiv.org/abs/2601.08653
- 概要:ユーザーの複雑な意図を論理的依存関係を持つ要素に分解・整理することで認知負荷を低減するフレームワーク「Prism」を提案。タスク完了時間34.8%短縮・ユーザー満足度14.4%向上を実証。認知負荷理論(CLT)に基づく。
- 関連性:「言語化負荷の低減」を技術的に解こうとする最前線研究。「言語化支援がデザイン課題になる」という仮説に対する工学的実装例として位置づけられる。
- Xu, J. et al. (2026). Overloaded Minds and Machines: A Cognitive Load Framework for Human-AI Symbiosis. Artificial Intelligence Review, Springer. https://link.springer.com/article/10.1007/s10462-026-11510-z
- 概要:人間の認知負荷理論とLLMのコンテキストウィンドウ制約を「有界エージェント補完性(bounded agent complementarity)」として統合するレビュー論文。両者が有界な作業空間を持つ処理器として類似した失敗をすることを示し、動的な負荷分散による協調設計を提案。
- 関連性:認知負荷理論のAI文脈への拡張として参照可能。ただし焦点は教育・医療ドメインで、UIデザインとの直接接続は薄い。
- Chelladurai, P. K. (2024). Beyond Conversations: Natural Language as Interaction Influencer. UX Collective. https://uxdesign.cc/beyond-conversations-natural-language-as-interaction-influencer-8b39ed123c39
- 概要:自然言語インターフェースがユーザーの認知・行動・期待に与える影響を実践的に論じるUX記事。オープンエンドなプロンプティングの認知的コスト(「50クレジット」問題)とチャット型UIの「Keyhole Effect」(視野の狭さによる空間記憶の失敗)などを指摘。
- 関連性:「言語化負荷」の実感に近い実践的記述として参照できる。学術論文ではないが、自分の仮説を補強するUX実践側の語彙として使える。
擬人化・期待の人間化
- Marchegiani, B. (2025). Anthropomorphism, False Beliefs, and Conversational AIs: How Chatbots Undermine Users' Autonomy. Journal of Applied Philosophy. https://onlinelibrary.wiley.com/doi/10.1111/japp.70008
- 概要:チャットボットへの擬人化的な誤信念(人間のように意識・意図があるという思い込み)がユーザーの自律性を損なうことを哲学的に論証。67%のユーザーがChatGPTに何らかの意識を帰属させているとの実証データを引用し、人間向けの行動規範をAIに誤適用する構造的リスクを指摘。
- 関連性:「期待の人間化」仮説の哲学的裏付け。AIが人間らしく振る舞うほどユーザーの期待が高度化し、ギャップが深まるという洞察に対して、その倫理的帰結(自律性の毀損)まで論じた文献として補強に使える。
OOUI・UIパラダイムの歴史的変遷
- 上野 学 (2016). OOUI – オブジェクトベースのUIモデリング. ソシオメディア. https://www.sociomedia.co.jp/7279
- 概要:GUIの本質はOOUI(オブジェクト指向UI)であるという立場から、タスクベースUIの問題点とオブジェクトベースへの転換手法を詳説。「名詞→動詞」の操作順序がモードレス設計の核心であり、タスクベース=モーダル=認知コスト高という構造を論証。IBM CUA(1989)・Dave Collins (1995)・Theo Mandel (1997)・OVID (1998) の系譜も整理されている。
- 関連性:「コマンドベース→インテントベース」転換の歴史的前提として直接使える。「名詞→動詞」構文はノーマンの7段階モデルと直接対応し、タスクベース=モーダル=認知負荷高という図式は本研究の「認知負荷の移行」論点の原型となる。AIエージェント時代の「行動契約設計」との比較軸にもなりうる。
AIネイティブ設計・デザイン実践の変容
- 3284 (2026). デザインシステムをAIネイティブにするとき、人は何を決めるとよいのか. note / Ubie. https://note.com/3284/n/nf1e73a1294ba
- 概要:Claude Codeが開発現場に定着した文脈で、デザインシステムをAI実行可能な仕様(Markdownファイル群)として構造化する実践を紹介。① review-design-system(コンポーネント仕様・デザイン原則のリファレンス)② ia-to-ui-pattern(情報設計→UIパターン変換)の2スキル構成。「When NOT to Use」の明示・抽象原則と具体的DO/DON'Tの二層構造・カバレッジ判定フライホイールが特徴。Coinbase CDS・Spotify Encoreを参照事例として引用。
- 関連性:デザイナーの暗黙知を「AIが実行可能な形式知」へ変換するプロセスが、本研究の「言語化支援のデザイン」「行動契約」の具体的実装例として直接参照できる。「人が意思を込める場所」「AIはシグナルを出し人が判断する」という役割分担の記述はエージェント時代のデザイン実践論に接続する。
プロダクトジョブ市場・デザイン職の変化
- Rachitsky, L. (2026). State of the product job market in early 2026. Lenny's Newsletter(TrueUpデータ使用). https://www.lennysnewsletter.com/p/state-of-the-product-job-market-in-ee9
- 概要:世界9,000社超のテック企業求人データを分析。PM求人数が3年超ぶりの最高水準・AIエンジニア求人が急増する一方、デザイン職の求人は2023年以降横ばいで推移。PM対デザイナーの比率が逆転(現在1.27倍でPMが優勢)。AIによってエンジニアが高速に動けるようになり、従来のデザインプロセスが省略されつつある可能性を示唆。ベイエリアのAI求人が全体の1/3を占める。
- 関連性:デザイン職が市場で相対的に縮小していることは「デザイナーの役割変化」「デザイン実践そのものの変容」の傍証として使える。エンジニアがAIで高速化する→従来のデザインプロセスが介在しにくくなる、という連鎖は「デザイン対象が操作UIから言語化支援・行動契約へシフトする」仮説と合わせて読める。
- Hill, B. K. (2023). デザインとは何か?その4つの役割とは. btrax / Freshtrax. https://blog.btrax.com/jp/what-is-design/
- 概要:デザインの役割を①可視化(情報・アイデア・ブランド・体験の可視化)②課題解決③導き(ユーザーを正しい方向へ誘導する)④シンプル化の4つに整理した実務寄りの解説記事。「デザインは見た目ではなくどう機能するか」(ジョブズ)「シンプルさは究極の洗練」(ダ・ヴィンチ)などの引用を交えながら、デザインの本質を言語化している。
- 関連性:「導き」と「シンプル化」の2役割が本研究と接続する。AIが実行を代替する時代に、デザインに残る役割として「ユーザーの意図言語化を支援する(=導く)」「複雑なインタラクションをシンプルに見せる」という方向性を論じる際の定義的な土台になる。また同著者(@brandonkhill)がLenny記事でも言及されており、デザイン職横ばい傾向への実務者視点の補足文脈として参照できる。