AIが「やってくれる」時代に、私たちは何を考えるようになったのか

はじめに

スマホのアプリを使うとき、私たちは無意識にたくさんのことを「考えて」います。

どのボタンを押せばいいか。この操作で合っているか。思ったとおりの結果にならなかったとき、どこを直せばいいか。こういった「どうやるか」の試行錯誤が、デジタルサービスを使うときの頭の中の大半を占めていました。

ところが最近、少し様子が変わってきています。

ChatGPTに「この文章を短くして」と伝えれば、あとはAIがやってくれる。画像編集アプリに「もう少し明るくして」と言えば、スライダーをいじらなくても結果が返ってくる。「どうやるか」を自分で考えなくていい場面が、じわじわと増えています。

これは便利になった、というだけの話でしょうか。私はどうも、そうじゃない気がしています。


「実行」から「言語化」へ、頭の使いどころが変わっている

デジタルサービスの研究では、「ユーザーがどんな順番で考えて行動するか」をモデル化したフレームワークがあります。認知心理学者のドナルド・ノーマンが提唱した「行為の7段階モデル」というもので、ざっくり言うと「目標を持つ→どうやるか考える→実行する→結果を見る→評価する」という流れで人は行動するという考え方です。

このモデルで見ると、従来のUIでは「どうやるか考える」と「実行する」の部分に大きな負荷がかかっていました。スライダーを右に動かすといいのか左か、どのメニューに目的の機能があるのか、試して確認してまた試して……という繰り返しです。

AIが実行を担ってくれるようになると、この部分の負荷は劇的に下がります。でも代わりに、別の場所に負荷が移動します。

それが「言語化」です。

「ちょっと明るく」「もう少しプロっぽい感じに」「なんかいい感じに」——頭の中にあるぼんやりしたイメージを、AIに伝わる言葉に変換しなければならない。言葉にできないと、AIは動いてくれません。あるいは動いてくれても、思ってたのと違う結果が返ってきます。

以前は「操作が難しい」という摩擦があった場所に、今は「言葉にするのが難しい」という摩擦が生まれています。


「慣れればわかる」が通用しなくなってきた

もう一つ、気になっていることがあります。

これまでのアプリやサービスは、使い慣れれば挙動が読めるようになりました。「ダブルタップしたらいいねが押される」と一度知れば、それ以降はずっとそのルールが通用する。ユーザーは頭の中に「このアプリはこういうもの」という地図を作って、それに沿って使えばよかった。

AIを組み込んだサービスでは、この「地図を作る」という前提が崩れます。

同じ言葉を投げかけても、毎回少し違う答えが返ってくる。昨日うまくいったプロンプト(AIへの指示文)が、今日は意図した結果を出してくれない。モデルがアップデートされると、また挙動が変わる。

「慣れれば使えるようになる」という感覚が、AIとのやり取りではなかなか成立しないのです。

しかもAIが人間らしくなればなるほど、この問題は深くなる気がしています。相手が人間みたいに話してくれると、こちらも「人間みたいに理解してくれるはず」という期待を持ってしまう。でも実際には、文脈を完全に把握しているわけでも、意図を正確に読んでいるわけでもない。期待とのギャップが、むしろ大きくなっていく。


考えてみると、これはデザインの問題でもある

こういう変化が起きているとき、それを使いやすくする側——デザイナーやプロダクトをつくる人たち——は何を考えればいいのでしょうか。

以前は「ユーザーがどう操作するか」を想像しながらUIを設計すればよかった。ボタンの場所、画面の流れ、エラーメッセージ——これらをわかりやすく整えることが、良いデザインとされていました。

でも「AIが実行してくれる」世界では、そもそもボタンや画面の流れという概念が薄くなっていきます。ユーザーは「何をしたいか」を伝えて、AIが動いて、結果が返ってくる。設計するのは「フロー」ではなく、「AIにどこまで任せて、どこは人間が判断するか」という境界線になっていく。

そこにはまだ、十分な言葉も、整理された考え方も、存在していません。


おわりに

大学院で、このあたりのことを研究しています。

「AIが入ってくることで、ユーザーの頭の中で何が起きているか」——それを丁寧に整理して、プロダクトをつくる人たちが使える思考の枠組みとして提示したい、というのが今の目標です。

答えはまだ全然見えていません。でも、「やってくれる便利さ」の裏側で、何かが静かに変わっているという感覚は、あなたにも覚えがあるんじゃないかと思っています。