※本記事は、ChatGPTとの対話を通して得た気づきをもとに、自分の考えを整理したものです。AIとUXの関係について、未来に向けた仮説を含んでいます。
スマホを操作するのは人間だけじゃない?
最近、Googleが進めている方針として、「AIエージェントにスマホを操作させる」という話を聞いた。Geminiなどの進化を背景に、ユーザーが「写真を撮って、加工して、インスタに投稿して」と言うだけで、その一連の操作をAIがアプリをまたいで代行する……というような未来を描いているらしい。
これまでのスマホは、人間が自分で操作するのが当たり前だったけど、今後は「人間が何をしたいか」をAIが理解して、代わりに動いてくれるかもしれない。そうなると、UIの前提そのものが変わってくる気がしている。
「AIもまたユーザーである」という新たな前提
これまでのUI/UX設計において、“ユーザー”といえば当然人間のことだった。でも、AIがOSエージェントとしてアプリを動かすようになってくると、アプリは人間だけでなくAIも使う対象になっていくんじゃないかと思う。
つまり、UI(User Interface)の“User”には人間だけじゃなくてAIも含まれるべきだと思う。
つまりこれからのアプリは、AIにも分かりやすく使いやすいように作る必要が出てくるということだ。
OSエージェント vs アプリ内エージェント:2つのアーキテクチャ
じゃあ、AIがアプリを操作するってどうやって実現するのか。
ChatGPTとのやり取りを通して、大きく2つの方向性があると整理できた:
- OSエージェントがすべてのアプリを直接操作する方式
→ OS側で共通のインターフェースを通じて、アプリを横断的に制御する。 - 各アプリにミニエージェント(アプリ内AI)を持たせる方式
→ OSエージェントは意図だけ伝えて、実際の動作はアプリ内のAIが担当する。
僕自身は、後者のほうが現実的なんじゃないかと思っている。
“責任の可視性”問題
理由のひとつは「操作の責任がどこにあるのか分かりにくくなる」ってこと。
たとえば、AIがボタンを押すべきところで間違えたとする。そのとき、
- OSエージェントが意図を誤解したのか?
- それともアプリ側にバグがあったのか?
この切り分けが曖昧になると、ユーザーとしては混乱するし、開発者も対応が難しくなる。
でもアプリ内にエージェントを置けば、「このアプリ内のAIがちゃんと動いているかどうか」をアプリ開発者が責任をもって設計できるようになる。だから、アプリ側で責任を引き受けられる設計のほうがいいんじゃないかと感じている。
汎用性と確実性はトレードオフ
OSエージェントはどんなアプリにも対応できるように作られる。つまり、汎用性がある。でもそのぶん、アプリごとの細かな仕様までは把握しきれず、操作が不安定になりやすい気がする。
逆にアプリ内エージェントは、そのアプリのためだけに設計されているから、確実に動ける代わりに汎用性はない。
この汎用性と確実性はトレードオフになると思う。
だからこそ、OSエージェントとアプリ内エージェントが役割を分担して共存する設計が理にかなっているように思えてきた。
アプリエンジニアの役割は“不要”どころか進化する
「AIが操作してくれるならUIなんていらないんじゃ?」って一瞬思った。視覚的な意味でのUIが確かにAIが全てをおうも実際はその逆なんじゃないかと思っている。
AIがアプリを操作するには、状態が明確で、構造的で、意味のあるインターフェースが必要になる。これはむしろ、今までの人間向けのUI設計に加えてAI向けにもUI設計するスキルが求められるんじゃないかと思う。
つまり、アプリエンジニアの役割は“不要”になるどころか、むしろ進化していくんじゃないかと思っている。
終わりに
AIがユーザーになる未来は、もうすでに始まりつつある。そのとき大事になるのは、「人間にとって使いやすいか」だけじゃなくて、「AIにとって操作しやすいか」という視点だ。
こうした新しい前提を受け入れたアプリが今後必要になるのかもしれない。