メンタルモデル
AIシステムは、時間とともに適応していきます。変化に対して、ユーザー側も準備が必要です。システムをどのようにトレーニングすればよいかを、ユーザーが理解するようにします。この章の内容は次のとおりです。
- AIのどの側面をユーザーに説明しますか?
- ユーザーにAIを最初はどのように紹介すればよいですか? そしてその後はどうしますか?
- AIを人間のように紹介することのメリットとデメリットは何ですか?
議論を円滑にし、イテレーションをスピードアップし、落とし穴を避けたいですか? ワークシートを使用してください。
AIを使うときに新しいこと
「メンタルモデル」とは、何がどう作用するのか、そして自分の行動がそれにどのように影響するのかを、その人間がどう理解しているかです。人間は、プロダクト、場所、人々など、相互作用するすべてのものにメンタルモデルを形成します。メンタルモデルは、プロダクトができること、できないこと、そのプロダクトからどのような価値を得ることができるか、という期待を調整するのに役立ちます。メンタルモデルは、体験と体験の橋渡しとしても役立ちます。たとえば、自転車の運転方法を知っていれば、バイクの運転方法についても何か知っているでしょう。
ただし、ユーザーのメンタルモデルは、プロダクトが実際にできることとは必ずしも一致しません。メンタルモデルの不一致は、満たされない期待、欲求不満、誤用、プロダクトの放棄につながります。往々にして、プロダクトの作成者は、プロダクトにおける初期のユーザーエクスペリエンスを考慮していなかったり、プロダクトの動作方法をしっかりと説明していないことによって、図らずも誤ったメンタルモデルをユーザーに与えてしまいます。主に考えるべき点は次です。
➀ 適応への期待を設定する。AIによって、多くのシステムがユーザーに適応し、最適化し、パーソナライズしていくようになり、「確率ベース」のユーザーエクスペリエンスが、時間とともに一般的になっています。既存のメンタルモデルに馴染みやすいようにつくることで、ユーザーは快適になります。
➁ 段階的にオンボーディングする。ユーザーにAIを搭載したプロダクトを紹介するときには、そのプロダクトでできること、できないこと、変更する方法、改善する方法を、説明します。
➂ 共同学習を計画する。人々はAIプロダクトにフィードバックをします。そして、そのフィードバックはモデルを調整し、そして人々がAIプロダクトとどう相互作用するかを変えるでしょう。そして、それは機械学習モデルをさらに変えるでしょう。ユーザーのメンタルモデルも同じように、時間とともに変化します。
➃ 人間のようなインタラクションを求めるユーザーの期待値に対して説明する。人々は、プロダクトが人間のような能力を持っているだろうと、達成不可能な期待値を持っていることがあります。ユーザーの期待値を現実的に調整し、意図しない失望を避けるには、プロダクトのアルゴリズムの性質と限界を伝えることが重要です。
➀ 適応への期待を設定する。
ほとんどのプロダクトはあまり変化しません。今日に買ったハンマーは、明日も同じハンマーです。また、長い時間をかけて変化していくプロダクトもあります。ユーザーの入力にもとづいて、時間とともに適応していくプロダクトです。これらのシステムは、出力が役に立ったかどうかを追いかけ、今後どうするべきか学習します。デジタルの例を挙げると、多くのストリーミングメディアサービスは、そのサービスの過去の操作にもとづいて、レコメンドを調整します。このような事例が増えていくと、他のプロダクトもユーザーの操作にもとづいて最適化されるだろうということが期待されるようになっていきます。
AIがプロダクトや体験として普及するにつれて、ユーザーに適応していくという体験が増えることが予想されます。AIプロダクトにおける効果的なメンタルモデルをつくる大きな機会のひとつは、既存のモデルをもとにして、ユーザーの入力とプロダクトの出力のあいだの動的な関係を教えることです。
既存のメンタルモデルを見つける
プロダクトがAIで解決しようとしている問題を、人々が現在どのように解決しているか、考えることからはじめましょう。その現在の解決方法は、プロダクトにおけるユーザーの初期のメンタルモデルがどうなっているか、教えてくれます。たとえば、現在、人々が電子メールに手動でラベルづけをしているならば、人々はAIによる電子メールプロダクトもまた、無意識のうちに、自分がしているのと同じプロセスをとると予想します。このとき、それは次のようになります。電子メールを読み、意味と、文脈と、重要性を考え、それに応じてラベルをつけます。したがって、「機械学習モデル」が他の情報(メッセージが送信された時刻やEメールの長さ)を参考にしてラベルを決めることは、ユーザーを驚かせるかもしれません。
キーコンセプト
AIプロダクトに対するユーザーの関係性のコンテキストを理解するには、以下の質問に答えてください。
- ユーザーは何をしようとしていますか?
- ユーザーはどのようなメンタルモデルをプロダクトへ引き継いで投影するのでしょうか?
- 初心者ユーザーがタスクを達成するために現在しているステップバイステップのプロセスは何ですか?
- 異なるユーザーのあいだでこのプロセスはどのくらい共通していますか?
この項の考え方で、ワークシートの演習1をやってみましょう。
➁ 段階的にオンボーディングする。
オンボーディングは、新しいユーザーや顧客が、プロダクトやサービスを知るためのプロセスです。オンボーディングの体験は、ユーザーがプロダクトを購入する前、ダウンロードする前、Webサイトにアクセスする前から始まっており、ずっと続いていくものです。他のプロダクトと同じように、AIを導入するさまざまな段階で、その過程でメンタルモデルがどのように形成され変化するかを検討することが重要です。
AIを紹介し、AIへの期待値を設定する
ユーザーの既存のメンタルモデルを理解したら、ユーザーがプロダクトにはじめてふれる前に、どんな情報を受け取っていたか、想像してください。マーケティングメッセージ、広告、マニュアルといったものが、期待を形づくっているのです。マーケティングチームと密に協力して、適切で一貫したメッセージ発信をしましょう。
多くのプロダクトは、「AIという何か素晴らしいもの」が作業を助けてくれると思わせることで、かえってユーザーを失望させています。この種のメッセージ発信は、プロダクトが実際にできることを過大評価したメンタルモデルを形成します。プロダクト開発者としては、ユーザーにプロダクトの複雑さを見せないことを意図しているのかもしれませんが、プロダクトがどのように動いているのを隠すことは、ユーザーに混乱をもたらし、信頼を損ねます。プロダクトの機能を、過度に技術的で、威圧的で、冗長に説明することと、AIプロダクトの高レベルのメンタルモデルを提供することは、きわどいバランスの上にあります。
以下は、プロダクトに正しい期待値を設定するための、メッセージ発信のガイドラインです。
- ユーザーがはじめてプロダクトにふれるときに、できること、できないことを前もって伝えます。できればマーケティングメッセージで伝えます。
- プロダクトがどのように動くのか例を挙げて、プロダクトの価値を明確にします。
- 時間をかけて改善するにはフィードバックが必要になることを、人々に前もって知らせます。
- なぜフィードバックをし続けなければならないか、その価値に焦点を当てて、伝えます。
技術ではなくメリットを説明する
多くの場合、プロダクトの制作者である私たちは、プロダクトとその体験を実現してくれる基礎技術に魅了されています。これは、難しい技術課題をはじめて解決したときに、とくに当てはまります。しかし、ユーザーが正しいメンタルモデルをつくれるかどうか、細部まで必ず評価してください。ユーザーがプロダクトの基礎技術を知ることに興味があるならば、あなたはいつでもツールチップと「段階的な開示」で、詳細を見せることができます。もしAIについて説明するなら、それが体験をどのようにより良くするか、新しい価値を提供するかに焦点を合わせてください。
正しい粒度でAIを説明することについては「説明 + 信頼感」の章を参照してください。
必要なときだけ、新機能を紹介する
ユーザーがプロダクトを試しているときは、適切で実用的な「インボーディング」メッセージで支援してください。ユーザーが無関係なことをしているときには、新機能の紹介は避けてください。これは、既存のプロダクトの機能やユーザーエクスペリエンスを、新しいAI機能に置き換えようとしているとき、とくに重要です。短く明示的な情報が必要なときに正しく表示されれば、人々はちゃんと学ぶものです。
期待値のデザイン
多くの人々は、いろいろ試すことによって、新しい体験をもっとも学びます。ユーザーは、ときにはオンボーディングの手順をスキップしてしまいます。システムを早く使いたくてしょうがなく、画面をいくつか読むことすらうっとおしく感じるのです。オンボーディングを短くしておくことで、ユーザーに正しくしてもらうことができるでしょう。低リスクな行動や、可逆的な行動を、すぐに試すことができるようにしておくとよいです。ユーザーはAIを使った機能やプロダクトがどのように動くのかに関心があるので、小さく、プロダクト利用初期の試行錯誤を体験できるようにしておきます。たとえば、写真フィルタの適用を、かんたんにテストして、タップで戻せるようにしておきます。
注意点のひとつとして、ユーザーが試すことに時間をかける意欲や能力は、プロダクトを使う目的によって異なります。たとえば、新しいスマートスピーカーを購入した平均的な消費者は、さまざまなコマンドや質問を試すことに時間を遣うことを楽しむかもしれません。対照的に、忙しいエンタープライズユーザーは、コマンドや機能のテストを、忙しい1日のうちの雑用のひとつとみなすかもしれません。
目的に関係なく、ユーザーがプロダクトをすばやく理解してメリットを得ることができるようにします。そうしなければ、ユーザーはプロダクトが対応できないことを試して、システムの限界を感じるかもしれません。これはプロダクトのエラーや、失敗や、信頼を損ねることにつながります。
ユーザーが軌道に乗れるようにする方法は「エラー + 上手な失敗」の章を参照してください。
キーコンセプト
オンボーディングとは、ユーザーとプロダクトのかかわりを決めるすべてのことです。このためのシンプルなメッセージ発信のフレームワークは、次のとおりです。
これは {あなたのプロダクトや機能} で、
そしてそれは {核となるベネフィット} によって、あなたを助けます。
現時点では、{AIの主な制限} を達成することはできません。
時間とともに、あなたにとって、より関連性のあるものになっていきます。
{システムを教育するためのユーザーの操作} によって、より良くなるようにすることができます。
この項の考え方で、ワークシートの演習2をやってみましょう。
➂ 共同学習を計画する。
AIプロダクトは時間とともに適応し改善されるため、ユーザーエクスペリエンスが変化していきます。ユーザーはそのための準備をし、必要に応じてメンタルモデルを調整していきます。
フィードバックをパーソナライズにつなげる
オンボーディングでは、ユーザーのフィードバックが、AIによる体験のパーソナライズにどのように役立つかを伝えます。「受けたレコメンドについてフィードバックをすることで、あなたの経験を良くすることができます」といった説明と、どこでどのようにそれができるのかをユーザーに知らせることで、ユーザーのフィードバックとユーザーの利益とを結びつけることができます。
フィードバックを集めるには、ふたつの方法があります。
「暗黙的なフィードバック」は、プロダクトを使っているあいだの人々の行動が、長期的にAIの改善に役立つときです。どの情報が何の目的で使われているか、ユーザーが確認できるところを、プロダクト内に用意しましょう。これは、利用規約に記載しておくべきものです。
たとえば、音楽アプリでレコメンドされた曲を聴くことを選んだとき、その曲はあなたに関連があるというモデルの予測が裏づけられます。その事実は、定義や、ユーザーの利益や、アプリがどのように動くかという規約の一部になるべきです。
「明示的なフィードバック」は、興味のある音楽のカテゴリを選ぶように、人々が意図的にAIモデルを改善するためのフィードバックをすることです。このようなフィードバックは、ユーザーがプロダクトをよりよくコントロールできるようにします。できれば、フィードバックがAIにどのような影響を与えるのか、いつそれが有効になるのかを正確に説明してください。
システムがフィードバックを収集するときは、システムを継続的に教えることが、ユーザーにとってどのように役立つのかを説明してください。どのような情報がAIの学習に役立つのか、それがどのようにプロダクトのアウトプットを改善するのか、明確にしてください。例とより詳しい情報は「フィードバック + コントロール」の章を参照してください。
上手に失敗する
システムがはじめて期待に応えられなかったとき、ユーザーはがっかりするでしょう。しかし、システムが時間とともに学習し、正しい入力でより良く学習する、というメンタルモデルができあがっていれば、失敗、とくにユーザーが最初に直面する失敗は、フィードバックする関係をつくる機会になります。この関係ができると、ユーザーは失敗を許容できるだけでなく、修正につながることもあります。この同意は、共同学習のメンタルモデルを強固にします。
システムが強固でなかったり、要求を完了できなかったりするときは、AIに依存しない状態のユーザーエクスペリエンスが提供されていることを確認してください。そのようにすれば、あなたのAIを教育する負担が大きすぎて、ユーザーがしようとすることができなくなることはありません。プロダクトが上手に失敗すれば、ユーザーの邪魔にはなりません。そして、ユーザーは、プロダクトは今のまま使用しつつ、目標をさらにかんたんにするための時間のかかる方法として、フィードバックを考えることができます。
例とより詳しい情報は「エラー + 上手な失敗」の章を参照してください。
思い出させ、強化し、そして調整する
プロダクトはユーザーの日常業務の一部になることもあり、継続的に使うことによってメンタルモデルが形づくられ強化されます。しかし、プロダクトによっては、ときどき使うだけのものもあります。そういったプロダクトでは、メンタルモデルが時間とともに失われていくため、それを強化する方法を検討するか、ユーザーに基本を思い出させることが役立ちます。
フィードバックでAIを改善することのユーザーのメリットについて、一貫したメッセージを維持することで、AIプロダクトのメンタルモデルを強化することもできます。時間が経つにつれて、ユーザーに、AIソリューションとその長所と短所をくみとったメンタルモデルができてきて、何が得られるか、体験がどのように形づくられるかがわかり、ユーザーはより快適になるでしょう。その可能性を高めるために、できることがあります。
ユーザーのニーズを追跡し続ける
プロダクトの使用状況を監視します。プロダクトログを確認すると、行動を示したり、ユーザーの混乱やフラストレーションを示す傾向が見つかることがあります。これは、ユーザーにメンタルモデルの再構築や調整をしてもらう必要があることを判断できます。プロダクトが短期間の使用や、特定の目的の達成のためにのみ使うもののとき、どれくらいの頻度でメンタルモデルの強化や更新をすればよいかを決めます。
指標については「ユーザーニーズ + 成功の定義」の章を参照してください。
進化するユーザージャーニーに適応する
機能が大幅に変更になったり、改善されたとき(ユーザーが気づくほど十分に)には、ユーザーが新しいエクスペリエンスに「再ボーディング」する必要があるかどうかを検討してください。新しい機能を追加するときや、既存の機能に新しいデータや別のデータを使うようになったときにも、再ボーディングは有用です。
システムがシンプルで、メンタルモデルが明確で記憶に残るものであるときは、わずかな強化だけで済みます。プロダクトを使ったことがあるが、先月かそれくらいの近い期間では使っていないユーザーを対象に、かんたんなユーザー調査をすることで、どんな微調整をすれば、もっとも役に立つかを明らかにすることができます。
➃ 人間のようなインタラクションを求めるユーザーの期待値に対して説明する。
Cortana、Alexa、Google Assistant、Siri など、擬人化や人間のようにデザインされたプロダクトが近年発売されています。この選択には長所と短所があり、慎重に検討する必要があります。確かに、人々は音声インタフェースから反射的に人間性を見出す傾向があり、会話型インタフェースのようなインタラクションは本質的に人間的なものです。ただし、これらのプロダクトのアルゴリズムの性質と限界を明らかに伝えていないときは、現実的ではない期待値をもってしまい、やがてはユーザーの落胆や意図しない失望につながります。
ユーザーがAIと人間を混同したとき、いくつかある問題のなかでも、とくに、そうでないときよりも多くの情報を開示したり、必要以上にシステムに頼ったりすることがあります。したがって、この種類のインターフェースのアルゴリズムの性質を伝えることは、重要なオンボーディングステップです。具体的には、プロダクトが人間ではないことを明確にするメッセージに、年齢、技術リテラシー、教育レベル、身体的能力にかかわらず、すべてのユーザーがアクセスできるようにする必要があります。
このトピックは進行中の研究テーマであり、これらの考慮事項はほんの最初のステップです。このトピックについては、ガイドブックの将来の版に期待してください。
AIの限界と機能を明確に伝える
システムがタスクをする方法は、人がするのとは本質的に異なるため、人々は、擬人化されたAIプロダクトの、正確で有用なメンタルモデルを形成するのに苦労するかもしれません。表面的には、AI機能は手動による方法と似ているように見えるかもしれませんが、それではメンタルモデルは正しく対応づけされていないかもしれません。
たとえば、「写真の自動タグづけ」は、ただ「自動」という点が異なるだけで、ツールが人間と同じ方法で写真にタグづけしているように聞こえます。これまでにこのツールを使ったことがない人にとって、このプロセスのメンタルモデルは、デフォルトで人間のそれです。このアプリは、ある特定の友達に限っては、その人の写真すべてを見つけてタグをつけることができるかもしれませんが、その人の後ろ姿は判断することができません。これは予想外のことです。もちろん、ほとんどの人間は、友達をさまざまな角度から認識できますが、このツールはできないのです。
このような断絶は、必ずしもプロダクト自体やメンタルモデルが壊れているという意味ではありません。すべての人間が同じ能力を持っているわけではありません。たとえば、視覚と聴覚がつねにあるわけではありません。そして、プロダクトは、人間にはできない信じられないような仕事をしています。数千枚の写真をスキャンして、主題を特定し、ラベルづけをしています。重要なことは、超人間的な能力を期待させない方法で、システムの限界と能力を伝えることです。AIは、人がするのと同じ方法ではしません。したがって、このモデルは便利ですが、かなり壊れやすいものです。
一般化された「ヘルパーAI」という概念は、把握しやすく、ユーザーにとってより魅力的なものになりますが、システムの限界が明らかにされていないと、不信につながるリスクが高くなります。ユーザーがシステムの能力を正しく対応づけできないと、間違ったタイミングでシステムを信頼しすぎたり、最大の付加価値である、当然と思っているタスクをするためのより良い方法を、逃したりする可能性があります。AIの能力が、ユーザーの認識にある人間にできることと、どのくらい一致しているかにもとづいて、擬人化のレベルを選んでください。
正しいインタラクションをする
人間性を利用してメンタルモデルをつくることは、プロダクトのインタラクションが、会話などの、明らかな人間の行動に依存しているときに、とくに便利です。チャットボットや音声インタラクションで一人称を使うことで、人々はシステムの使い方を直感的に理解することができます。ユーザーにとって、会話的な方法でコミュニケーションできることを理解するほうが、はるかにかんたんです。
ただし、この方法にはリスクがあります。具体的には、会話型AIが自分自身を「私」と呼んだとき、ユーザーのメンタルモデルには、ほぼ完璧な自然言語処理が含まれています。AIが、それをできなかったとしてもです。これは、ミスマッチな期待値や失敗をなくそうとしながら、適切なタイプのインタラクションを考えることの、微妙なバランスです。
まとめ
AIプロダクトのメンタルモデルは複数の要因の影響を受けます、類似の機能やプロダクトの既存のメンタルモデル、チームからのマーケティングメッセージ、オンボーディング、期待値の設定、プロダクトにおけるフィードバックの関係性などです。ユーザーがAIに適したメンタルモデルをつくるのを手助けするときは、次の点を考慮してください。
➀ 適応への期待を設定する。既存のメンタルモデルにもとづいてつくることで、人々が新しいAIを最大限に活用できるようにします。「ユーザーは何をしようとしているのか?」「どんなメンタルモデルがすでにあるのか?」「このプロダクトは直感的な原因と結果のパターンを壊してはいないだろうか?」といった質問を自分自身にしましょう。
➁ 段階的にオンボーディングする。現実的な期待値を早いうちに設定します。テクノロジーではなく、ユーザーのメリットを説明してください。最初にコアバリューを説明し、使うにつれて新しい機能を紹介していきます。ユーザーがプロダクトのAIを試しやすいようにします。
➂ 共同学習を計画する。ユーザーの行動とAIの出力との関係性をつくるために、フィードバックをパーソナライゼーションと適応とに結びつけます。必要に応じて、AI以外の選択肢があるように、上手に失敗します。
➃ 人間のようなインタラクションを求めるユーザーの期待値に対して説明する。現実的なユーザーの期待値を設定し、意図しない失望を避けるために、プロダクトのアルゴリズムの性質と限界を明確に伝えてください。
議論を円滑にし、イテレーションをスピードアップし、落とし穴を避けたいですか? ワークシートを使用してください。
- Affective Computing. (2017). The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems.
- Badiu, R., & Laubheimer, P. (2018, July 22). Intelligent Assistants Have Poor Usability: A User Study of Alexa, Google Assistant, and Siri
- Budiu, R. (2019, February 3). Mental Models for Intelligent Assistants
- Clapper, G. (2018, October 4). Control and Simplicity in the Age of AI
- Embedding Values into Autonomous and Intelligent Systems (2017). The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems.
- Ethically Aligned Design, First Edition (2017). | IEEE Standards Association.
- Gee, J. P. (2003). What video games have to teach us about learning and literacy. Palgrave Macmillan.
- Hyer, P., Herrmann, F., & Kelly, K. (2017, October 19). Applying human-centered design to emerging technologies
- Laubheimer, P., & Budiu, R. (2018, August 5). Intelligent Assistants: Creepy, Childish, or a Tool? Users’ Attitudes Toward Alexa, Google Assistant, and Siri
- Luger, E., & Sellen, A. (2016). “Like Having a Really Bad PA”. Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems - CHI 16.
- Lovejoy, J., & Holbrook, J. (2017, July 9). Human-Centered Machine Learning
- Katagiri, Y., Nass, C., & Takeuchi, Y. (2001). Cross Cultural Studies of the Computers are Social Actors Paradigm: The Case of Reciprocity. In Usability Evaluation and Interface Design: Cognitive Engineering,Intelligent Agents, and Virtual Reality (Vol. 1, Proceedings of HCI International 2001, pp. 1558-1562). London: Lawrence Erlbaum Associates.
- Nielsen, J. (2017, August 18). Jakob’s Law of Internet User Experience
- Nielsen, J. (2004, September 13). The Need for Web Design Standards The Need for Web Design Standards
- Nielsen, J. (2010, October 18). Mental Models
- Portrayals and perceptions of AI and why they matter (Publication). (2018). London, 2018: The Royale Society.
- Principles of robotics. (2010). Engineering and Physical Sciences Research Council.
- Son, L. K., & Simon, D. A. (2012). Distributed Learning: Data, Metacognition, and Educational Implications. Educational Psychology Review, 24(3), 379-399.
- Thomaz, A. L., Hoffman, G., & Breazeal, C. (2006). Experiments in socially guided machine learning. Proceeding of the 1st ACM SIGCHI/SIGART Conference on Human-robot Interaction - HRI 06.
- Virtue, E. (2017, September 26). Designing with AI
- Young, I., & Veen, J. (2008). Mental models: Aligning design strategy with human behavior. Brooklyn, NY: Rosenfeld Media.