ユーザーニーズ + 成功の定義

たとえ最高のAIであっても、ユーザーに独自の価値を提供していなければ失敗します。この章の内容は次のとおりです。

  • ユーザーのどの問題が、AIが独自に解決するべきものとして位置づけられていますか?
  • タスクを自動化するだけでなく、人間の能力をどのように拡張することができるでしょうか?
  • 報酬関数がAIを正しく最適化することをどうすれば保証できますか?

議論を円滑にし、イテレーションをスピードアップし、落とし穴を避けたいですか? ワークシートを使用してください。

AIを使うときに新しいこと

人間中心設計でプロダクトをつくるとき、もっと重要な意思決定は次のようなものです。ユーザーはだれですか? 彼らにとっての価値とは何ですか? 彼らのためにどの問題を解決すべきでしょうか? どうやってその問題を解決しますか? その体験を「達成」したということは、どのようにしたらわかりますか?

この章では、ユーザーのどの問題がAIに適しているか、またどのようにして成功を定義するのかを理解します。主なテーマは次です。

➀ ユーザーのニーズとAIの強みの共通部分を見つける。AIが独自の価値を発揮できる方法で、現実の問題を解決します。

➁ 「自動化」対「拡張」を評価する。「自動化」するタスクは、たいへんなもの、不快なもの、または大きな規模が必要なものです。そして理想としては、いまそのタスクをしている人々が、新しい方法を「正しい」方法だと同意できることです。「拡張」するタスクは、人々が楽しんでいるもの、社会資本をもたらすもの、または、人々がそれをするための「正しい」方法に同意しないものです。

➂ 報酬関数を設計し評価する。「報酬関数」とは、AIにとっての成功と失敗を定義するものです。部門横断的なチームでこの関数を設計し、プロダクトによる影響を想定してユーザーが長期的な利益を得られるように最適化することを意識してください。可能であれば、この関数をユーザーと共有してください。


➀ ユーザーのニーズとAIの強みの共通部分を見つける

一般的な人間中心設計プロセスと同じく、解決すべき本当の問題を特定するための時間は、全体の作業のなかでもっとも重要なもののひとつです。人と話したり、データを調べたり、行動を観察したりすることで、思考をテクノロジー中心から人間中心に移していくことができます。

第一歩は、人々が助けを必要としている本当の問題を特定することです。はじめるにあたって、オンラインには、これらの問題や既存のリソースを見つける方法がたくさんあります。問題の発見方法とそれに対応するユーザーのニーズの例は、「IDEOのデザインキット手法のセクション」を参照するとよいでしょう。

サンプルアプリとして挙げる「ランニング」の場合、ユーザーのニーズは次のようになります。

  • ユーザーは、退屈してランニングをやめてしまわないように、ランニングに変化を与えたいです。
  • ユーザーは、6ヶ月のうちに10キロを走れるようになるよう、毎日のランニングを記録したいです。
  • ユーザーは、自分のスキルレベルにあわせた他のランナーに会うことができるので、ランニングを続けるモチベーションを保つことができます。

あなたは、つねに責任をもってAIをつくり、使うべきです。どの問題を解決するかを決めるときには、「Google AI原則」と「責任あるAIの実践」を参考にして、より良い方法をとるように心がけてください。初心者は、プロダクト開発プロセスの早い段階で、多様なユーザーからインプットを得るようにしてください。さまざまな観点からのヒアリングは、大きなマーケットニーズを見逃したり、意図しないまま特定のユーザー層を除外してしまったりすることを防ぐのに役立ちます。

既存のワークフローをマッピングする

タスクをする既存のワークフローをマッピングすることは、AIがエクスペリエンスを向上させる機会を見つけるための良い方法です。人々が現在どのようにしてプロセスを完了しているか見ていくことで、必要なステップをよく理解し、自動化や拡張ができる部分を特定することができます。すでに動くAIプロダクトがあるなら、ユーザー調査をつうじて仮説を検証してください。人々に、プロセスの特定の部分を自動化するプロダクトを使ってもらい(または「オズの魔法使い法」によるテストをして)、人々がその結果をどう感じるかを観察しましょう。

AIが独自の価値を発揮できるかどうかを決める

改善したい部分を特定したら次に、どの解決策にAIが必要なのか、AIによって意味のある改善ができるのはどれか、どの解決策だとAIによるメリットが得られないか、あるいはAIによって悪くなってしまわないか、判断する必要があります。

プロダクトにAIを加えることで、それが改善されるのかどうか、疑問に思うことが重要です。多くの場合、ルールベースまたは「ヒューリスティックベース」の解決策は、AIによるものよりも優れていないとしても、同じくらいうまくいきます。シンプルな解決策のほうが、つくるのも、説明するのも、デバッグするのも、保守するのも容易です。AIをプロダクトに導入することが、ユーザーエクスペリエンスを良くするのか、または悪くするのか、念入りに検討してください。

AIによるアプローチがルールベースのアプローチより好ましい状況と、そうでない状況があります。

AIによるアプローチが好ましい状況

  • さまざまなユーザーにさまざまなコンテンツをレコメンドする。観たい映画についてパーソナライズされたレコメンドを出すなど。
  • 未来に起こることの予測。たとえば、11月下旬にデンバーへ旅行するときの飛行機の価格を出す。
  • パーソナライズはユーザーエクスペリエンスを良くする。パーソナライズされ自動化されたホームエアコンは、家をより快適にし、エアコンの効率も時間とともに良くなります。
  • 自然言語理解。音声テキスト化ソフトウェアは、AIによって、さまざまな言語や会話形式に適応することができます。
  • すべての分類の認識。すべての顔を、写真タグづけアプリにプログラムすることはできません。AIを使えば、2つの写真を同じ人物だと認識することができます。
  • 時間とともに変化する発生頻度の低い出来事の検出。クレジットカード詐欺は絶えず進化しています。個人にとってはまれにしか起きないことですが、大きなかたまりとして見ると頻繁に発生しています。AIは、進化するパターンを学び、新たな種類の詐欺が現れたときに検出することができます。
  • 特定の事業領域におけるエージェントやボット。ホテルの予約は、多くのユーザーにおいて同じパターンでなされるので、自動化によりプロセスを早くすることができます。
  • 動的にコンテンツを表示することは、予測できるインターフェースよりも効率的である。ストリーミングサービスにおけるAIによるレコメンドは、ユーザーが他の方法ではほとんど見つけられないような新しいコンテンツと出会えるようにします。

AIによるアプローチが好ましくない状況

  • 予測可能性を維持するとき。しばしば、その核となるエクスペリエンスのもっとも価値のある部分は、利用状況やユーザーの追加入力に関係なく、その予測可能性にあることがあります。たとえば、「ホーム」や「キャンセル」ボタンは、いつも同じ場所にあるほうが非常ボタンとして使いやすいです。
  • 静的な、または限られた情報を提供するとき。たとえば、クレジットカードの入力フォームはシンプルでスタンダードなものでよく、ユーザーごとにさまざまな見せ方をする必要はありません。
  • コストのかかるエラーを最小限に抑えるとき。エラーしたときのコストがとても高く、成功することで得られるメリットを上回るとき。数秒の移動時間を節約するために、オフロードのルートを提案するナビゲーションガイドなど。
  • 完全な透明性。オープンソースソフトウェアのように、ユーザーや顧客、開発者が、コード内で発生するすべてのことを正確に理解する必要があるとき。AIはそのレベルの説明責任をつねに担保することはできません。
  • 高スピードと低コストに最適化するとき。AIを加えることによる価値よりも、開発のスピードと早期の市場投入がビジネスにとって何よりも重要であるとき。
  • 価値の高いタスクの自動化。AIによるタスクの自動化や拡張を望まない、と人々がはっきりと言っているのであれば、混乱させないようにするのは良いことです。人々が特定の種類のタスクをどのように評価するのか、詳しくは後述します。

キーコンセプト

「AIを_____に使えないだろうか?」と問いかけるかわりに、次のような問いかけをすることで、人間中心のAIによる解決策を探しましょう。

  • _____をどのように解決しようか?
  • AIは、この問題を独自の方法をもって解決できるだろうか?

この項の考え方で、ワークシートの演習1をやってみましょう。


➁ 「自動化」と「拡張」を評価する

解決すべき問題を見つけ、AIを使うことが正しいアプローチであると判断したら、次に、AIによる問題解決がユーザーの目標達成の役に立つ方法を評価します。大きく考慮することのひとつは、タスクを「自動化」するためにAIを使うのか、タスクをその人自身でできるよう人の能力を「拡張」するために使うのか、です。

いくつかのタスクについては、人々はAIがするのを好むでしょう。しかし、人々は自身でやりたいと思う活動も多くあります。後者において、AIは、彼らがその同じタスクをするのを、より速く、より効率的に、ときにはもっとクリエイティブにすることができます。正しくすれば、「自動化」と「拡張」が連携して、長く複雑なプロセスをシンプルにし改善します。

「自動化」が好ましいとき

「自動化」は一般的に、望ましくないタスクを完全に回避できるとき、または時間やお金、労力を費やす価値がないときに適しています。これらのAIに任せることが好ましいタスクは通常、監視を必要としないか、または他の人(または他のモノ)でも同じようにやることができるものです。自動化が成功したかどうかは、多くの場合、次のように判断されます。

  • 効率の向上
  • 人間の安全性の向上
  • 面倒なタスクの削減
  • 自動化なしではできなかった新しい体験を可能にする

「自動化」は、人間の弱点をAIの強みで補うタスクにベストの選択肢です。たとえば、フォトライブラリを並べ替えたり、写真をテーマ別にグループ分けしたりすることは、人間がやると、とても長い時間がかかります。AIであれば、一定のフィードバックなしに、すばやくかんたんにできます。次のようなときは、自動化を検討してください。

人々にタスクをするための知識や能力が欠けているとき

やりかたは理解していて、何回もしたいと思うが、それができないとき。あるいは技術的には知っているが、機械のほうがよりそのタスクに適しているとき。たとえば、特定の値を見つけるためにスプレッドシート内の何千もの行を検索するなど。

または、一時的な制約が人々にあるとき。タスクを迅速に完了する必要があり、自分でやることを諦めるようなときです。たとえば、平日の忙しいときは炊飯器の自動設定で夕食をつくり、週末には手で寿司を握るような例です。

タスクが退屈、繰り返し、扱いにくい、または危険なとき

書き上げた文章を、スペルチェッカーを使用せずにスペルチェックしようとしても、あまり意味がありません。建物内のガス漏れをチェックするときに、センサーを使って漏れを検知できるのに、自分の鼻を使うことは賢明ではありません。どちらの状況でも、ほとんどの人は、価値のないタスクを避けるために、自分でやることを放棄します。

タスクを自動化することを選んだときでも、ほとんどの場合、人間による監視(「人間参加」と呼ばれることもあります)と、必要に応じた介入がいるでしょう。そのかんたんな方法としては、AIが自動化するあらゆる機能を、ユーザーがプレビュー、テスト、編集、元に戻すことができるようにすることです。

「拡張」が好ましいとき

AIプロダクトをつくるとき、ユーザーのためにもっとも良いことは、いま手でしなければならないタスクを自動化することだ、と考えてしまいがちです。しかし、タスクを完全に自動化するかわりに、AIが人間の既存の能力を拡張して「超能力」を与えることのほうが一般的に好まれる状況もたくさんあります。

拡張が成功したかどうかは、多くの場合、次のように判断されます。

  • タスクに対するユーザーの楽しさの向上
  • 自動化に対するユーザーのコントロールの高度化
  • ユーザーのより大きな責任と権限
  • ユーザーの努力する能力の向上
  • 創造性の向上

「拡張」をすべきものを「自動化」と分けて定義するのは、必ずしもかんたんではありません。しかし、それらは一般的に、より複雑で、本質的に人間的で、個人的な価値があります。たとえば、あなたがTシャツのデザインの一部を自動化するツールを使うとき、画像のサイズ変更や適切な色の検索などができます。このとき、デザインソフトウェアはTシャツデザインのタスクを拡張し、無限の斬新さと創意を解き放ってくれます。次のときには、人々の既存の能力を拡張することを検討してください。

人々が仕事を楽しんでいるとき

すべてのタスクが面倒なわけではありません。あなたが作曲を楽しんでいるなら、おそらくあなたは、AIが代わりに曲のすべてを書くことを望まないでしょう。アルゴリズムがそれをしてしまったら、あなたは楽しい創造的なプロセスを味わうことができません。しかし、「Magenta Studio」のようなものを使うことは、あなたの芸術的なプロセスの本質的な人間性を損なうことなく、あなたの創造的なプロセスを助けることができるでしょう。

人々が結果に対して個人の責任を感じているとき

人々はいつも小さい親切をやりとりしています。誰かに親切にすることは、時間とエネルギーを遣うことによって得られる社会資本です。このようなタスクのために、人々は自らがおかれた社会的義務を果たすことを好みます。さらに、時には、人々は法の責任外のタスクに対しても、個人的な責任を負わなければならないことがあります。また、道路の通行料を払うような、個人的な義務はない場合も、一般的に自動化システムが好まれます。

状況の利害が大きいとき

自分たちの役割において、利害が大きいとき、人々はしばしば自分でやれる状態を維持したいと思うか、または維持し続けなければなりません。たとえば、パイロット、医師、警察官などです。高いハシゴを誰かが安全に降りることができるようにするような物理的な利害、あなたが愛する人にその感情を話すような感情的な利害、またはクレジットカードや銀行情報の共有のような金銭的な利害です。ストリーミングサービスから曲のレコメンドを得るような、利害が少ない状況では、発見の期待値のほうがエラーしたときの低いコストよりも高いため、人々はしばしば自分でやることを放棄するでしょう。

特定の好みが伝えられないとき

往々にして、人々は何かをしたいと思うとき、ビジョンを持っています。部屋の装飾、パーティーの計画、またはプロダクトのデザインなど。彼らは心の中にイメージがありますが、言葉にしようとは思えません。このような状況では、人々はビジョンを見通すことができるように、自分でする状況を維持することを好みます。人々がビジョンを持っていなかったり、費やす時間がないときは、自動化を好む傾向があります。

キーコンセプト

以下は、ユーザーが自動化および拡張についてどう考えるかを学ぶためのリサーチクエスチョンの例です。

  • もし新しい同僚に同じ役割を果たすよう教えるなら、最初に教えるもっとも重要なタスクは何ですか?
  • いました行動について詳しく教えてください。それをどのくらいの頻度でしますか?
  • もしこのタスクのための人間のアシスタントがいたとして、彼らにすべてを任せたら、どうなりますか?

この項の考え方で、ワークシートの演習2をやってみましょう。


➂ 報酬関数を設計し評価する

プロダクトに組み込まれるAIモデルはすべて、「目的関数」や「損失関数」とも呼ばれる「報酬関数」によって動きます。これは、AIモデルが「正しい」予測と「誤った」予測を決めるために使う数式、または式の組み合わせです。それはシステムが最適化していくための行動や挙動を決め、そして最終的なユーザーエクスペリエンスの主要な要因になります。

報酬関数を設計するときは、ユーザーの最終的なエクスペリエンスに大きな影響を及ぼす、いくつかの重要な意思決定をする必要があります。以下にそれらについて説明しますが、報酬関数の設計は分野を超えたコラボレーションのプロセスでなければなりません。議論には、少なくともUX、プロダクト、およびエンジニアリングの観点を含めなければなりません。プロセス全体を通して、あり得る結果について時間をかけて考え、自分の考えを他の人とやりとりします。それは報酬関数が誤った結果にむけて最適化してしまう落とし穴を明らかにします。

偽陽性と偽陰性を計る

多くのAIモデルは、特定のオブジェクトや実体が特定のカテゴリに属するかどうかを予測します。この種のモデルは「二項分類」と呼ばれます。AIがどのように正しいか、または誤るかを理解するための、シンプルな例を示します。

二項分類」が予測をするとき、4つの結果があり得ます。

  • 真陽性:モデルが正しい結果を正しく予測しているとき。
  • 真陰性:モデルが誤った結果を正しく予測しているとき。
  • 偽陽性:モデルが正しい結果を誤って予測したとき。
  • 偽陰性:モデルが誤った結果を誤って予測したとき。

2種類の成功 - 真陽性と真陰性 - と2種類のエラー - 偽陽性と偽陰性 - を表す一般的なマトリックスは、どのAIモデルにも適用できます。

サンプルアプリ「ランニング」を例にしてみましょう。「ランニング」がAIモデルを使って、ユーザーにランニングをレコメンドするとします。さまざまなモデルの結果が、どのように出るかは、次のとおりです。

  1. 真陽性:モデルは、好きで走り続けることを選んだユーザーに走ることを提案した。
  2. 真陰性:モデルは、走り続けることを選ばないだろうユーザーに走ることを提案しなかった。
  3. 偽陽性:モデルは、走り続けたいと思っていないユーザーに走ることを提案した。
  4. 偽陰性:モデルは、それを知っていれば走り続けたかったはずのユーザーに走ることを提案しなかった。

報酬関数を定義するときに、結果を別々に「重みづけ」することができます。偽陽性と偽陰性のコストを重みづけすることは、ユーザーエクスペリエンスを左右する重要な意思決定です。初期状態においては、両方を同じに重みづけにしてしまいがちです。しかし、それはユーザーにとって現実の結果と一致する可能性は低いです。たとえば、誤警報は、火災が発生しても鳴らない警報よりも、悪いのでしょうか。どちらも間違っていますが、一方のほうがはるかに危険です。他方で、ある人に嫌いな曲をたまにレコメンドすることは致命的ではありません。ユーザーはそれをスキップすることができます。出力や結果に確信度を含めることで、これらのタイプのエラーによる悪影響を軽減できます。

精度と再現率のトレードオフを考慮する

精度再現率は、AIがユーザーに出力する結果の幅と深さ、そしてユーザーが目にするエラーの種類を表す用語です。

  1. 精度とは、もっとも少ない偽陽性、および最大数の真陰性にむけて最適化することです。精度が高いほど、どのモデルの出力も正しいと確信できます。しかし、トレードオフは、関連性のある結果を除外することにより、偽陰性の数が増えることです。

    たとえば、上記のモデルが精度のために最適化されているとき、走り続けることを選ぶ可能性のあるユーザーにすべて独走をレコメンドするわけではありませんが、レコメンドしたすべてのランニングはユーザーに受け入れられると強く確信しています。好みに合わないランニングはごくわずかになるでしょうが、全体的なレコメンドの量も少なくなるでしょう。

  2. 再現率とは、最も少ない偽陰性、および最大数の真陽性にむけて最適化することです。再現率が高いほど、関連するすべての結果が出力のどこかに含まれていると確信できます。しかし、トレードオフは、無関係の結果を含めることで偽陽性の数が増えることです。

    これは、ユーザーが続けるだろうとレコメンドしたすべてのランニングと、ユーザーが選ばなかった他のランニングを含むモデルとして考えることができます。ただし、これらのランニングが好みに合わない場合でも、ユーザーはつねにランニングをレコメンドされます。


精度と再現率を最適化するときのトレードオフを示す図。左図では、精度に最適化することで偽陽性の数を減らすことができるが、偽陰性の数も増えている。右図では、再現率に最適化することでより多くの真陽性をとらえるが、偽陽性の数も増えている。

これらのトレードオフのために、念入りに設計する必要があります。トレードオフを回避することはできません。その範囲のどこにプロダクトを着地させるかは、ユーザーが何を期待しているか、いったい何が彼らに作業完了という感覚を与えるかに、もとづいているべきです。ときには、確信度100%の結果すべてに加えて、確信度の低い結果がいくつか表示されることが、ユーザーにとっては、システムはヌケモレしていないと実感するのに役立ちます。別のケースでは、低い確信度の結果を出すことは、システムへのユーザーの信頼を損ねることにつながります。あなたのユーザーにとっての、精度と再現率のバランスをテストしてください。

報酬関数の結果を評価する

次のステップは、あなたの報酬関数を評価することです。 成功のあらゆる定義と同じように、それをとてもシンプルに、短く、直接的にしてしまいがちです。しかし、これは最善の方法ではありません。シンプルで、短く、直接的な報酬関数を、幅広いユーザーに長期間にわたって適用すると、悪影響が生じることがあります。

報酬関数を評価するときに、考慮すべき事項があります。

包含性を評価する

あなたは、報酬関数がすべてのユーザーにとって、素晴らしいエクスペリエンスを生み出すようにしたいのでしょう。包括的であるということは、プロダクトを使う人を理解するために時間をかけ、さまざまな背景や観点から、そして人種、性別、年齢、体型など、さまざまな側面からユーザーエクスペリエンスが公平になるようにすることを意味します。はじめから「公平性を念頭においてAIを設計すること」は、包括的にするための重要なステップです。「Facets」や「What-If ツール」などのオープンソースツールを使うと、データセットに潜在的なバイアスがないかどうかを調べることができます。詳しくは「データ収集 + 評価」の章にあります。

このガイドブックには、公平性についてのアドバイスを載せていますが、それはこのトピックについての徹底的なリソースではありません。AIにおける公平性への取り組みは、活発な研究分野です。公平性についての最新のガイダンスと推奨される実践方法については、Googleの「責任あるAIの実践」をご覧ください。

時間をかけて監視する

選んだ報酬関数が、時間とともに、どのように影響するのかも検討してください。シェア数のようなものへの最適化は、短期的には良い考えのように思えるかもしれませんが、長期間にわたって、シェアの通知でユーザーを畳みかけることは、とても騒々しい体験を生み出すかもしれません。はじめと同じように、プロダクトを使って100日目や1000日目の、個人的で全体的な最高のユーザーエクスペリエンスを想像してください。長期的にどのような行動や体験に最適化すべきでしょうか?

潜在的な落とし穴を想像する

二次効果」とは、特定のアクションの結果の結果です。これらは予測するのが難しいことで有名ですが、それでも、報酬関数を設計するときに考慮する価値があります。ひとつの有意義な質問は「報酬関数が完全に最適化されたら、ユーザー/その友人や家族/より広い社会に、何が起こるか」というものです。答えは良いものになるでしょう。たとえば、検索クエリに適切なウェブページにアクセスするよう最適化することは、それが完璧であれば、良いことです。人々に一日ずっと注意を向けさせるように最適化しても、長期的には人々に利益をもたらさないかもしれません。

悪影響について説明する

AIが高額なアプリケーションやユースケースになるにつれて、プロダクトの意思決定による悪影響を、計画し監視することがより重要になります。ワークシートのすべての演習を完了したとしても、あらゆる潜在的な落とし穴を前もって明らかにすることはできません。代わりに、影響の測定値をチェックし、新たに明らかになった潜在的な悪影響と追いかけるべき測定基準を特定することを、定期的にスケジュールしてください。

潜在的な悪影響を、対処することのできるユーザーエクスペリエンスの変化と結びつけることも、役に立ちます。たとえば、以下の基準とガイダンスを設定することができます。

  • ユーザーのスマートプレイリストの平均拒否率が20%を超えるときは、機械学習モデルを確認すること。
  • アプリをダウンロードしたユーザーの60%以上が継続して使わないときは、マーケティング戦略を再検討すること。
  • ユーザーが頻繁にアプリを開いていても、その時間の25%しか実行していない場合は、ユーザーにその体験について聞き、通知の頻度を再確認すること。

プロダクトが成熟したら、考慮しなかったステークホルダーへの悪影響がないか、フィードバックを確認します。一部のステークホルダーが、プロダクトのせいでマイナスの影響を受けているのを見つけたら、彼らと話し合い、彼らの状況を理解してください。この議論にもとづいて、継続的な悪影響を回避するために、プロダクトを調整する戦略を立てます。

悪影響を監視するかんたんな方法は、ソーシャルメディアや、「Googleアラート」などのアラートシステムを使うことです。ユーザーの声に耳を傾け、意図しない潜在的な影響をできるだけ早く特定しましょう。

キーコンセプト

チームの全員が、成功と失敗の両方が機能にとってどう見えるか、そして何かがうまくいかなかったとき、どのようにしてチームにアラートを出すかについて、共通認識をもちましょう。これについてのフレームワークは次のとおりです。

もし {私のチームのAIの機能} の {具体的な成功指標} が {意味のあるしきい値} を下回った/上回ったら、私たちは {特定の行動をとる}

この項の考え方で、ワークシートの演習4をやってみましょう。


まとめ

ユーザーのニーズに合わせてプロダクトをつくることは、成功するAIプロダクトへの最初のステップです。ニーズが見つかったら、AIを使うことで、そのニーズに独自に対応できるかどうかを評価する必要があります。そこから、エクスペリエンスの一部を、自動化するのか拡張するのかを、検討します。最後に、長期にわたってすべてのユーザーに優れたユーザーエクスペリエンスを生むように、報酬関数を設計します。

➀ ユーザーのニーズとAIの強みの共通部分を見つける。AIが独自の価値を発揮できる方法で、現実の問題を解決します。どの問題を解決するかを決めたら、つねに責任ある方法でAIをつくり使う必要があります。「Google AI原則」と「責任あるAIの実践」を見て、あなたがより良いものを心に留めてつくっていくための、実践的なステップを学んでください。

➁ 「自動化」対「拡張」を評価する。「自動化」するタスクは、たいへんなもの、不快なものものです。そして理想としては、いまそのタスクをしている人々が、新しい方法を「正しい」方法だと同意できることです。「拡張」するものは、人々が楽しんでいる、社会資本をもたらす、より大きなプロセスです。

➂ 報酬関数を設計し評価する。「報酬関数」とは、AIにとっての成功と失敗を定義するものです。プロダクトによる影響を想定し、それらの潜在的な悪影響を限定することで、長期的なユーザーの利益のために最適化するように、この関数を意識的に設計してください。

議論を円滑にし、イテレーションをスピードアップし、落とし穴を避けたいですか? ワークシートを使用してください。


「People + AI Guidebook」の推奨事項、ベストプラクティス、事例は、以下の学術分野や産業界の参考文献に加えて、多数のGoogleのユーザー調査とデザインの検証から得られたものです。それらの詳細は非公開であり、このリストには含まれていません。