Subscribe to our mailing list
私たちのほとんどは、「偏ったアルゴリズム」に関するホラーストーリーを聞いたことがあるでしょう。外国風に聞こえる名前の候補者を拒否するアルゴリズムから、マイノリティをより高いレベルの犯罪と不釣り合いに関連付ける犯罪予測AIまで、さまざまなものがあります。このような事態が今後も続くことを防ぐためには、研究者がこのような偏見を早期に発見することが不可欠です。スタンフォード大学は最近、The Ethics and Society Review(ESR)を開始しました。このレビューでは、スタンフォード大学人間中心AI研究所からの資金提供を求める研究者に、提案が社会に及ぼす可能性のある悪影響を記載したフォームも提出するよう求めています。そうすることで、ESRは、修正が容易な開発の最初の段階の早い段階で偏見をつかむことを望んでいます。このプロセスはこれまでのところ成功を収め、可能性を示していますが、AI リスク管理の必要性は世界規模で増え続けています。
現在のリスク管理の欠如
AIはまだ比較的新しい概念であり、社会に害を及ぼす可能性のあるものについて制度審査委員会などの制度的プロセスが検討する対象には含まれていません。現在、AIに関連する最大のリスクには、差別、プライバシー侵害、誤った導入などがあります。人工知能の何かがおかしくなった場合、企業は評判の低下や資金の損失を含むあらゆる影響に対して責任を負います。AIはまだ初期段階にあるため、企業は社会的被害の全容を考慮しないことが多く、リスクをどの程度軽減できるかが過大評価されてしまいます。そのため、製品が社会にどのような影響を与える可能性があるかについて、適切な予測を立てる必要があります。
前に進む
潜在的なリスクを軽減するには、手順の更新やAIに関わるすべての従業員の再教育など、全社的な統制を導入する必要があります。たとえば、オムネキーの従業員は、潜在的な被害を減らすために会社がどのように率先して取り組んでいるかをよく理解しているだけでなく、AIをどこでどのように使用するかについてのトレーニングを受けています。
全社的な統制には、初期開発から最終生産までのガイドラインを実装する必要があります。初期段階では、企業が開発サイクルにフィードバックループを組み込むとともに、製品のパフォーマンスの進捗状況を透明かつ正直に報告することが重要です。
GPT-3でよくある問題であるインターネットから学ぶ差別や軽蔑的なコメントなどを減らすために、企業はサンプル外テストやバックテストを取り入れ、定期的に製品を評価してデータの劣化を発見する必要があります。偏った犯罪予測AIのような前述の問題を防ぐには、モデル結果を個別にレビューし、偏見がないことを確認する必要があります。実装上の問題を回避するには、詳細なモデルテストと、製品が使用される可能性のあるすべてのシナリオを考慮した厳格な要件の順守が必要です。最後に、モデルの使用と意思決定を検討する最後のステップでは、モデルパフォーマンスの監視だけでなく、最終的に影響が発生した場合の影響を軽減する方法の計画を作成する必要があります。
Omnekyは、これらの提案を真剣に受け止めることの重要性を高く評価し、それらを実装するために精力的に取り組んでいます。