ブログ | CTO オフィス

AIにおける重要な概念: 透明性と説明可能性

ロリ・マクヴィッティ サムネイル
ロリ・マクヴィッティ
2024年7月16日公開

AI に関する業界の懸念を理解しようとするほぼすべての調査では、すべてが「セキュリティ」という見出しの下にまとめられています。 機密データの漏洩に関する懸念から幻覚や偏見、迅速なインジェクションによる悪用から透明性や説明可能性まで、AI に関してはすべてがセキュリティの責任であるように思われます。

これらの懸念はどれも正当かつ重要ですが、それぞれが非常に異なっており、そのほとんどはセキュリティの責任ではありません。

今日は、透明性と説明可能性について詳しく説明します。どちらも、ビジネスで AI を使用する際に理解し、実践する必要がある重要な概念です。 これらはシステムと結果に対する信頼を確立する方法であるだけでなく、特に開発中のシステムのトラブルシューティングとデバッグもサポートします。

透明性と説明可能性

透明性と説明可能性は一般的に重要な概念ですが、ほとんどの実務者(IT 部門内であっても)が AI システムの仕組みに精通していないことを考えると、特に AI に当てはまります。 どちらの概念も、倫理的 AI、責任ある AI、AI ガバナンスの文脈でよく議論されます。 これらは密接に関連していますが、異なる意味を持ち、AI システムの理解と管理において異なる目的を果たします。

透明性は、利害関係者や一般の人々を含む幅広い対象者に AI システムに関する一般的な情報を提供することに重点を置いています。 説明可能性はより具体的であり、その動作を理解する必要があるユーザー、開発者、利害関係者に対して個々の決定や結果を明確にすることを目的としています。 

透明性はシステムへの信頼を促進することに重点を置いていますが、説明可能性は特定の出力への信頼を確立することに関係しています。 これを実現するために、透明性と説明可能性は異なる要素に焦点を当てます。

透明性: 出典を引用する

AI における透明性とは、AI システムの設計、運用、意思決定プロセスに関する情報が、利害関係者に対してどの程度オープンで、アクセスしやすく、理解しやすいかを指します。 AI システムの動作に関する明確なコミュニケーションと可視性を重視し、関係者がシステムのさまざまな側面を理解できるようにします。

AI の透明性の主な要素は次のとおりです。

  • 設計と開発: 透明性には、AI システムの設計、アーキテクチャ、トレーニング プロセスに関する情報の共有が含まれます。 これには、使用されるデータの種類、実装されるアルゴリズム、モデルが含まれます。 この透明性は、住宅ローンや信用調査機関の FICO スコアの適格性を判断する際にどのようなデータと重み付けが使用されるかをプロバイダーが説明する金融サービス開示に似ています。
  • データと入力: 透明性には、AI システムのトレーニングと運用に使用されるデータのソースと種類を明確にすることが含まれます。 また、入力データに適用されたデータの前処理、変換、または拡張の開示も含まれます。 このタイプの情報は、企業がどのようなデータを収集、保存し、誰と共有するかを通知するデータ収集ステートメントに似ています。
  • ガバナンスと説明責任: AI システムの開発、展開、ガバナンスの責任者に関する情報を提供します。 これにより、利害関係者は説明責任の構造を理解しやすくなります。

説明可能性: あなたの作品を見せてください

AI における説明可能性とは、システムの決定、出力、または動作に対して理解可能な理由や正当性を提供する能力を指します。 特定の決定が行われた理由を説明することに重点を置き、AI の結果をユーザーや利害関係者が理解できるようにすることに重点を置いています。

AI の説明可能性の主な要素は次のとおりです。

  • 決定の正当性: 説明可能性には、特定の決定や出力につながった要因とロジックの詳細が含まれます。 以下の質問に答えます: 「AI はなぜこの決定を下したのか?」そして「この結果に影響を与えたものは何なのか?」 これは幾何学の証明に似ています。出力を説明するには、媒介性、合同性、平行線などの公理に頼る必要があります。 言い換えれば、AI が 2+2=5 と決定した場合、別の数学システムに頼ったり、方程式を文学的な手法として使用したりするなど、その決定の正当な理由を実証する必要があります。  
  • モデルの解釈可能性: 説明可能性を実現するには、AI モデルを解釈可能にして、関係者が意思決定の基本的な仕組みを理解できるようにする必要があります。 たとえば、誰もが微積分を理解しているわけではないので、複雑な方程式の形での説明だけでは不十分です。 敵対的生成ネットワーク (GAN) と畳み込みニューラル ネットワーク (CNN) の動作方法にはかなりの違いがあるため、どのアーキテクチャ アプローチが使用されているかを明らかにすることは解釈可能性の重要な部分です。
  • 人間の理解可能性: 説明は、専門家以外の人にも理解しやすい形式でなければなりません。 これには、複雑な AI 操作をシンプルかつ明確な方法で提示する必要があります。 説明を 16 進形式やコードで提示することはできません。法務、コンプライアンス、エンジニアなど、すべての関係者が読める形式を使用する必要があります。

AI への信頼の構築

あらゆる新しいテクノロジーは信頼を確立するのに時間を必要とします。 15 年前は、重要なアプリケーションの自動スケーリングを信頼する人は誰もいませんでしたが、今日では、それが基本的な機能として期待されています。 複雑な数学の問題を解く、車を運転する、請求書を支払うなど、あらゆる種類の自動化は、ユーザーが信頼するまでに時間がかかります。 プロセスの透明性とシステムの仕組みの説明は、導入から採用までのギャップを短縮するのに大いに役立ちます。

透明性は AI システムの動作を広く把握できる一方、説明可能性は特定の決定や結果の背後にある理由を詳しく調べます。 これらは両方とも、AI が成功し、ビジネスが顧客サービスの向上、生産性の向上、意思決定の迅速化といったメリットを実現するために不可欠です。

そして、どちらもセキュリティの範囲外です。