AI に関する業界の懸念を理解しようとするほぼすべての調査では、すべてが「セキュリティ」という見出しの下にまとめられています。 機密データの漏洩に関する懸念から幻覚や偏見、迅速なインジェクションによる悪用から透明性や説明可能性まで、AI に関してはすべてがセキュリティの責任であるように思われます。
これらの懸念はどれも正当かつ重要ですが、それぞれが非常に異なっており、そのほとんどはセキュリティの責任ではありません。
今日は、透明性と説明可能性について詳しく説明します。どちらも、ビジネスで AI を使用する際に理解し、実践する必要がある重要な概念です。 これらはシステムと結果に対する信頼を確立する方法であるだけでなく、特に開発中のシステムのトラブルシューティングとデバッグもサポートします。
透明性と説明可能性は一般的に重要な概念ですが、ほとんどの実務者(IT 部門内であっても)が AI システムの仕組みに精通していないことを考えると、特に AI に当てはまります。 どちらの概念も、倫理的 AI、責任ある AI、AI ガバナンスの文脈でよく議論されます。 これらは密接に関連していますが、異なる意味を持ち、AI システムの理解と管理において異なる目的を果たします。
透明性は、利害関係者や一般の人々を含む幅広い対象者に AI システムに関する一般的な情報を提供することに重点を置いています。 説明可能性はより具体的であり、その動作を理解する必要があるユーザー、開発者、利害関係者に対して個々の決定や結果を明確にすることを目的としています。
透明性はシステムへの信頼を促進することに重点を置いていますが、説明可能性は特定の出力への信頼を確立することに関係しています。 これを実現するために、透明性と説明可能性は異なる要素に焦点を当てます。
AI における透明性とは、AI システムの設計、運用、意思決定プロセスに関する情報が、利害関係者に対してどの程度オープンで、アクセスしやすく、理解しやすいかを指します。 AI システムの動作に関する明確なコミュニケーションと可視性を重視し、関係者がシステムのさまざまな側面を理解できるようにします。
AI の透明性の主な要素は次のとおりです。
AI における説明可能性とは、システムの決定、出力、または動作に対して理解可能な理由や正当性を提供する能力を指します。 特定の決定が行われた理由を説明することに重点を置き、AI の結果をユーザーや利害関係者が理解できるようにすることに重点を置いています。
AI の説明可能性の主な要素は次のとおりです。
あらゆる新しいテクノロジーは信頼を確立するのに時間を必要とします。 15 年前は、重要なアプリケーションの自動スケーリングを信頼する人は誰もいませんでしたが、今日では、それが基本的な機能として期待されています。 複雑な数学の問題を解く、車を運転する、請求書を支払うなど、あらゆる種類の自動化は、ユーザーが信頼するまでに時間がかかります。 プロセスの透明性とシステムの仕組みの説明は、導入から採用までのギャップを短縮するのに大いに役立ちます。
透明性は AI システムの動作を広く把握できる一方、説明可能性は特定の決定や結果の背後にある理由を詳しく調べます。 これらは両方とも、AI が成功し、ビジネスが顧客サービスの向上、生産性の向上、意思決定の迅速化といったメリットを実現するために不可欠です。
そして、どちらもセキュリティの範囲外です。