深層学習(Deep Learning)の登場をきっかけとして第三次AIブームが訪れて以来、様々なシーンでAIが活用され始めています。AIは試験的な利用の領域を超え、完全に実用化のフェーズに突入したと言って差し支えないでしょう。

しかし、AIの導入に踏み切れない企業が一定数残っているのも事実です。そうした企業、組織が抱く懸念の一つとして、「AIにおける意思決定プロセスのブラックボックス化」があることが指摘されています。

AIに期待はあるが、導入できない企業は60%

AIを活用すれば、かつてないスピードと精度で大量のデータを解析し、そこから様々な洞察を引き出すことが可能となります。グローバル化や消費者ニーズの多様化、産業機器の高度化――年々複雑化していく環境でビジネスを推進していく上で、AIが強力な武器となりうるのはもはや疑いのないところです。

IBMビジネス・バリュー・インスティテュート(IBM Institute for Business Value)が世界の5,000人の経営幹部を対象に実施した最新の調査(『Shifting toward Enterprise-grade AI』, 2018年)でも、82%の企業がAIの導入を検討しているという結果が明らかになりました。しかし一方で、60%の回答者が、AIが起こしうるトラブルの「責任問題」を懸念していると答えています。

従来のコンピュータ・プログラムは、基本的には人間のプログラマーが作成したアルゴリズムに従って動くものでした。しかし深層学習の登場以降は、与えられたデータを読み込むことでプログラムが自ら特徴を発見し、独自の判断基準に従って処理を行うことができるようになりました。

このように、深層学習は高度で効率的な分析を可能にしますが、AIがデータを学習してモデルを作り出す過程はAIの中にあり可視化されていないため、抽出された結果に対して「なぜ、そうなるのか」を明確に説明できないという問題があります。つまり、AIを利用したシステムは一種のブラックボックスとなり、「責任問題」の懸念につながっているのです。

どんな場面でどう動くのかを管理できないシステムに、安心して自社のビジネスを委ねることなどできません。AIの判定の精度が低かったり、誤った判定を行っていたりしても、それを認識できずにAIの判定を鵜呑みにすることは企業にとって大きなリスクになります。また、AIの判定は学習データに大きく依存するため、誤った学習データによってモデルにバイアス(偏り)が混入し、不適切な意思決定が行われてしまう恐れが常に伴います。

AIの意思決定を「見える化」し、「公平性を保つ」サービス

IBMが提供する「AI OpenScale」は、こうした問題の解消に大きく貢献するソフトウェアサービスです。

このサービスは、社内の業務アプリケーションに展開しているAIモデルを統合して管理、監視することができるツールです。各AIモデルのパフォーマンスを測定するのに加え、AIモデルがバイアスのある判定をしている場合にアラートを検出します。また、検出したバイアスを軽減したAIモデルを作成し、判断の公平性を保つ助けまでしてくれるのです。さらに、AIの意思決定プロセスを「見える化」し、AIが意思決定を行うタイミングで、どの因子がどの方向で、どの程度決定に影響したのか、提案の信頼度やその要因を示します。

サービスにはグラフィックを用いた視覚的なダッシュボードからアクセスすることができ、検出結果も分かりやすい用語で提供されるため、AIモデルの開発者だけでなく、実際にAIモデルを展開した業務アプリケーションを使うビジネスユーザーでも、AIモデルの性能やバイアスの内容を理解し、AIによる判定の結果を業務に活用することができます。

また、Watsonはもちろん、TensorFlow、Spark ML、Amazon SageMaker、Azure MLなどの、さまざまな機械学習フレームワークやAI構築環境で設計されたモデルに対応しているため、既存のAIとの連携も容易に行えるでしょう。

IBMでは上記と並行して、AIのバイアス検出を支援するライブラリーである「AI Fairness 360ツールキット」をオープンソースコミュニティーに提供します。これにより、AIにバイアス検出を組み込むためのツールと知識を得ることができるため、2つのサービスを併用することで、AIの意思決定における透明性を容易に担保することができるでしょう。

人とAIが協働する世界の実現に向けて、高い信頼性と透明性を持ったAIの構築はとても重要なテーマの一つです。この新しいサービスが、人間とAIを隔てる「壁」を取り除く大きな一歩となることを期待してやみません。

photo:Getty Images