AIシステム開発におけるAI開発者とシステム開発者のギャップ解消に向けたAI説明技術の検証
ダウンロード数: 39回
発表場所 : SQiP研究会
紹介文 :
ファジーな機能を実現し、識別や予測の失敗発生は常に起きうるAIシステムに対しては、「納得して受け入れる」ことの困難さが言われています。
一方で、AIの出力等について説明を行うXAI(eXplainable AI)技術は大きな注目を浴びていますが、それが果たす役割についてはまだ合意がなされていません。
本研究では、特にAI専門家と非専門家の差に着目しつつ、納得という観点からAIの失敗やその説明に関する人間のとらえ方をしっかりと調査し論じています。
概要 :
AI はブラックボックスと言われており、その素性や性能はデータを通してしか把握できない。そのため、AI に対する知見の深さによってAI の評価は大きく影響される。AI システム開発において、AI の専門家であるAI 開発者と非専門家であるシステム開発者の間には、AI コンポーネントの評価においてギャップが生じており、円滑な連携の妨げとなっている。学術研究分野ではAI を説明する技術について様々な提案があるが、AI システム開発の現場における実用性についてはよく知られていない。そこで本論文では、運転支援システムにおける道路標識判定を題材にAI 説明技術を適用することにより、AI 開発者とシステム開発者のギャップの解消が可能であるかを検証した。その結果、一定の効果があることが確認できた。一方で、使用には注意が必要であることも分かった。
↑