信頼できるAI XAI 人工知能
        
『実験の自動化・自律化によるR&Dの効率化と運用方法』
『人工知能を活用した研究開発の効率化と導入・実用化《事例集》』
 
<セミナー No.411513>

【Live配信】

★なぜその答えを出したのか! AIの意思決定をどのように検証するか!!
★何が出力結果に影響を与えているのか...判断根拠を人が分かるように説明する方法とは!!



説明可能・信頼できるAI”の開発とその活用方法


■ 講師
1.

千葉工業大学 人工知能・ソフトウェア技術研究センター 上席研究員 吉川 友也 氏

2. 武蔵野大学 データサイエンス学部 データサイエンス学科 准教授/
          (同)EigenBeats 代表社員 CEO データサイエンティスト 中西 崇文 氏
3. 東京工業大学 データサイエンス・AI全学教育機構 特任教授 鈴木 健二 氏
■ 開催要領
日 時

2024年11月12日(火) 10:30〜17:15

会 場 Zoomを利用したLive配信 ※会場での講義は行いません
Live配信セミナーの接続確認・受講手順は「こちら」をご確認下さい。
聴講料

1名につき60,500円(消費税込み、資料付) 
〔1社2名以上同時申込の場合1名につき55,000円(税込)〕

大学、公的機関、医療機関の方には割引制度があります。
詳しくは上部の「アカデミック価格」をご覧下さい。

■ プログラム

<10:30〜12:00>

【第1部】ブラックボックス機械学習モデルの判断根拠を説明する技術

千葉工業大学 吉川 友也 氏

【講演趣旨】
ニューラルネットワークのような複雑な機械学習モデルを用いることで高精度の予測が可能になった一方で、機械学習モデルはブラックボックス化が進み、モデルの振る舞いの理解が困難になっている。
本講演では、ブラックボックス機械学習モデルにおける判断根拠を説明する技術について代表的な手法を紹介すると共に、我々が研究した、効率的にモデルに忠実な説明を生成する技術についても紹介する。

【講演項目】
1.機械学習の基礎知識
 1-1.教師あり学習
 1-2.ブラックボックス設定

2.説明可能AIとは
 2-1.説明可能AIの社会における需要
 2-2.説明手法の分類
 2-3.説明可能AIの用途
 2-4.説明の具体例

3.代表的説明手法
 3-1.Local Interpretable
      Model-agnostic Explanations (LIME)
 3-2.Shapley Additive Explanations (SHAP)
 3-3.ブラックボックスモデルの説明における課題

4.効率的にモデルに忠実な説明を生成する技術
 4-1.入力の入れ子構造を活用した説明技術

5.まとめと将来展望

【質疑応答】


<13:00〜15:00

【第2部】説明可能なAI(XAI)、信頼できるAIの技術開発と重要性

武蔵野大学/ (同)EigenBeats 中西 崇文 氏

【講演趣旨】
2023年9月7日に開催された広島AIプロセス閣僚級会議では、高度なAIシステムに関する透明性、偽情報、知的財産権、プライバシーなどのリスクが指摘された。これを受け、特に透明性と偽情報を判断する技術的手段として、説明可能なAI(XAI)の研究が一層求められている。XAIの実現により、さらにAIと人間の協働や信頼性を高めることが求められている。
本講演では、エンドユーザやビジネスユーザにおいて、XAIが求められるシーンを説明した上で、具体的にXAIによって、AIの振る舞いや出力の根拠が説明可能になることとはどういうことか、それによってどのような影響があるかについて述べる。

【講演項目】
1.AIと人間との協働や信頼性を高めるために必要なこと

2.説明可能なAI(Explainable AI;XAI)とは一体何か

3.XAIによって実現できること

4.XAIの具体的な利用シーン

5.世界の動向

6.XAIによるAIと人間との協働社会

【質疑応答】


<15:15〜17:15>


【第3部】説明可能AIと機械学習における公平性と活用のポイント

東京工業大学 鈴木 健二 氏

【講演趣旨】
説明可能なAIとは、AIの判断根拠を人間にわかるように説明する技術である。AIはブラックボックスと言われ、人間がAIの判断根拠を理解することが難しい。AIの判断根拠の説明は、AIを利用する人間にとって重要な技術的課題である。
また、機械学習における公平性は、AIによる意思決定において非常に重要な課題となっている。データやAIのバイアスによる性別、年齢、人種などの差別を低減させるための技術が注目されている。
本講座では、説明可能なAIと機械学習における公平性についての技術を解説する。

【講演項目】
1.AI倫理問題

2.AIトップカンファレンスの動向

3.機械学習における説明性と精度

4.説明可能なAIとは

5.説明可能なAIの技術分類

6.説明可能なAIの各手法

7.協力ゲーム理論と機械学習

8.説明可能なAIのツール

9.羅生門効果

10.注意機構による精度向上

11.データのモデルへの影響度

12.モンテカルロドロップ

13.生成AIによる説明

14.公平と平等、社会での差別

15.グループ間公平性と個人間公平性

16.再犯防止予測AI、採用でのAI利用

17.AIでの公平性を数式で表現

18.バイアスの原因と緩和アルゴリズム

【質疑応答】


説明可能 AI セミナー