1節 機械学習を用いた人の運動・動作のモデリング
1.課題関連成分と課題非関連成分
2.UCM
(1)計算方法
(2)適用例
(3)UCMの利点と欠点
3.GEM
(1)計算方法
(2)適用例
(3)GEMの利点と欠点
4.UCMとGEMのまとめ
5.データ駆動型の解析
(1)計算方法
(2)提案する枠組みの拡張
(3)提案手法の利点・欠点
(4)適用例その1(実験設定と実験結果)
(5)適用例その2(実験設定と実験結果)
6.まとめとその他のデータ駆動型のアプローチ
2節 人工知能を用いた脳活動データの解析と脳機能の解明
1.計算的アプローチに基づく脳活動データ解析
1.1 実験デザインの重要性
1.2 データの前処理
1.3 特徴抽出
1.3.1 振幅スペクトル
1.3.2 機能的結合度
1.3.3 側性指標
1.3.4 前処理データをそのまま用いる
1.4 計算アルゴリズム・モデルの適用
1.4.1 Multivariate pattern analysis (MVPA)による脳活動パターンに基づく状態推定
1.4.2 Connectome-based predictive modelling
(CPM)による機能的結合度に基づく状態推定
1.4.3 Topological data analysis (TDA)による脳活動ダイナミクスの分析
2.研究事例: Tucker3クラスタリングを用いた瞑想に伴う脳機能ネットワーク変化の抽出
2.1 研究概要
2.2 実験デザイン
2.3 前処理
2.4 特徴量
2.4.1 機能的結合度に基づくグラフ理論特徴量
2.4.2 fALFFによる自発性脳活動の強度
2.5 解析手法
2.5.1 Tucker3 Clusteringの適用
2.5.2 安静時と瞑想時の違いを特徴づける特徴量の抽出
2.6 結果および解釈
3節 協力する知能をつくる―運転から言語獲得までを統べる協力の数理
1.協力の数理
1.1 意思決定の階層性
1.2 階層均衡--階層推論
1.2.1 階層均衡(HE)
1.2.2 階層推論(HI)
1.3 同期モデルとしてのH2EI ※H2EIの2は上付き
1.3.1 カオス同期との関係
1.3.2 非協力ゲームとの関係
2.身体的協力
2.1 運転
2.1.1 課題
2.1.2 モデリング
2.1.3 効果
2.2 共同運搬
2.2.1 課題
2.2.2 モデリング
2.2.3 効果
3.言語的協力
3.1 発話理解・生成
3.1.1 課題
3.1.2 モデリング
3.1.3 効果
3.2 言語獲得
3.2.1 課題
3.2.2 モデリング
3.2.3 効果
3.役割分担の調整時間
4節 マルチモーダル深層学習基盤を用いた画像認識技術の活用事例
1.マルチモーダル深層学習基盤の概要
2.技術の詳細
2.1 類似検索技術プラットフォーム「EnraEnra」
(1)近似近傍ベクトル探索
(2)特徴量DBMSとWebアプリケーション・フレームワーク
2.2 類似ベクトル検索を用いたTripletネットワーク学習
(1)学習方式
(2)監視映像中の人物検索
2.3 可変個数言語ベクトル推定モデル
3.活用事例
3.1 文書検索・知財調査業務(類似画像検索)の活用事例
3.2 インフラ点検・診断業務(類似画像検索、画像分類)の活用事例
3.3 監視映像中の人物検索技術を活用した高速人物発見・追跡ソリューションの特長
(1)高速人物発見・追跡ソリューションのアドオン機能の特長
(2)高速人物発見・追跡ソリューションおよびアドオン機能の活用事例
5節 行動変容を志向したマルチモーダルデータからのユーザ行動モデリング―認知アーキテクチャを活用したインタラクションデザインの事例
1.忘却Webプロジェクト
2.認知アーキテクチャ・機械学習・マルチモーダル生体信号
3.モデルベースWeb広告システム:ユーザの現在のモデルと逆転モデル
3.1 システム
3.2 実験
3.3 データの分析結果
(1) 個別モダリティにより示される結果
(2) 複数モダリティによる広告提示アルゴリズムの分類
6節 人工知能を用いた子供の関心推定
1.AIで教室場面から何を読み取るか
2. 子どもの集団行動から個性を読み取る
2.1 関心推定の原理
2.2 子どもの観察と関心アノテーション
2.3 位置・向きからの関心推定
3.AIによる位置向きと視線の計測
4.センシングによる教室の可視化
7節 人工知能を用いた親和的情報空間の構築
1.親和的情報空間の実現例
1.1 知的自動ドア
1.2 適応型訪問者応接システム
2.親和的情報空間のシステム構成
2.1 状況変化認識エージェント
2.2 移動物体追跡エージェント
2.3 人物内部状態推定エージェント
8節 内視鏡外科手術動画の機械学習による手術手技・判断プロセスの可視化〜腹部骨盤外科手術の場合
1.内視鏡外科手術の道のり
2.AI×内視鏡外科手術
3.外科医の手術手技・判断プロセス
3.1 テクニカル・エラーとコグニティブ・エラー
3.2 術中判断プロセス
3.3 AIによる術中意思決定支援
4.内視鏡外科手術におけるコンピュータビジョンの適用
4.1 内視鏡外科手術×Image Classification
4.2 内視鏡外科手術×Object Detection
4.3 内視鏡外科手術×Semantic Segmentation
4.4 内視鏡外科手術×Instance Segmentation
5.機械学習×内視鏡手術動画データセット
6.アノテーションの標準化
7.倫理・法的問題
9節 機械学習による脳腫瘍手術手技支援・判断プロセスの可視化と細胞診診断支援技術〜脳外科手術と子宮頸がん細胞診
1.脳腫瘍摘出術における手術行程解析
1.1 脳腫瘍摘出術
1.1.1 脳腫瘍分類と腫瘍摘出術
1.1.2 脳腫瘍摘出率と術後5年生存率
1.2 SCOTと覚醒化脳腫瘍摘出術
1.3 脳腫瘍摘出手術行程同定手法
1.3.1 手術工程同定システム
1.3.2 手術工程の同定
1.3.3 手術工程同定手法
1.3.4 評価結果と提示法
2.顕微鏡画像への脳構造・推定脳機能位置重畳表示
2.1 背景
2.2 脳構造・脳機能位置の重畳表示
2.2.1 脳構造・脳機能位置の抽出,統合,重畳表示法の流れ
2.2.2 Pix2pixHDによる特徴量の抽出
2.3 脳構造・推定脳機能位置重畳表示
3.機械学習を用いた子宮頸がん細胞診診断支援
3.1 背景
3.2 細胞診
3.3 YOLOv4とResNeStを用いたスクリーニング
3.4 評価結果と今後の展開
|