ディープラーニング 環境認識 セミナー
        
車載センシング技術の開発と ADAS、自動運転システムへの応用
“人工知能”の導入による生産性、効率性の向上、新製品開発への活用
 
<セミナー No.807427>

★自動運転・ロボットビジョン応用の現状とセンサ活用事例を探る!

ディープラーニングを中心とした

周辺環境認識技術の開発


■ 講師
1. 金沢大学 新学術創成研究機構 未来社会創造研究コア 自動運転ユニット 博士(情報科学) 米陀 佳祐 氏
2. 宇都宮大学大学院 工学研究科 機械知能工学専攻 准教授 博士(工学) 星野 智史 氏
3. (株)リコー 研究開発本部 リコーICT研究所 AI応用研究センター  シニアスペシャリスト 笠原 亮介 氏
4. (国研)産業技術総合研究所 人工知能研究センター 地理情報科学研究チーム 主任研究員 博士(情報学) 櫻田 健 氏
■ 開催要領
日 時

平成30年7月11日(水) 10:30〜17:00

会 場 [東京・五反田]技術情報協会 セミナールーム
聴講料 1名につき60,000円(消費税抜き・昼食・資料付き) 
〔1社2名以上同時申込の場合1名につき55,000円(税抜)〕
〔大学、公的機関、医療機関の方には割引制度があります。
詳しくは上部の「アカデミック価格」をご覧下さい〕
※定員になり次第、お申込みは締切となります。
■ プログラム

< 10:30〜12:10>

1.自動運転のためのDNNやAdaboostを活用した物体認識技術の開発

金沢大学 米陀 佳祐 氏

 


【講演ポイント】
世界中で研究開発が進められている自動運自動車に関して,その要素技術である周辺環境の認識技術について解説する。また、機械学習を用いた周辺物体の認識技術として、AdaboostやDeep Neural Network (DNN)による認識アルゴリズムの事例を紹介する。

1.自動運転の動向と要素技術
  1.1 自動運転の概要
  1.2 自動運転の要素技術とセンサ

2.Adaboostを活用した物体認識技術
  2.1 Adaboostの概要
  2.2 周辺認識活用例:信号機認識
  2.3 周辺認識活用例:LIDARを用いた物体種別識別

3.Deep Neural Network (DNN) を活用した物体認識技術
  3.1 DNNの概要
  3.2 周辺認識活用例:Semantic Segmentation
  3.3 周辺認識活用例:方向指示器の点滅認識

4.まとめ

【質疑応答・名刺交換】


<13:00〜14:00>

2.深層学習に基づいたロボットビジョン・自律制御システムの開発

宇都宮大学 星野 智史 氏

 

【講演ポイント】
本講演では、深層学習(ディープラーニング)の一つであるCNN(Convolutional Neural Netowrk:畳み込みニューラルネットワーク)によるロボットビジョンと、ディープニューラルネットワークを用いた移動ロボットの自律ナビゲーションに関する研究紹介を行う。

1.CNN(Convolutional Neural Netowrk)の概要

2.ロボットビジョンとしての一般物体認識と検出

3.オプティカルフローを特徴量とした人物検出と動作認識

4.移動ロボットの自律ナビゲーション

5.人の操作能力を深層学習

6.深層学習に基づいた2次元LIDARによる自律ナビゲーション

【質疑応答・名刺交換】


<14:10〜15:10>

3.偏光カメラとディープラーニングを用いた路面状態認識

(株)リコー 笠原 亮介 氏

 

【講演ポイント】
 近年、自動運転を始めとする多彩なアプリケーションに必要な技術として盛り上がっている画像認識技術の概要と、Deep Learningと偏光情報を用いた路面状態認識への応用に関して解説致します。
Deep Learningの画像アプリケーションへの応用と、偏光情報の認識処理への応用に興味がある方におすすめ致します。予備知識として画像データに対する知識があると理解が深まります。

1.画像認識技術の概要

2.画像の撮影

3.偏光カメラ
 3.1 偏光情報とは?
 3.2 偏光の特性

4.Deep Learningと半教師あり異常検知

5.凍結路面検出

6.路面状態判別

【質疑応答・名刺交換】


<15:20〜17:00>

4.自動運転のための3次元地図構築と更新技術―多視点幾何から深層学習まで―

(国研)産業技術総合研究所 櫻田 健 氏

 

【講演ポイント】
 近年、自動運転用地図の自動更新やインフラ点検、災害対応、農業の自動化などを目的に、空間モデリングの必要性が急速に高まっています。現在、自動運転用地図を構築するためには、高価な専用車両で日本全域を計測する必要があります。
 
しかし、地図を更新する度に専用車両で再計測するのは非常にコストが高く産業的ニーズとマッチしません。そのため、一般的な車両に搭載されるカメラやLiDARを用いて、低コストに空間モデルを更新する技術の開発が急務となっています。
 
これらのセンサーデータから空間情報を低コストかつ高頻度にアップデートするためには、異なる時刻やセンサーで得られた情報を統一的に扱う枠組みが必要となります。本講演では、画像を用いた3次元モデリングの基礎とライブラリーの使い方、異なる時刻や種類のデータの位置合わせ、変化検出、LiDARや温度カメラなど他のセンサとの融合、空間モデリングの発展的な内容について説明します。

1.空間モデリングの最新動向
 1.1 空間モデリングの現状
 1.2 空間モデルの更新技術(4Dモデリング)とは

2.カメラを用いた3次元モデリングの基礎
 2.1 Structure from Motion (SfM)
 2.2 Multi-view Stereo (MVS)
 2.3 ライブラリの使い方

3.空間モデルの更新技術(4Dモデリング)
 3.1 異なる時刻やセンサー間のデータの位置合わせ(LiDAR-カメラシステムのキャリブレーション,等)
 3.2 シーン変化の認識

【質疑応答・名刺交換】


 

  画像認識 自動運転 セミナー