Visual SLAM(VSLAM)の基礎理論と
 AR Foundationを用いた実装演習



    
■ 「Windows PC と Android スマホ」、または 「MacBook と iPhone」、2つの組
      み合わせに対応。
  <Windows PC と iPhone の組み合わせ等は不可>

    ■ Androidは以下のリストに掲載されたARCore対応のデバイスを対象とします。
     
   https://developers.google.com/ar/devices

     C / C++ / Python等のプログラミング言語を習ったことがある方に向けてのセミナーです。

     開発環境構築のためのダウンロードやインストールは、セミナー内で行うには時間がかかります
     ので事前に準備していただくことになります。関係する資料は1週間前迄にお送りする予定です。



 S230203NW

----------------------------------


本セミナーは Zoom を使用いたします。

開催日時:2023年2月3日(金) 10:00-16:00 (9:55受付開始)

受 講 料:55,000円[税込] / 1名  ◆本セミナーには1口でのお申込みコースはございません◆


 講 師


 内山 英昭 氏    奈良先端科学技術大学院大学 先端科学技術研究科 情報科学領域
                   サイバネティクス・リアリティ工学研究室(CAREラボ) 准教授

            < 略 歴 >
               2006年3月 慶應義塾大学 理工学部 情報工学科 卒業
               2007年9月 慶應義塾大学大学院 開放環境科学専攻 修士課程 修了
               2010年9月 慶應義塾大学大学院 開放環境科学専攻 博士課程 修了
               2010年10月-2012年6月 フランス国立情報学自動制御研究所 博士研究員
               2012年7月-2014年3月 株式会社 東芝 研究開発センター
               2014年4月 九州大学 大学院システム情報科学研究院 助教
               2018年4月 九州大学 附属図書館 准教授
               2021年4月 現職

               拡張現実感のためのコンピュータビジョン技術の研究に従事.2012年より3年間,拡張現実感に関する
               国際会議International Symposium on Mixed and Augmented Reality(ISMAR)の論文選定委員を歴
               任.2015年のISMAR及び2016年のVR学会で開催されたvisual SLAMの性能を競うトラッキングコンペ
               ティションを運営.visual SLAMのオープンソースのライブラリであるATAM(Abecedary Tracking and
               Mapping)を開発[1].拡張現実感に用いられる位置合わせ技術に関する本[2]や解説論文[3]を執筆.

                  [1] https://github.com/CVfAR/ATAM
                  [2] AR(拡張現実)技術の基礎・発展・実践 (設計技術シリーズ),科学情報出版(第一章担当)
                  [3] E.Marchand, H.Uchiyama and F. Spindler, “Pose Estimation for Augmented Reality:
                    A Hands-On Survey,” IEEE Transactions on Visualization and Computer Graphics,
                    vol.22, pp.2633-2651, 2016.

  

講義項目


      SLAMは,ドローン,ロボットや自動車の自動走行からスマートフォン向けAR/VRにいたるまで,多岐にわたるア
     プリケーションの基盤技術です.特に,カメラを用いたものはvisualSLAM(VSLAM),さらに,IMUを併用したもの
     はvisual-inertialSLAM(VIS)と呼ばれています.近年では,ARCoreやARKitに代表されるスマートフォン向けライブ
     ラリも登場しており,簡単なプログラミングでVSLAMを試すことができます.

      本セミナーは,VSLAMを手軽に試したい,VSLAMを用いたシステムのプロトタイプを簡単に作りたい,スマート
     フォンのVSLAMに基づくARアプリケーションを作ってみたい方を対象に,VSLAMの座学と実装演習を行います.
     初めに,座学としてVSLAMの基礎理論を解説します.VSLAMを理解する上で必要な画像処理技術とカメラ幾何を説
     明し,VSLAMの処理の流れまでを総合的に紹介します.次に,スマートフォンを用いた実装演習を行います.Unity
     とAR Foundationを利用し,VSLAMの性能を体験できるアプリケーションを開発します.AR Foundationは,ARKit
     やARCore等のVSLAMライブラリのラッパーであり,スマートフォンのOSに依存しないコーディングが可能です.

      今回,開発環境はWindowsPCとAndroid搭載のスマートフォン,またはMacBookとiPhone,の2つの組み合わせ
     に対応します(WindowsPCとiPhoneの組み合わせでは開発ができません).なお、ケーブルは少し長めに1m程度

      のものがお薦めです。




  1. VSLAMの歴史   
  
  2. VSLAMに用いられる画像処理
    2.1. 特徴点マッチング
    2.2. 画像検索


  3. VSLAMに用いられるカメラ幾何
    3.1. 透視投影モデル
    3.2. PnP問題
    3.3. 三角測量


  4. VSLAMの処理の流れ
    4.1. Initialization
    4.2. Localization
    4.3. Mapping
    4.4. Loop closure
    4.5. Relocalization


  5. AR Foundationを用いた実装演習
    5.1. Unityの設定
    5.2. Device Tracking
    5.3. Plane Tracking




内山先生のセミナー

 2月17日(金) 1日で分かる visual SLAM の基礎
 2月24日(金) 自己位置推定・マッピングの最新技術動向 <カメラ,IMU,無線>



 お1人様      受講申込要領 セミナー 総合日程 画像認識 セミナー日程 新宣伝 セミナー日程