Visual SLAM(VSLAM)の基礎理論と
AR Foundationを用いた実装演習
■ 「Windows PC と Android スマホ」、または 「MacBook と iPhone」、2つの組
み合わせに対応。 <Windows PC と iPhone の組み合わせ等は不可>
■ Androidは以下のリストに掲載されたARCore対応のデバイスを対象とします。
https://developers.google.com/ar/devices
C / C++ / Python等のプログラミング言語を習ったことがある方に向けてのセミナーです。
開発環境構築のためのダウンロードやインストールは、セミナー内で行うには時間がかかります
ので事前に準備していただくことになります。関係する資料は1週間前迄にお送りする予定です。
S230203NW
本セミナーは Zoom を使用いたします。
開催日時:2023年2月3日(金) 10:00-16:00 (9:55受付開始)
受 講 料:55,000円[税込] / 1名 ◆本セミナーには1口でのお申込みコースはございません◆
< 略 歴 >
2006年3月 慶應義塾大学 理工学部 情報工学科 卒業
2007年9月 慶應義塾大学大学院 開放環境科学専攻 修士課程 修了
2010年9月 慶應義塾大学大学院 開放環境科学専攻 博士課程 修了
2010年10月-2012年6月 フランス国立情報学自動制御研究所 博士研究員
2012年7月-2014年3月 株式会社 東芝 研究開発センター
2014年4月 九州大学 大学院システム情報科学研究院 助教
2018年4月 九州大学 附属図書館 准教授
2021年4月 現職
拡張現実感のためのコンピュータビジョン技術の研究に従事.2012年より3年間,拡張現実感に関する
国際会議International Symposium on Mixed and Augmented Reality(ISMAR)の論文選定委員を歴
任.2015年のISMAR及び2016年のVR学会で開催されたvisual SLAMの性能を競うトラッキングコンペ
ティションを運営.visual SLAMのオープンソースのライブラリであるATAM(Abecedary Tracking and
Mapping)を開発[1].拡張現実感に用いられる位置合わせ技術に関する本[2]や解説論文[3]を執筆.
[1] https://github.com/CVfAR/ATAM
[2] AR(拡張現実)技術の基礎・発展・実践 (設計技術シリーズ),科学情報出版(第一章担当)
[3] E.Marchand, H.Uchiyama and F. Spindler, “Pose Estimation for Augmented Reality:
A Hands-On Survey,” IEEE Transactions on Visualization and Computer Graphics,
vol.22, pp.2633-2651, 2016.
SLAMは,ドローン,ロボットや自動車の自動走行からスマートフォン向けAR/VRにいたるまで,多岐にわたるア
プリケーションの基盤技術です.特に,カメラを用いたものはvisualSLAM(VSLAM),さらに,IMUを併用したもの
はvisual-inertialSLAM(VIS)と呼ばれています.近年では,ARCoreやARKitに代表されるスマートフォン向けライブ
ラリも登場しており,簡単なプログラミングでVSLAMを試すことができます.
本セミナーは,VSLAMを手軽に試したい,VSLAMを用いたシステムのプロトタイプを簡単に作りたい,スマート
フォンのVSLAMに基づくARアプリケーションを作ってみたい方を対象に,VSLAMの座学と実装演習を行います.
初めに,座学としてVSLAMの基礎理論を解説します.VSLAMを理解する上で必要な画像処理技術とカメラ幾何を説
明し,VSLAMの処理の流れまでを総合的に紹介します.次に,スマートフォンを用いた実装演習を行います.Unity
とAR Foundationを利用し,VSLAMの性能を体験できるアプリケーションを開発します.AR Foundationは,ARKit
やARCore等のVSLAMライブラリのラッパーであり,スマートフォンのOSに依存しないコーディングが可能です.
今回,開発環境はWindowsPCとAndroid搭載のスマートフォン,またはMacBookとiPhone,の2つの組み合わせ
に対応します(WindowsPCとiPhoneの組み合わせでは開発ができません).なお、ケーブルは少し長めに1m程度
のものがお薦めです。
1. VSLAMの歴史
2. VSLAMに用いられる画像処理
2.1. 特徴点マッチング
2.2. 画像検索
3. VSLAMに用いられるカメラ幾何
3.1. 透視投影モデル
3.2. PnP問題
3.3. 三角測量
4. VSLAMの処理の流れ
4.1. Initialization
4.2. Localization
4.3. Mapping
4.4. Loop closure
4.5. Relocalization
5. AR Foundationを用いた実装演習
5.1. Unityの設定
5.2. Device Tracking
5.3. Plane Tracking
内山先生のセミナー
2月17日(金) 1日で分かる visual SLAM の基礎
2月24日(金) 自己位置推定・マッピングの最新技術動向 <カメラ,IMU,無線>