IoT環境における画像処理・理解技術 ②」を開催しました(6月27-28日)

2020年 7 月 28日

現在、人工知能、機械学習、深層学習の分野は、新たな技術が次々と生まれる領域の一つであり、人々の日常に変化をもたらしています 。そして、画像処理技術は、産業分野や医療現場において、幅広く用いられています。本レポートでは、これらの技術を学ぶことができる「 IoT環境における画像処理・理解技術 2日目 」の講義内容を紹介します。講師は、1日目に引き続き、愛媛大学の木下先生、一色先生に担当していただきました。

【 はじめに 】

来は、「 Raspberry Pi 」や「 Jetson Nano 」を使って、Webカメラから画像を取得し、リアルタイムで文字候補領域を特定、識別結果を表示する演習を行いながら、「 画像処理+機械学習 」、「 深層学習 」を学ぶ予定でしたが、今回は、「 Google Colaboratory 」、さらに「 Virtual Box 」、「 Ubuntu 」、「 YOLO を使って、機械学習、深層学習、物体検出の基礎を学びました。

【 講義内容 】

---- 機械学習 ----

● 機械学習の基礎 ※教師あり学習、サポートベクターマシン(SVM)、混合行列、主成分分析、ハイパーパラメータ、クロスバリデーション など

特徴抽出と機械学習による手書き文字認識

演習①②アヤメ(iris)の品種データを使って、機械学習の流れ、主成分分析を体験

演習③「 digits 」を使用して、クロスバリデーションとグリッドサーチの練習

演習④手書き文字MNISTデータを使って特徴抽出を行い、SVMによる文字識別を体験

---- 深層学習 ----

畳み込みニューラルネットワーク

物体検出(YOLO)

演習⑤畳み込みニューラルネットワークを使って、手書き文字識別を体験

演習⑥ImageNetで事前学習したネットワークを使って、自然画像10種類を分類

演習⑦物体検出( 演習環境:Virtual Box、 Ubuntu、YOLO ) 

demoJetson NanoとWebカメラを使って画像認識の基礎を体験

【 まとめ 】

今回、名古屋大学のenPiT-Pro Embでは、はじめてオンラインによる演習形式の講義を開講しました。今まで「 Raspberry Pi 」や「 Jetson Nano 」を使って実施していた対面形式演習をオンライン化するにあたり、今回、講師の先生、受講者の皆様に大変ご協力いただきました。受講者の皆様には、受講者向けの演習環境構築マニュアル( 講師作成 )をもとに、事前に演習環境を構築していただきました。講義中は、講師の先生に、受講者に対し、こまめに問いかけをしていただき、受講者の質問や困っていることに答えていただきました。受講者からは、「 オンライン講義でしたが、逐次質問に答えていただいていたので安心して受講できました。」とのコメントがありました。講義終了後は、受講者の皆様に、本講義で身に付けた知識と技術を業務に活かしていただくために、講義動画の公開、質問掲示板でのディスカッションを行っています。( 下図参照 )

今後も、名古屋大学のenPiT-Pro Embでは演習形式のオンライン講義が開講されます。これからも受講者の皆様に学び続けていただくために、オンラインのメリットや様々な工夫を講義運営に取り入れながら、オンライン講義を実施させていただきます。

機械学習とは
【演習①】ペアプロットで4つの特徴量の組み合わせを確認
【演習④】訓練データの特徴抽出(疑似カラー表示)
一段目:左から0、1、2、3、4二段目:左から5、6、7、8、9
【演習⑦】物体検出
講義動画(受講者限定ページで公開)