IoT環境における画像処理・理解技術 ②」を開催しました(6月27-28日)

2020年 7 月 28日

現在、人工知能、機械学習、深層学習の分野は、新たな技術が次々と生まれる領域の一つであり、人々の日常に変化をもたらしています 。そして、画像処理技術は、産業分野や医療現場において、幅広く用いられています。本レポートでは、これらの技術を学ぶことができる「 IoT環境における画像処理・理解技術 2日目 」の講義内容を紹介します。講師は、1日目に引き続き、愛媛大学の木下先生、一色先生に担当していただきました。

【 はじめに 】

 本来は、「 Raspberry Pi 」や「 Jetson Nano 」を使って、Webカメラから画像を取得し、リアルタイムで文字候補領域を特定、識別結果を表示する演習を行いながら、「 画像処理+機械学習 」、「 深層学習 」を学ぶ予定でしたが、今回は、「 Google Colaboratory 」、さらに「 Virtual Box 」、「 Ubuntu 」、「 YOLO を使って、機械学習、深層学習、物体検出の基礎を学びました。

【 講義内容 】

---- 機械学習 ----

・機械学習の基礎 

※教師あり学習、サポートベクターマシン(SVM)、混合行列、主成分分析、ハイパーパラメータ、クロスバリデーション など

・特徴抽出と機械学習による手書き文字認識

【演習①②】 アヤメ(iris)の品種データを使って、機械学習の流れ、主成分分析を体験

【演習③】 「 digits 」を使用して、クロスバリデーションとグリッドサーチの練習

【演習④】 手書き文字MNISTデータを使って特徴抽出を行い、SVMによる文字識別を体験

---- 深層学習 ----

・畳み込みニューラルネットワーク

・物体検出(YOLO)

【演習⑤】 畳み込みニューラルネットワークを使って、手書き文字識別を体験

【演習⑥】 ImageNetで事前学習したネットワークを使って、自然画像10種類を分類

【演習⑦】 物体検出( 演習環境:Virtual Box、 Ubuntu、YOLO ) 

【demo】 Jetson NanoとWebカメラを使って画像認識の基礎を体験

【 まとめ 】

 今回、名古屋大学のenPiT-Proでは、はじめてオンラインによる演習形式の講義を開講しました。今まで「 Raspberry Pi 」や「 Jetson Nano 」を使って実施していた対面形式演習をオンライン化するにあたり、今回、講師の先生、受講者の皆様に大変ご協力いただきました。受講者の皆様には、受講者向けの演習環境構築マニュアル( 講師作成 )をもとに、事前に演習環境を構築していただきました。講義中は、講師の先生に、受講者に対し、こまめに問いかけをしていただき、受講者の質問や困っていることに答えていただきました。受講者からは、「 オンライン講義でしたが、逐次質問に答えていただいていたので安心して受講できました。」とのコメントがありました。講義終了後は、受講者の皆様に、本講義で身に付けた知識と技術を業務に活かしていただくために、講義動画の公開、質問掲示板でのディスカッションを行っています。( 右下図参照 )

今後も、名古屋大学のenPiT-Proでは演習形式のオンライン講義が開講されます。これからも受講者の皆様に学び続けていただくために、オンラインのメリットや様々な工夫を講義運営に取り入れながら、オンライン講義を実施させていただきます。今後の開講スケジュールはこちらです。

機械学習とは
【演習①】ペアプロットで4つの特徴量の組み合わせを確認
【演習④】訓練データの特徴抽出(疑似カラー表示)
一段目:左から0、1、2、3、4、二段目:左から5、6、7、8、9
【演習⑦】物体検出
講義動画(受講者限定ページで公開)