ディープラーニングで「ながら運転」を検知する(その2)

前回に引き続き、ながら運転を検知するコードを書いていきたいと思います。

ディープラーニングで「ながら運転」を検知する(その1)

前回はダウンロードしたファイルの中身を確認してラベル画像枚数を確認しました。

この記事ではもう少しデータセットに関する情報を調べていきたいと思います。

スポンサーリンク

ディレクトリ内にあるファイル名を取得する(walk)

画像を読み込む必要があります。

画像を読み込むには画像の置かれているディレクトリ名+ファイル名を取得します。

ディレクトリ内のファイルを全て取得するには、walkを使うと便利です。

walkを使うと、ディレクトリ、サブディレクトリ、ファイル名を一括で取得する事ができます。

今回は、ファイル名だけでなくディレクトリ名も取得したいので、os.path.joinを使って、ファイル名とディレクトリ名を連結させています。

image_pathという名前のリストにファイル名を追加していきます。

これで2万枚のファイル名がリストで取得できました。

1種類ずつファイル名を取得する

全ての画像のファイル名が取得できましたが、全ての画像をjupyter上に表示するわけにはいきません。

枚数が多すぎますからね。

そこで各ラベルごとに1枚ずつ表示するようにします。

先ほどのリストの中身から、ラベル名を抜き出して、ラベル名とファイル名をセットで辞書に登録します。

ここで、辞書の機能であるsetdefaultを使うと、カテゴリごとに1枚ずつ取得できます。

sefdefaultは辞書のキー(今回はカテゴリ)が登録されていなかったら登録するものです。

10種類のカテゴリのファイル名が1枚ずつゲットできました。

画像を表示する

準備ができたので、jupyter上に画像を表示してみます。

10枚なので、plt.subplotで十分割、5行*2列になるように設定します。

plt.figureで設定する図のサイズは割と適当です。

figsize=(横サイズ、縦サイズ)で設定できますが、画像を表示してみて、見にくかったら大きくしたり小さくしたりを繰り返すと良いと思います。

plt.titleでラベル名を画像の上に表示するようにします。

c0が正常な運転で、それ以外は「ながら運転」です。

c6は右手で飲み物を飲みながら、c1は右手でスマホをいじりながら、c9はよそ見をしながら、c8は髪をいじりながら運転している画像です。

c7の片手運転やc5のナビを設定しながらの運転もありました。

すいません、タイトルにディープラーニングと書いていながらなかなかその内容には入っていけません。

次は、これらの画像からディープラーニングでカテゴリ分類できるかをやってみたいと思います。

ディープラーニングで「ながら運転」を検知する(その3)

おわり。

ABOUTこの記事をかいた人

のっくん

理系院卒で大企業の研究所に就職。 趣味はプログラミング、レアジョブ英会話、筋トレ、旅行。 Twitter:@yamagablog