event

Machine Learning Casual Talks #7@メルカリを聞いてきました!

 

Machine Learning Casual Talks #7に参加してきました。

メルカリで機械学習の話を聞くのは2回目。

夜に六本木ヒルズに来ると東京タワーも素敵で、テンションあがります!

参加するメリット

  • 論文には出てこないような話が聞ける
  • 開発環境、組織体制、プロダクトへの組み込みなどあまりに表に出てこない話が聞ける

資料

他の資料はアップロードされ次第リンクを貼ります。

 

要約記事ではなく、「キャリア」「機械学習×IoT」「機械学習基盤」という3つでまとめました。

機械学習周りのキャリア戦略

ラベルを貼られると、給料が下がる

データサイエンティスト、機械学習エンジニアとラベルを自分や他人にラベルを貼りがち。

ラベルは、わかりやすくその人が何ものかを示してくれる。

「データサイエンティストだからデータ分析やって!」とか自ずと仕事の内容も決まる。

ただ、ラベリングされると賃金のレンジも自ずと決まってしまう!

「データサイエンティストの相場は、●●円ぐらいだな」と。

ラベルは自分の名前で貼る。

私自身もTwitterで機械学習エンジニアと名乗っているが、個人の名で食っていけるようになろうと思う。

よっぽど優秀でない限り、景気の変動を受ける

景気の波は、やはり大きい。

私が仕事をし始めた時期は、景気が良くなっている時だった。

そして、それは今も続いている。

現在も有効求人倍率は上がり続けているが、不景気はいつか起きる。

不景気に備えたキャリアプランの検討が必要。

クオンツという職業

クオンツとは、どうやら金融業界のデータサイエンティストらしい。

そして、給料はとてもよい。

金融業界は、エンジニアやデータサイエンティストに関わらず給与の相場が高いのが一般的。

ここから読み取れるのは、やはり売るものの単価が高く、なおかつ利益率が高い業界は給与は高い

金融商品は、一つ一つが高額で数千円のものもあるが、数千万円、数億円になるものもある。

原価もほぼ人件費になるから利益率もよいはず。

お金のあるところで仕事するのは生き抜くために必要な知識。

高給は麻薬

楽しい仕事=高給ではない。

自分が楽しめなければ、高給であっても断ち切る勇気は必要。

しかし、断ち切れない理由はたくさんあると思う。

今までみたい美味しいものたくさん食べられなくなるし、欲しいものも買えなくなる。キャリアは長い。

『つまらない仕事で高給を長く続ける』『自分が楽しめる仕事をやってかつ収入をあげていく』かを天秤にかけて選択する。

でも、結局高収入になるにはリスクをとるしかないから私は『自分が楽しめる仕事をやってかつ収入をあげていく』を選びたい。

機械学習をしているから稼げるわけではない

機械学習エンジニアが今、高収入なのは景気がよくて金払いがいい企業に勤めているから。

機械学習のアウトプットが受けているのも、今AIブームや機械学習ブームがあるから。

「大量のデータから分析したらこんなことがわかりました」「AIが動いてます」

ビジネスに直接インパクトをあげる施策としては、優先度は低い

ブームや流行りに流されないで本質を見極めるのが生き残る秘訣かもしれない。

機械学習×IoT

データデリバリーの難しさ

データデリバリーとは、IoTデバイスからデータを処理し、分析可能な状態にすること。

IoTカメラの環境のコントロールが難しい。

  • ネットワーク(回線が弱い)
  • デバイスの多様さ
  • 明度(映画館などの暗い場所)
  • 設置企業のシステム(電子決済システムへの干渉)
  • 設置企業の情報システム部

IoTの導入と運用は大変

IoTデバイスは作って納品して終わりではない。

設置して情報取得してからがスタート。

  • 故障(初期故障、摩耗交渉、偶発故障)
  • 設置後の環境の変化(七夕などの笹の葉)
  • 時間帯(逆光)
  • IoTデバイスを見える化して管理してくことが重要。

機械学習基盤構築

分析から素早くトレーニング、モデルデプロイのフローを回す

分析となるとjupyterを使うことが多い。

jupyterは便利だ。わかりやすいし、UIが優れているので分析結果を出力することが容易である。

分析ツールとしての有用である反面、サービスに組み込むのは抵抗がある

保守性も高くないし、処理を逐次実行していくため全体として完結しないソースコードになりやすい

 

jupyterhubで分析者の環境を統一し、GitHubでソースコードを管理。

papermillでjupyterをバッチ実行し、GCSに保存。

保存されたことを契機にAPIサーバにデプロイされる。

分析〜モデル構築すると、モデルのデプロイまで行われ、jupyterだけで完結される。

 

一人で機械学習基盤構築する

一人でやっているとなぁなぁになりがち。

どうしても負債が起きる。記録を頻繁に残す。

将来の自分や他のメンバーのためにドキュメント化していく。

まとめ

「キャリア」「IoT」「基盤構築」となかなか、密度の濃い時間でした。

これまでのキャリアを振り返り、現在の仕事に役立ち、IoTの未来にも思いをはせる。

第8回目があったら、是非足を運んでみることをお勧めします。

 

ABOUT ME
ロッピー
コンサルタントから2018年にエンジニアに転向。年収400万円のサラリーマンエンジニアから、半年で月収100万円を稼ぐエンジニアになった。 Python、Golangなど単価の高い言語を得意とする。