ディープラーニングを活用した
AIの社会実装事業を展開する株式会社ABEJAの主催する
カンファレンスイベント
ABEJA SIX 2019
こいつに行ってきました。
場所は品川駅徒歩五分くらいのところにある
グランドプリンスホテル新高輪の国際館パミール
会場には12:40分くらいに着いたものの
かなりの人で受付もすっごい並ぶ
基調講演はサテライト会場だったのだが
これもほぼ満員
まず最初は
株式会社ABEJA 緒方 貴紀 氏
ABEJAのこれまでの振り返りと
今後のロードマップや展望について
2012年のディープラーニングの
ブレイクスルー以降
世界中でDL周りの研究開発が進み
今では主要な大会社では
ほぼほぼ実装が済んで
サービス展開されてる感があるが
様々な会社向けにAIの実装を手助けする
プラットフォームという印象のABEJA PLATFORM
を展開してますよ、ということだそうです。
近年のトピックの話
いくつかのワードが紹介された
イメージネットの分散学習による高速なモデルの生成
3億枚の画像と512個のGPUで作られた
敵対的生成ネットワークだとか
生成された画像を見ても
区別がつかないな
2018年10月11日にGoogleからArxiv公開された論文で
汎用言語表現モデルだそう。
最近はこういうトピックが
ありましたとのことでした。
ここら辺はgithub にコード類も公開されているらしいので
情報はすぐ手に入りそうですね。
ABEJA PLATFORMでは
1.データ取得
2.データ蓄積
3.データ確認
4.教師データ作成
5.モデル設計
6.学習
7.評価
8.デプロイ
9.推論
10.再学習
ここら辺をサポートするよう
システム化したんだそうです。
いろいろ機械学習をする上では
手間のかかるところ多いですね。
学習はあっちゅうまだけど
データの整備と前処理で
死ぬほど時間かかってますから
それが軽減されると仕事は捗るよねーー。
リリースから6年ほど経つみたいで
現在では
600アカウント
データレイク 10TB
データセット170万
トレーニング 1万ジョブ
モデル500モデル 2千万バージョン
4000を超えるエンドポイントが
存在しているのだとか
うーーん、かなりのボリュームです。
スポンサーに
AWS , GCP , NVIDIA
とあるのでここら辺のクラウドやGPUで
達成されているのでしょう。
気になったのは
アノテーションの部分
ABEJA PLATFORM ANNOTATION
恐らくAI開発にとっては
アルゴリズムは民主化され、誰でも
同じアルゴリズムで学習や推論が行えるようになっているため
AIの差別化がはかられる部分としては
学習データの質とボリュームの部分での競争になる。
ゴミデータが大量に有っても
結果ゴミだし
そうなると質の高い学習データを揃えるのには
それなりのコストがかかる。
それをサポートするツールということで
UIも素早くアノテーションでき使い勝手がすごく良さそう。
これはAI関連サービスの中でも
いい所を突いたサービスだと思われる。
これにより、人間の目で補正をすることで
より質の高いデータを素早く生成できると・・・
画像や動画だけでなく
テキストや単語、文章へも対応と
よく出来ています。
ABEJA インサイト for リテール
店舗内行動のダッシュボード化
行動の定量化とデータドリブンな経営の支援をするためのツール
日々10TBトラフィック解析
700店舗のインストール
2億人のビジターを計測ということで
すでに我々もトラッキングされているでしょう。
雑貨、アパレル、商業施設の導入が多い。
顔認証によるリピート推定と
TOFセンサーによる店舗トラッキングの様子が
なかなか印象的だった。
店舗内回遊はこんな風に捕らえられているのね。
今後のロードマップ
データサイエンティストの不足で
初期検証を行えないというニーズに対して
初期検証の支援を行うmlaas
というのを出す?そうです。
あとは
アベコインとかいうものを作って
会場を巡ったりするともらえたりするそう。
深センへのツアーでの
キャッシュレス社会の体験をヒントに
コインを作ったそうで
今後このコインでいろいろ実験するそうです。
ここまでが基調講演
次
株式会社ディー・エヌ・エー
AIシステム部 副部長
内田 祐介 氏
DeNAの事業や組織、AI関連の研究成果の話
DeNAではkaggler制度があり
kaggleの成績が社内にも反映されるそうで
高成績を残せると、労働時間を多くkaggleにさけるそうです。
kaggleのメリットとしては
1 問解くだけで
1案件回した時と同じくらいの学習体験と
様々なお題に対応するために多様な手法、アプロート方法を
学ぶことによるスキルアップの効果が大きいということでした。
まあ、懸賞金付きのやつとかは
リクルーティングにも使われているわけで
kaggleマスターを抱えるているという
ブランディング効果も見込んでいるのだとか。
これはkaggle大好きな皆さんは
DeNA行くしかないですね。
DeNA社内は
データサイエンティスト
MLエンジニア
インフラエンジニア
AIエンジニアがいて
それぞれ作業分担されている組織構造
AIの検証、プロト開発から実装まで
行える体制が整っているのは大分強いですね。
DeNAでは
様々な事業基盤があり
そのなかでもAI開発が進んでいるのが
オートモーティブ事業
交通事故低減に向けた
AI技術活用の取り組みをしているだと。
レーン検出と危険運転察知アルゴリズムの開発
物体検出や消失点の計算
3D地図を用いたパスプランニング
自動運転系の技術は結構奥深いですよね。
次にゲーム事業
「逆転オセロニア」
におけるユーザーの離脱防止策についてのお話
ゲーム初期に離脱してしまう原因として
ゲームのデッキの組み方が分からないとかが有り、
おすすめデッキを導入したら比較的離脱が防げたと。
こういった序盤のサポート機能を追加する部分で
いろいろデータ分析と検証を進めているそうです。
最後が
アニメの生成技術への取り組み
GANを用いて
アニメのコマとコマの間を生成し
ぬるぬる動くように
中間コマを作ったのだとか。
従来のGANでは全身を作るのが難しかったが
パーツごとに少しづつ作ってゆく手法を取り
徐々に小さな画像からつなげるようなアプローチで
画像生成しているそうです。
確かにヌルヌル動きますね。
次の講演は
株式会社サイバーエージェント
AI Lab Research Scientist
山口 光太 氏
機械学習による広告クリエイティブの制作支援と生成
まあ同業者なので
同じようなことやってます。
デジタル広告は
マス広告と違って、同じ素材、同じ図柄ではなく
一人一人にカスタマイズした広告であることが求められる。
広告バナーそのものを
どれだけクリックされるのかを
事前予測して作ることができるとか。
手法としては
広告の画像そのものと
広告の配信条件を学習データとして
クリック率を出す単純な回帰のモデルを組む
これにより配信前に
ある程度の品質保証ができ
適切な入稿対象の選択と結果予測が可能になると・・・
まあ
みな考えることは一緒ですね。
面白かったのは配信メディアで
クリックに効く要素が違うということ
FBは画像やテキストの品質
TwitterとLINEは広告の配信設定だったと。
あとは機械学習のモデルも
画像とかを使わないのであればDLを用いずに
デシジョンツリーなどの方が結果が良いとか
逆にDLが効果を発揮するのは
高次元のデータを取り扱う際だとか。
ここら辺も広告業界では
共通認識ですね。
こういう予測を元に
クリエイティブ制作の支援として
ストック素材の画風変換
バナー人物の自動差し替え
レイヤーの配置予測や
キーワードの生成
などを行っているそうで
クリエーターの作業軽減につながっているそうです。
やはり、同じ業界だと
同じデータで同じ手法に収束するのだなーと
改めて感じた1日でした。
明日も開催されますが
行けないかなーー・・
松尾豊先生の講演は聞きたい。
AIの社会実装事業を展開する株式会社ABEJAの主催する
カンファレンスイベント
ABEJA SIX 2019
こいつに行ってきました。
場所は品川駅徒歩五分くらいのところにある
グランドプリンスホテル新高輪の国際館パミール
会場には12:40分くらいに着いたものの
かなりの人で受付もすっごい並ぶ
基調講演はサテライト会場だったのだが
これもほぼ満員
まず最初は
株式会社ABEJA 緒方 貴紀 氏
ABEJAのこれまでの振り返りと
今後のロードマップや展望について
2012年のディープラーニングの
ブレイクスルー以降
世界中でDL周りの研究開発が進み
今では主要な大会社では
ほぼほぼ実装が済んで
サービス展開されてる感があるが
様々な会社向けにAIの実装を手助けする
プラットフォームという印象のABEJA PLATFORM
を展開してますよ、ということだそうです。
近年のトピックの話
いくつかのワードが紹介された
イメージネットの分散学習による高速なモデルの生成
分散学習の民主化がなされたとのこと
3億枚の画像と512個のGPUで作られた
敵対的生成ネットワークだとか
生成された画像を見ても
区別がつかないな
2018年10月11日にGoogleからArxiv公開された論文で
汎用言語表現モデルだそう。
文中の単語の穴埋め問題などが解けるとか
自然言語処理のデファクトスタンダードになるそう。
最近はこういうトピックが
ありましたとのことでした。
ここら辺はgithub にコード類も公開されているらしいので
情報はすぐ手に入りそうですね。
ABEJA PLATFORMでは
1.データ取得
2.データ蓄積
3.データ確認
4.教師データ作成
5.モデル設計
6.学習
7.評価
8.デプロイ
9.推論
10.再学習
ここら辺をサポートするよう
システム化したんだそうです。
いろいろ機械学習をする上では
手間のかかるところ多いですね。
学習はあっちゅうまだけど
データの整備と前処理で
死ぬほど時間かかってますから
それが軽減されると仕事は捗るよねーー。
リリースから6年ほど経つみたいで
現在では
600アカウント
データレイク 10TB
データセット170万
トレーニング 1万ジョブ
モデル500モデル 2千万バージョン
4000を超えるエンドポイントが
存在しているのだとか
うーーん、かなりのボリュームです。
スポンサーに
AWS , GCP , NVIDIA
とあるのでここら辺のクラウドやGPUで
達成されているのでしょう。
気になったのは
アノテーションの部分
ABEJA PLATFORM ANNOTATION
恐らくAI開発にとっては
アルゴリズムは民主化され、誰でも
同じアルゴリズムで学習や推論が行えるようになっているため
AIの差別化がはかられる部分としては
学習データの質とボリュームの部分での競争になる。
ゴミデータが大量に有っても
結果ゴミだし
そうなると質の高い学習データを揃えるのには
それなりのコストがかかる。
それをサポートするツールということで
UIも素早くアノテーションでき使い勝手がすごく良さそう。
これはAI関連サービスの中でも
いい所を突いたサービスだと思われる。
これにより、人間の目で補正をすることで
より質の高いデータを素早く生成できると・・・
画像や動画だけでなく
テキストや単語、文章へも対応と
よく出来ています。
ABEJA インサイト for リテール
店舗内行動のダッシュボード化
行動の定量化とデータドリブンな経営の支援をするためのツール
日々10TBトラフィック解析
700店舗のインストール
2億人のビジターを計測ということで
すでに我々もトラッキングされているでしょう。
雑貨、アパレル、商業施設の導入が多い。
顔認証によるリピート推定と
TOFセンサーによる店舗トラッキングの様子が
なかなか印象的だった。
店舗内回遊はこんな風に捕らえられているのね。
今後のロードマップ
データサイエンティストの不足で
初期検証を行えないというニーズに対して
初期検証の支援を行うmlaas
というのを出す?そうです。
あとは
アベコインとかいうものを作って
会場を巡ったりするともらえたりするそう。
深センへのツアーでの
キャッシュレス社会の体験をヒントに
コインを作ったそうで
今後このコインでいろいろ実験するそうです。
ここまでが基調講演
次
株式会社ディー・エヌ・エー
AIシステム部 副部長
内田 祐介 氏
DeNAの事業や組織、AI関連の研究成果の話
DeNAではkaggler制度があり
kaggleの成績が社内にも反映されるそうで
高成績を残せると、労働時間を多くkaggleにさけるそうです。
kaggleのメリットとしては
1 問解くだけで
1案件回した時と同じくらいの学習体験と
様々なお題に対応するために多様な手法、アプロート方法を
学ぶことによるスキルアップの効果が大きいということでした。
まあ、懸賞金付きのやつとかは
リクルーティングにも使われているわけで
kaggleマスターを抱えるているという
ブランディング効果も見込んでいるのだとか。
これはkaggle大好きな皆さんは
DeNA行くしかないですね。
DeNA社内は
データサイエンティスト
MLエンジニア
インフラエンジニア
AIエンジニアがいて
それぞれ作業分担されている組織構造
AIの検証、プロト開発から実装まで
行える体制が整っているのは大分強いですね。
DeNAでは
様々な事業基盤があり
そのなかでもAI開発が進んでいるのが
オートモーティブ事業
交通事故低減に向けた
AI技術活用の取り組みをしているだと。
レーン検出と危険運転察知アルゴリズムの開発
物体検出や消失点の計算
3D地図を用いたパスプランニング
自動運転系の技術は結構奥深いですよね。
次にゲーム事業
「逆転オセロニア」
におけるユーザーの離脱防止策についてのお話
ゲーム初期に離脱してしまう原因として
ゲームのデッキの組み方が分からないとかが有り、
おすすめデッキを導入したら比較的離脱が防げたと。
こういった序盤のサポート機能を追加する部分で
いろいろデータ分析と検証を進めているそうです。
最後が
アニメの生成技術への取り組み
GANを用いて
アニメのコマとコマの間を生成し
ぬるぬる動くように
中間コマを作ったのだとか。
従来のGANでは全身を作るのが難しかったが
パーツごとに少しづつ作ってゆく手法を取り
徐々に小さな画像からつなげるようなアプローチで
画像生成しているそうです。
確かにヌルヌル動きますね。
次の講演は
株式会社サイバーエージェント
AI Lab Research Scientist
山口 光太 氏
機械学習による広告クリエイティブの制作支援と生成
まあ同業者なので
同じようなことやってます。
デジタル広告は
マス広告と違って、同じ素材、同じ図柄ではなく
一人一人にカスタマイズした広告であることが求められる。
広告バナーそのものを
どれだけクリックされるのかを
事前予測して作ることができるとか。
手法としては
広告の画像そのものと
広告の配信条件を学習データとして
クリック率を出す単純な回帰のモデルを組む
これにより配信前に
ある程度の品質保証ができ
適切な入稿対象の選択と結果予測が可能になると・・・
まあ
みな考えることは一緒ですね。
面白かったのは配信メディアで
クリックに効く要素が違うということ
FBは画像やテキストの品質
TwitterとLINEは広告の配信設定だったと。
あとは機械学習のモデルも
画像とかを使わないのであればDLを用いずに
デシジョンツリーなどの方が結果が良いとか
逆にDLが効果を発揮するのは
高次元のデータを取り扱う際だとか。
ここら辺も広告業界では
共通認識ですね。
こういう予測を元に
クリエイティブ制作の支援として
ストック素材の画風変換
バナー人物の自動差し替え
レイヤーの配置予測や
キーワードの生成
などを行っているそうで
クリエーターの作業軽減につながっているそうです。
やはり、同じ業界だと
同じデータで同じ手法に収束するのだなーと
改めて感じた1日でした。
明日も開催されますが
行けないかなーー・・
松尾豊先生の講演は聞きたい。