(Go: >> BACK << -|- >> HOME <<)

SlideShare a Scribd company logo
DL Hacks輪読
2016/11/25
黒滝 紘生
趣旨
- ネットワークの構造を、ある程度自動で決められないか
- ICLR2017の4つの論文などを紹介する
- カテゴリ
- ハイパーパラメータ推定 ("HyperBand", "Neural Architecture Search with RL")
- メタネットワークで生成 ("HyperNetworks")
- レイヤーのスキップ≒ ResNet系 ("DCNN Design Pattern")
- その他 (刈り込み/追加など)
2
目次
- ハイパーパラメータ推定 ("HyperBand", "Neural Architecture Search with RL")
- メタネットワークで生成 ("HyperNetworks")
- レイヤーのスキップ≒ ResNet系 ("DCNN Design Pattern")
- その他 (刈り込みなど)
3
Hyperband: A Novel Bandit-Based Approach to Hyperparameter Optimization
- https://arxiv.org/abs/1603.06560 , https://openreview.net/forum?id=ry18Ww5ee ICLR2017 UR
(Openreviewのショートバージョンの方が読みやすい )
- SVHNやCIFAR-10用ネットワークのハイパーパラメータ調整タスク
- 「ハイパーパラメータの組み合わせに対して、限られたデータ資源 (データ数、バッチ数など )を割り当てる
bandit問題」として定式化する。
- 先行研究の"Successive Halving"では、「広く浅く割り当てる vs狭く深く割り当てる」の調整ができなかった。
- Successive Halvingの、ハイパーハイパーパラメータを、更にグリッドサーチすることで、
最新手法(SMAC_early)と同等or上回る結果を得た。
4
Speeding up automatic hyperparameter optimization of deep neural networks by extrapolation of learning
curves
- IJCAI 2015
- https://pdfs.semanticscholar.org/044f/0b1d5d0b421abbc7569ba4cc4bf859fd9801.pdf
- 前ページのHyperbandのベースライン(SMAC_early)の提案論文
- ハイパーパラメータサーチには、 (この論文の時点で)3つの方法があった
- Baysian OptimizationによるSpearmint
- Random forestによるSMAC
- 密度推定によるTree Parzen Estimator(TPE)
- この論文では、SMACとTPEに対し、人間のエキスパートを真似た early stoppingを入れて、
良い性能を出した
5
Neural Network Architecture Optimization through Submodularity and Supermodularity
- http://arxiv.org/abs/1609.00074 Sep 2016
- Baysian Optimizationによる最適化のState of the art
6
Neural Architecture Search with Reinforcement Learning
- Google Brain, ICLR2017 under review
- https://arxiv.org/abs/1611.01578
- 強化学習とRNNで、1項目ごとに決めていく (下図)
- CIFAR10とPenn Treebank用のネットワークを生成した
7
Online Adaptation of Deep Architectures with Reinforcement Learning
- ECAI 2016
- https://arxiv.org/abs/1608.02292
- 強化学習で、Denoising Autoencoderの構造を学習する
- (画像は、ベースラインの論文のもの。この mergeやincrementを、動作と捉えてRLする。)
8
目次
- ハイパーパラメータ推定 ("HyperBand", "Neural Architecture Search with RL")
- メタネットワークで生成 ("HyperNetworks")
- レイヤーのスキップ≒ ResNet系 ("DCNN Design Pattern")
- その他 (刈り込み/追加など)
9
HyperNetworks
- https://arxiv.org/abs/1609.09106, Sep 2016, ICLR2017 under review
- http://blog.otoro.net/2016/09/28/hyper-networks/
- RNNには、毎時間の重みが変化しない制約があった。
- 小さなLSTMから、毎時間メインの LSTMの重みを出力することで、解決した。
10
HyperNetworks
- テキスト生成
- 大きなResNetの重み生成
- 手書き文字生成(2D混合ガウス分布を、 HyperNetworkで生成していく)
- Tensorflowの通常のRNNCellとして使える。
- ネットワークからネットワーク重みを生成するアイデアは、 HyperNEAT(後述)から来ている。
- Character-Level Penn Treebank と Hutter Prize Wikipedia でstate of the art
11
Evolving Neural Networks through Augmenting Topologies
- Evolutionary Computation 2002 Vol.10-2
- http://dx.doi.org/10.1162/106365602320169811
- 遺伝的アルゴリズム +αで、入力ノードと出力ノードの間の分岐を変化させる。
12
A Hypercube-based Encoding for Evolving Large-scale Neural Networks
- Artificial Life 2009 Vol.15-2
- http://www.mitpressjournals.org/doi/abs/10.1162/artl.2009.15.2.15202#.WDd3JKJ95TY
- メタネットワークに、 (エッジの始点, 終点)を入力すると、(そのエッジのウェイト )が出力される。
- 小さいネットワーク(CPNN)で、様々なメインネットワーク構造を表せる
13
Convolution by Evolution
- http://mlanctot.info/files/papers/gecco16-dppn.pdf
- Google DeepMind
- CPNNを微分で学習可能にした "DPNN"を提案
- 構造は変化するが、重みの値は BPで学習する
14
他のNEAT
- 画素の密集地に多くのネットワーク分岐を割り当てる
- CNNの前処理に使う
- ATARIのタスクに使う
- 制御タスクに使う
- しかし、GAの重さがネックとなっていた
- HyperNetworkは、全体をBPにして、応用先を変えることで解決した
15
目次
- ハイパーパラメータ推定 ("HyperBand", "Neural Architecture Search with RL")
- メタネットワークで生成 ("HyperNetworks")
- レイヤーのスキップ≒ ResNet系 ("DCNN Design Pattern")
- その他 (刈り込み/追加など)
16
Deep Convolutional Neural Network Design Patterns
- https://arxiv.org/abs/1611.00847 , ICLR2017 under review
- ここ数年の、CNN構造いじる系論文のサーベイ
- さらに、構造いじりのアイデアのデザインパターンを提唱している。
- デザインパターン: 頻出テクニックに、名前をつけて、会話しやすくしたもの。
- デザインパターンを元に、いくつかの新しいネットワークを提案している。
17
Training Very Deep Networks
- https://arxiv.org/abs/1507.06228 , ICML 2015 DL Workshop -> NIPS 2015 Highlighted Paper
- Highway Networksの論文
- Resnetの恒等写像がゲートになっている
18
Deep Networks with Stochastic Depth
- https://arxiv.org/abs/1603.09382
- ResNetのブロックを、訓練時のみ、ランダムに消した。テスト時は全使用
- 深さ方向のDropout。
19
Densely Connected Convolutional Networks
- https://arxiv.org/abs/1608.06993
- Resnet with Stochastic Depthと同じ著者
- 前のConv Layerの出力を、1つ上のLayerだけでなく、
その先のLayerにも入力する(いわゆるconcat layer)。
- 先のレイヤーほど太っていくが、
- 1. 4レイヤーずつでリセットする。 (Dense Block)
- 2. レイヤーの増加幅(Growth Rate)を、小さくする。
- この2つによって、パラメータを増やしすぎずに済む。
下のレイヤーの情報を再利用できるためと考えられている。
- SVHN、CIFAR-{10,100}でstate of the art
20
Resnet in Resnet: Generalizing Resnet Architectures
- ICLR 2016 Workshop
- http://arxiv.org/abs/1603.08029
21
Residual Networks are Exponential Ensembles of Relatively Shallow Networks
- NIPS 2016
- https://arxiv.org/abs/1605.06431
- 左のResNetが、実は右のように展開したものと等価なことを示した。
22
FractalNet: Ultra-Deep Neural Networks without Residuals
- http://arxiv.org/abs/1605.07648
- 恒等写像でバイパスする ResNetと違い、同じ関数(レイヤー)を2回合成したパスとの concatでバイパスする。
よって、少ないレイヤーからスタートして、倍々に深さが増える
- さらに、ResNet w/ stochastic depth同様に、各レイヤーを確率的に落として FFルートを作る、"Drop-path"と
いう手法を提案している
- だいたいVGG-16やResNetと同じ精度が出る
23
Xception: Deep Learning with Depthwise Separable Convolutions
- https://arxiv.org/abs/1610.02357
- Inceptionを一般化、発展させた
24
目次
- ハイパーパラメータ推定 ("HyperBand", "Neural Architecture Search with RL")
- メタネットワークで生成 ("HyperNetworks")
- レイヤーのスキップ≒ ResNet系 ("DCNN Design Pattern")
- その他 (刈り込み/追加など)
25
Deep Compression: Compressing Deep Neural Networks with Pruning, Trained
Quantization and Huffman Coding
- ICLR 2016 Best Paper Award
- https://arxiv.org/abs/1510.00149 , https://github.com/songhan/Deep-Compression-AlexNet
- 刈り込み、量子化、ハフマン符号化を組み合わせて、ネットワークを圧縮する
26
Blockout: Dynamic Model Selection for Hierarchical Deep Networks
- https://arxiv.org/abs/1512.05246
- DropoutやDropconnectを一般化したもの。
- これらを「確率的なノードグループへの接続割り当て」と解釈した
(Dropoutがグループ1個、connectがN個)。
- 決められたグループ数について、「 i番目のグループへの接続率」を BPで学習させた。
- CIFARで良い性能を出した
27
Deconstructing the Ladder Network Architecture
- https://arxiv.org/abs/1511.06430 ,
ICML2016 ラストがY.Bengio
- Ladderの元論文
"Semi-Supervised Learning with
Ladder Networks (Rasmus, 2015)"
の疑問点をいろいろ検証したり、
構造を改善した
- Autoencoderに似てる
28
Using Fast Weights to Attend to the Recent Past
- https://arxiv.org/abs/1610.06258 , 2ndがG.Hinton
- activationとweightの中間のスピードで更新される "Fast weight"を導入することで、性能が上がった。
- Fast weightは隠れ状態h(t)から計算され、一種の attentionと見なせる。また生物学的にも根拠がある。
- 具体的には、RNNのh(t)とh(t+1)の間に、S回のh_s(t) (s=0..S)の隠れ状態の移り変わりを考える
(Eq.2, Figure 1)。
- この移り変わりでは、 h(t){h(t)^T}に基づく接続A (Fast weight)と、普通の接続W (Slow weight)を混ぜ
合わせている(Eq.1)。
29
[Dl輪読会]dl hacks輪読

More Related Content

What's hot

動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
cvpaper. challenge
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII
 
Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩
Hiroto Honda
 
Sift特徴量について
Sift特徴量についてSift特徴量について
Sift特徴量について
la_flance
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
Yusuke Uchida
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
cvpaper. challenge
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
Yusuke Uchida
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
Deep Learning JP
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
 
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
cvpaper. challenge
 
動画認識における代表的なモデル・データセット(メタサーベイ)
動画認識における代表的なモデル・データセット(メタサーベイ)動画認識における代表的なモデル・データセット(メタサーベイ)
動画認識における代表的なモデル・データセット(メタサーベイ)
cvpaper. challenge
 
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
Deep Learning JP
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
 
深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎
Takumi Ohkuma
 
ResNetの仕組み
ResNetの仕組みResNetの仕組み
ResNetの仕組み
Kota Nagasato
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
Deep Learning JP
 

What's hot (20)

動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩
 
Sift特徴量について
Sift特徴量についてSift特徴量について
Sift特徴量について
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
 
動画認識における代表的なモデル・データセット(メタサーベイ)
動画認識における代表的なモデル・データセット(メタサーベイ)動画認識における代表的なモデル・データセット(メタサーベイ)
動画認識における代表的なモデル・データセット(メタサーベイ)
 
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video  Processing (NeRF...
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎
 
ResNetの仕組み
ResNetの仕組みResNetの仕組み
ResNetの仕組み
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
 

Similar to [Dl輪読会]dl hacks輪読

[論文紹介] 粗粒度スパースNNアクセラレータ Cambricon-S
[論文紹介] 粗粒度スパースNNアクセラレータ Cambricon-S[論文紹介] 粗粒度スパースNNアクセラレータ Cambricon-S
[論文紹介] 粗粒度スパースNNアクセラレータ Cambricon-S
Seidai Takeda
 
データベース屋がHyperledger Fabricを検証してみた
データベース屋がHyperledger Fabricを検証してみたデータベース屋がHyperledger Fabricを検証してみた
データベース屋がHyperledger Fabricを検証してみた
Hyperleger Tokyo Meetup
 
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...
Deep Learning JP
 
RHEL7/CentOS7 NetworkManager徹底入門
RHEL7/CentOS7 NetworkManager徹底入門RHEL7/CentOS7 NetworkManager徹底入門
RHEL7/CentOS7 NetworkManager徹底入門
Etsuji Nakai
 
NSDI17-reading-kaneko
NSDI17-reading-kanekoNSDI17-reading-kaneko
NSDI17-reading-kaneko
紘也 金子
 
ScyllaDBユーザー勉強会 #1
ScyllaDBユーザー勉強会 #1ScyllaDBユーザー勉強会 #1
ScyllaDBユーザー勉強会 #1
Changhwan Lee
 
スケールアップファーストのNoSQL、ScyllaDB(スキュラDB)
スケールアップファーストのNoSQL、ScyllaDB(スキュラDB)スケールアップファーストのNoSQL、ScyllaDB(スキュラDB)
スケールアップファーストのNoSQL、ScyllaDB(スキュラDB)
昌桓 李
 
RとSQLiteで気軽にデータベース作成
RとSQLiteで気軽にデータベース作成RとSQLiteで気軽にデータベース作成
RとSQLiteで気軽にデータベース作成
弘毅 露崎
 
経済学のための実践的データ分析 4.SQL ことはじめ
経済学のための実践的データ分析 4.SQL ことはじめ経済学のための実践的データ分析 4.SQL ことはじめ
経済学のための実践的データ分析 4.SQL ことはじめ
Yasushi Hara
 
RDB開発者のためのApache Cassandra データモデリング入門
RDB開発者のためのApache Cassandra データモデリング入門RDB開発者のためのApache Cassandra データモデリング入門
RDB開発者のためのApache Cassandra データモデリング入門
Yuki Morishita
 
Faster SRv6 D-plane with XDP
Faster SRv6 D-plane with XDPFaster SRv6 D-plane with XDP
Faster SRv6 D-plane with XDP
Ryoga Saito
 
Spark Summit 2014 の報告と最近の取り組みについて
Spark Summit 2014 の報告と最近の取り組みについてSpark Summit 2014 の報告と最近の取り組みについて
Spark Summit 2014 の報告と最近の取り組みについて
Recruit Technologies
 
20131211 Neutron Havana
20131211 Neutron Havana20131211 Neutron Havana
20131211 Neutron Havana
Akihiro Motoki
 
ネットワークプログラマビリティ勉強会 これまでのおさらい
ネットワークプログラマビリティ勉強会 これまでのおさらいネットワークプログラマビリティ勉強会 これまでのおさらい
ネットワークプログラマビリティ勉強会 これまでのおさらい
npsg
 
Panel Discussion@WebDB forum 2014
Panel Discussion@WebDB forum 2014Panel Discussion@WebDB forum 2014
Panel Discussion@WebDB forum 2014
Makoto Yui
 
Cassandraとh baseの比較して入門するno sql
Cassandraとh baseの比較して入門するno sqlCassandraとh baseの比較して入門するno sql
Cassandraとh baseの比較して入門するno sql
Yutuki r
 
RDB技術者のためのNoSQLガイド NoSQLの必要性と位置づけ
RDB技術者のためのNoSQLガイド NoSQLの必要性と位置づけRDB技術者のためのNoSQLガイド NoSQLの必要性と位置づけ
RDB技術者のためのNoSQLガイド NoSQLの必要性と位置づけ
Recruit Technologies
 
SQL Server 使いのための Azure Synapse Analytics - Spark 入門
SQL Server 使いのための Azure Synapse Analytics - Spark 入門SQL Server 使いのための Azure Synapse Analytics - Spark 入門
SQL Server 使いのための Azure Synapse Analytics - Spark 入門
Daiyu Hatakeyama
 
USENIX NSDI17 Memory Disaggregation
USENIX NSDI17 Memory DisaggregationUSENIX NSDI17 Memory Disaggregation
USENIX NSDI17 Memory Disaggregation
Kuniyasu Suzaki
 
OpenStack and ACI
OpenStack and ACIOpenStack and ACI
OpenStack and ACI
Takao Setaka
 

Similar to [Dl輪読会]dl hacks輪読 (20)

[論文紹介] 粗粒度スパースNNアクセラレータ Cambricon-S
[論文紹介] 粗粒度スパースNNアクセラレータ Cambricon-S[論文紹介] 粗粒度スパースNNアクセラレータ Cambricon-S
[論文紹介] 粗粒度スパースNNアクセラレータ Cambricon-S
 
データベース屋がHyperledger Fabricを検証してみた
データベース屋がHyperledger Fabricを検証してみたデータベース屋がHyperledger Fabricを検証してみた
データベース屋がHyperledger Fabricを検証してみた
 
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...
[DL輪読会]Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Ima...
 
RHEL7/CentOS7 NetworkManager徹底入門
RHEL7/CentOS7 NetworkManager徹底入門RHEL7/CentOS7 NetworkManager徹底入門
RHEL7/CentOS7 NetworkManager徹底入門
 
NSDI17-reading-kaneko
NSDI17-reading-kanekoNSDI17-reading-kaneko
NSDI17-reading-kaneko
 
ScyllaDBユーザー勉強会 #1
ScyllaDBユーザー勉強会 #1ScyllaDBユーザー勉強会 #1
ScyllaDBユーザー勉強会 #1
 
スケールアップファーストのNoSQL、ScyllaDB(スキュラDB)
スケールアップファーストのNoSQL、ScyllaDB(スキュラDB)スケールアップファーストのNoSQL、ScyllaDB(スキュラDB)
スケールアップファーストのNoSQL、ScyllaDB(スキュラDB)
 
RとSQLiteで気軽にデータベース作成
RとSQLiteで気軽にデータベース作成RとSQLiteで気軽にデータベース作成
RとSQLiteで気軽にデータベース作成
 
経済学のための実践的データ分析 4.SQL ことはじめ
経済学のための実践的データ分析 4.SQL ことはじめ経済学のための実践的データ分析 4.SQL ことはじめ
経済学のための実践的データ分析 4.SQL ことはじめ
 
RDB開発者のためのApache Cassandra データモデリング入門
RDB開発者のためのApache Cassandra データモデリング入門RDB開発者のためのApache Cassandra データモデリング入門
RDB開発者のためのApache Cassandra データモデリング入門
 
Faster SRv6 D-plane with XDP
Faster SRv6 D-plane with XDPFaster SRv6 D-plane with XDP
Faster SRv6 D-plane with XDP
 
Spark Summit 2014 の報告と最近の取り組みについて
Spark Summit 2014 の報告と最近の取り組みについてSpark Summit 2014 の報告と最近の取り組みについて
Spark Summit 2014 の報告と最近の取り組みについて
 
20131211 Neutron Havana
20131211 Neutron Havana20131211 Neutron Havana
20131211 Neutron Havana
 
ネットワークプログラマビリティ勉強会 これまでのおさらい
ネットワークプログラマビリティ勉強会 これまでのおさらいネットワークプログラマビリティ勉強会 これまでのおさらい
ネットワークプログラマビリティ勉強会 これまでのおさらい
 
Panel Discussion@WebDB forum 2014
Panel Discussion@WebDB forum 2014Panel Discussion@WebDB forum 2014
Panel Discussion@WebDB forum 2014
 
Cassandraとh baseの比較して入門するno sql
Cassandraとh baseの比較して入門するno sqlCassandraとh baseの比較して入門するno sql
Cassandraとh baseの比較して入門するno sql
 
RDB技術者のためのNoSQLガイド NoSQLの必要性と位置づけ
RDB技術者のためのNoSQLガイド NoSQLの必要性と位置づけRDB技術者のためのNoSQLガイド NoSQLの必要性と位置づけ
RDB技術者のためのNoSQLガイド NoSQLの必要性と位置づけ
 
SQL Server 使いのための Azure Synapse Analytics - Spark 入門
SQL Server 使いのための Azure Synapse Analytics - Spark 入門SQL Server 使いのための Azure Synapse Analytics - Spark 入門
SQL Server 使いのための Azure Synapse Analytics - Spark 入門
 
USENIX NSDI17 Memory Disaggregation
USENIX NSDI17 Memory DisaggregationUSENIX NSDI17 Memory Disaggregation
USENIX NSDI17 Memory Disaggregation
 
OpenStack and ACI
OpenStack and ACIOpenStack and ACI
OpenStack and ACI
 

More from Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
Deep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Recently uploaded

LoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
LoRaWAN AI Image Sensorエンドデバイス AIG01カタログLoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
LoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
CRI Japan, Inc.
 
Matsuo-Iwasawa Lab. Research unit Introduction
Matsuo-Iwasawa Lab. Research unit IntroductionMatsuo-Iwasawa Lab. Research unit Introduction
Matsuo-Iwasawa Lab. Research unit Introduction
Matsuo Lab
 
20240717_IoTLT_vol113_kitazaki_v1___.pdf
20240717_IoTLT_vol113_kitazaki_v1___.pdf20240717_IoTLT_vol113_kitazaki_v1___.pdf
20240717_IoTLT_vol113_kitazaki_v1___.pdf
Ayachika Kitazaki
 
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ..."ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
たけおか しょうぞう
 
Matsuo-Iwasawa Lab. | Research unit Introduction
Matsuo-Iwasawa Lab. | Research unit IntroductionMatsuo-Iwasawa Lab. | Research unit Introduction
Matsuo-Iwasawa Lab. | Research unit Introduction
Matsuo Lab
 
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
chisatotakane
 
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
ARISE analytics
 
生成AIでビジネスはどう変わる?-初心者向け実践ガイド-Presented by @Rui_AIConsul
生成AIでビジネスはどう変わる?-初心者向け実践ガイド-Presented by @Rui_AIConsul生成AIでビジネスはどう変わる?-初心者向け実践ガイド-Presented by @Rui_AIConsul
生成AIでビジネスはどう変わる?-初心者向け実践ガイド-Presented by @Rui_AIConsul
TsuyoshiSaito7
 
Developer IO 2024 Odyssey SAMを応用したコンピュータビジョンの話
Developer IO 2024 Odyssey  SAMを応用したコンピュータビジョンの話Developer IO 2024 Odyssey  SAMを応用したコンピュータビジョンの話
Developer IO 2024 Odyssey SAMを応用したコンピュータビジョンの話
Shinichi Hirauchi
 
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
Sony - Neural Network Libraries
 

Recently uploaded (10)

LoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
LoRaWAN AI Image Sensorエンドデバイス AIG01カタログLoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
LoRaWAN AI Image Sensorエンドデバイス AIG01カタログ
 
Matsuo-Iwasawa Lab. Research unit Introduction
Matsuo-Iwasawa Lab. Research unit IntroductionMatsuo-Iwasawa Lab. Research unit Introduction
Matsuo-Iwasawa Lab. Research unit Introduction
 
20240717_IoTLT_vol113_kitazaki_v1___.pdf
20240717_IoTLT_vol113_kitazaki_v1___.pdf20240717_IoTLT_vol113_kitazaki_v1___.pdf
20240717_IoTLT_vol113_kitazaki_v1___.pdf
 
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ..."ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
"ros2rapper", Hardware implimentation of ROS2 communication Protocol without ...
 
Matsuo-Iwasawa Lab. | Research unit Introduction
Matsuo-Iwasawa Lab. | Research unit IntroductionMatsuo-Iwasawa Lab. | Research unit Introduction
Matsuo-Iwasawa Lab. | Research unit Introduction
 
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
最速の組織を目指して全社で大規模スクラムを導入してみた話 #dxd2024 #medicalforce
 
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
【JSAI2024】J-NER大規模言語モデルのための固有表現認識における拡張固有表現階層を考慮したベンチマークデータセット.pdf
 
生成AIでビジネスはどう変わる?-初心者向け実践ガイド-Presented by @Rui_AIConsul
生成AIでビジネスはどう変わる?-初心者向け実践ガイド-Presented by @Rui_AIConsul生成AIでビジネスはどう変わる?-初心者向け実践ガイド-Presented by @Rui_AIConsul
生成AIでビジネスはどう変わる?-初心者向け実践ガイド-Presented by @Rui_AIConsul
 
Developer IO 2024 Odyssey SAMを応用したコンピュータビジョンの話
Developer IO 2024 Odyssey  SAMを応用したコンピュータビジョンの話Developer IO 2024 Odyssey  SAMを応用したコンピュータビジョンの話
Developer IO 2024 Odyssey SAMを応用したコンピュータビジョンの話
 
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
 

[Dl輪読会]dl hacks輪読

  • 2. 趣旨 - ネットワークの構造を、ある程度自動で決められないか - ICLR2017の4つの論文などを紹介する - カテゴリ - ハイパーパラメータ推定 ("HyperBand", "Neural Architecture Search with RL") - メタネットワークで生成 ("HyperNetworks") - レイヤーのスキップ≒ ResNet系 ("DCNN Design Pattern") - その他 (刈り込み/追加など) 2
  • 3. 目次 - ハイパーパラメータ推定 ("HyperBand", "Neural Architecture Search with RL") - メタネットワークで生成 ("HyperNetworks") - レイヤーのスキップ≒ ResNet系 ("DCNN Design Pattern") - その他 (刈り込みなど) 3
  • 4. Hyperband: A Novel Bandit-Based Approach to Hyperparameter Optimization - https://arxiv.org/abs/1603.06560 , https://openreview.net/forum?id=ry18Ww5ee ICLR2017 UR (Openreviewのショートバージョンの方が読みやすい ) - SVHNやCIFAR-10用ネットワークのハイパーパラメータ調整タスク - 「ハイパーパラメータの組み合わせに対して、限られたデータ資源 (データ数、バッチ数など )を割り当てる bandit問題」として定式化する。 - 先行研究の"Successive Halving"では、「広く浅く割り当てる vs狭く深く割り当てる」の調整ができなかった。 - Successive Halvingの、ハイパーハイパーパラメータを、更にグリッドサーチすることで、 最新手法(SMAC_early)と同等or上回る結果を得た。 4
  • 5. Speeding up automatic hyperparameter optimization of deep neural networks by extrapolation of learning curves - IJCAI 2015 - https://pdfs.semanticscholar.org/044f/0b1d5d0b421abbc7569ba4cc4bf859fd9801.pdf - 前ページのHyperbandのベースライン(SMAC_early)の提案論文 - ハイパーパラメータサーチには、 (この論文の時点で)3つの方法があった - Baysian OptimizationによるSpearmint - Random forestによるSMAC - 密度推定によるTree Parzen Estimator(TPE) - この論文では、SMACとTPEに対し、人間のエキスパートを真似た early stoppingを入れて、 良い性能を出した 5
  • 6. Neural Network Architecture Optimization through Submodularity and Supermodularity - http://arxiv.org/abs/1609.00074 Sep 2016 - Baysian Optimizationによる最適化のState of the art 6
  • 7. Neural Architecture Search with Reinforcement Learning - Google Brain, ICLR2017 under review - https://arxiv.org/abs/1611.01578 - 強化学習とRNNで、1項目ごとに決めていく (下図) - CIFAR10とPenn Treebank用のネットワークを生成した 7
  • 8. Online Adaptation of Deep Architectures with Reinforcement Learning - ECAI 2016 - https://arxiv.org/abs/1608.02292 - 強化学習で、Denoising Autoencoderの構造を学習する - (画像は、ベースラインの論文のもの。この mergeやincrementを、動作と捉えてRLする。) 8
  • 9. 目次 - ハイパーパラメータ推定 ("HyperBand", "Neural Architecture Search with RL") - メタネットワークで生成 ("HyperNetworks") - レイヤーのスキップ≒ ResNet系 ("DCNN Design Pattern") - その他 (刈り込み/追加など) 9
  • 10. HyperNetworks - https://arxiv.org/abs/1609.09106, Sep 2016, ICLR2017 under review - http://blog.otoro.net/2016/09/28/hyper-networks/ - RNNには、毎時間の重みが変化しない制約があった。 - 小さなLSTMから、毎時間メインの LSTMの重みを出力することで、解決した。 10
  • 11. HyperNetworks - テキスト生成 - 大きなResNetの重み生成 - 手書き文字生成(2D混合ガウス分布を、 HyperNetworkで生成していく) - Tensorflowの通常のRNNCellとして使える。 - ネットワークからネットワーク重みを生成するアイデアは、 HyperNEAT(後述)から来ている。 - Character-Level Penn Treebank と Hutter Prize Wikipedia でstate of the art 11
  • 12. Evolving Neural Networks through Augmenting Topologies - Evolutionary Computation 2002 Vol.10-2 - http://dx.doi.org/10.1162/106365602320169811 - 遺伝的アルゴリズム +αで、入力ノードと出力ノードの間の分岐を変化させる。 12
  • 13. A Hypercube-based Encoding for Evolving Large-scale Neural Networks - Artificial Life 2009 Vol.15-2 - http://www.mitpressjournals.org/doi/abs/10.1162/artl.2009.15.2.15202#.WDd3JKJ95TY - メタネットワークに、 (エッジの始点, 終点)を入力すると、(そのエッジのウェイト )が出力される。 - 小さいネットワーク(CPNN)で、様々なメインネットワーク構造を表せる 13
  • 14. Convolution by Evolution - http://mlanctot.info/files/papers/gecco16-dppn.pdf - Google DeepMind - CPNNを微分で学習可能にした "DPNN"を提案 - 構造は変化するが、重みの値は BPで学習する 14
  • 15. 他のNEAT - 画素の密集地に多くのネットワーク分岐を割り当てる - CNNの前処理に使う - ATARIのタスクに使う - 制御タスクに使う - しかし、GAの重さがネックとなっていた - HyperNetworkは、全体をBPにして、応用先を変えることで解決した 15
  • 16. 目次 - ハイパーパラメータ推定 ("HyperBand", "Neural Architecture Search with RL") - メタネットワークで生成 ("HyperNetworks") - レイヤーのスキップ≒ ResNet系 ("DCNN Design Pattern") - その他 (刈り込み/追加など) 16
  • 17. Deep Convolutional Neural Network Design Patterns - https://arxiv.org/abs/1611.00847 , ICLR2017 under review - ここ数年の、CNN構造いじる系論文のサーベイ - さらに、構造いじりのアイデアのデザインパターンを提唱している。 - デザインパターン: 頻出テクニックに、名前をつけて、会話しやすくしたもの。 - デザインパターンを元に、いくつかの新しいネットワークを提案している。 17
  • 18. Training Very Deep Networks - https://arxiv.org/abs/1507.06228 , ICML 2015 DL Workshop -> NIPS 2015 Highlighted Paper - Highway Networksの論文 - Resnetの恒等写像がゲートになっている 18
  • 19. Deep Networks with Stochastic Depth - https://arxiv.org/abs/1603.09382 - ResNetのブロックを、訓練時のみ、ランダムに消した。テスト時は全使用 - 深さ方向のDropout。 19
  • 20. Densely Connected Convolutional Networks - https://arxiv.org/abs/1608.06993 - Resnet with Stochastic Depthと同じ著者 - 前のConv Layerの出力を、1つ上のLayerだけでなく、 その先のLayerにも入力する(いわゆるconcat layer)。 - 先のレイヤーほど太っていくが、 - 1. 4レイヤーずつでリセットする。 (Dense Block) - 2. レイヤーの増加幅(Growth Rate)を、小さくする。 - この2つによって、パラメータを増やしすぎずに済む。 下のレイヤーの情報を再利用できるためと考えられている。 - SVHN、CIFAR-{10,100}でstate of the art 20
  • 21. Resnet in Resnet: Generalizing Resnet Architectures - ICLR 2016 Workshop - http://arxiv.org/abs/1603.08029 21
  • 22. Residual Networks are Exponential Ensembles of Relatively Shallow Networks - NIPS 2016 - https://arxiv.org/abs/1605.06431 - 左のResNetが、実は右のように展開したものと等価なことを示した。 22
  • 23. FractalNet: Ultra-Deep Neural Networks without Residuals - http://arxiv.org/abs/1605.07648 - 恒等写像でバイパスする ResNetと違い、同じ関数(レイヤー)を2回合成したパスとの concatでバイパスする。 よって、少ないレイヤーからスタートして、倍々に深さが増える - さらに、ResNet w/ stochastic depth同様に、各レイヤーを確率的に落として FFルートを作る、"Drop-path"と いう手法を提案している - だいたいVGG-16やResNetと同じ精度が出る 23
  • 24. Xception: Deep Learning with Depthwise Separable Convolutions - https://arxiv.org/abs/1610.02357 - Inceptionを一般化、発展させた 24
  • 25. 目次 - ハイパーパラメータ推定 ("HyperBand", "Neural Architecture Search with RL") - メタネットワークで生成 ("HyperNetworks") - レイヤーのスキップ≒ ResNet系 ("DCNN Design Pattern") - その他 (刈り込み/追加など) 25
  • 26. Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding - ICLR 2016 Best Paper Award - https://arxiv.org/abs/1510.00149 , https://github.com/songhan/Deep-Compression-AlexNet - 刈り込み、量子化、ハフマン符号化を組み合わせて、ネットワークを圧縮する 26
  • 27. Blockout: Dynamic Model Selection for Hierarchical Deep Networks - https://arxiv.org/abs/1512.05246 - DropoutやDropconnectを一般化したもの。 - これらを「確率的なノードグループへの接続割り当て」と解釈した (Dropoutがグループ1個、connectがN個)。 - 決められたグループ数について、「 i番目のグループへの接続率」を BPで学習させた。 - CIFARで良い性能を出した 27
  • 28. Deconstructing the Ladder Network Architecture - https://arxiv.org/abs/1511.06430 , ICML2016 ラストがY.Bengio - Ladderの元論文 "Semi-Supervised Learning with Ladder Networks (Rasmus, 2015)" の疑問点をいろいろ検証したり、 構造を改善した - Autoencoderに似てる 28
  • 29. Using Fast Weights to Attend to the Recent Past - https://arxiv.org/abs/1610.06258 , 2ndがG.Hinton - activationとweightの中間のスピードで更新される "Fast weight"を導入することで、性能が上がった。 - Fast weightは隠れ状態h(t)から計算され、一種の attentionと見なせる。また生物学的にも根拠がある。 - 具体的には、RNNのh(t)とh(t+1)の間に、S回のh_s(t) (s=0..S)の隠れ状態の移り変わりを考える (Eq.2, Figure 1)。 - この移り変わりでは、 h(t){h(t)^T}に基づく接続A (Fast weight)と、普通の接続W (Slow weight)を混ぜ 合わせている(Eq.1)。 29