This document summarizes recent advances in single image super-resolution (SISR) using deep learning methods. It discusses early SISR networks like SRCNN, VDSR and ESPCN. SRResNet is presented as a baseline method, incorporating residual blocks and pixel shuffle upsampling. SRGAN and EDSR are also introduced, with EDSR achieving state-of-the-art PSNR results. The relationship between reconstruction loss, perceptual quality and distortion is examined. While PSNR improves yearly, a perception-distortion tradeoff remains. Developments are ongoing to produce outputs that are both accurately restored and naturally perceived.
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話Yusuke Uchida
第7回全日本コンピュータビジョン勉強会「CVPR2021読み会」(前編)の発表資料です
https://kantocv.connpass.com/event/216701/
You Only Look One-level Featureの解説と、YOLO系の雑談や、物体検出における関連する手法等を広く説明しています
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...Deep Learning JP
Neural Radiance Flow (NeRFlow) is a method that extends Neural Radiance Fields (NeRF) to model dynamic scenes from video data. NeRFlow simultaneously learns two fields - a radiance field to reconstruct images like NeRF, and a flow field to model how points in space move over time using optical flow. This allows it to generate novel views from a new time point. The model is trained end-to-end by minimizing losses for color reconstruction from volume rendering and optical flow reconstruction. However, the method requires training separate models for each scene and does not generalize to unknown scenes.
SQL Server 使いのための Azure Synapse Analytics - Spark 入門Daiyu Hatakeyama
Japan SQL Server Users Group - 第35回 SQL Server 2019勉強会 - Azure Synapese Analytics - SQL Pool 入門 のセッション資料です。
Spark の位置づけ。Synapse の中での入門編の使い方。そして、Synapse ならではの価値について触れてます。
5. Speeding up automatic hyperparameter optimization of deep neural networks by extrapolation of learning
curves
- IJCAI 2015
- https://pdfs.semanticscholar.org/044f/0b1d5d0b421abbc7569ba4cc4bf859fd9801.pdf
- 前ページのHyperbandのベースライン(SMAC_early)の提案論文
- ハイパーパラメータサーチには、 (この論文の時点で)3つの方法があった
- Baysian OptimizationによるSpearmint
- Random forestによるSMAC
- 密度推定によるTree Parzen Estimator(TPE)
- この論文では、SMACとTPEに対し、人間のエキスパートを真似た early stoppingを入れて、
良い性能を出した
5
6. Neural Network Architecture Optimization through Submodularity and Supermodularity
- http://arxiv.org/abs/1609.00074 Sep 2016
- Baysian Optimizationによる最適化のState of the art
6
7. Neural Architecture Search with Reinforcement Learning
- Google Brain, ICLR2017 under review
- https://arxiv.org/abs/1611.01578
- 強化学習とRNNで、1項目ごとに決めていく (下図)
- CIFAR10とPenn Treebank用のネットワークを生成した
7
8. Online Adaptation of Deep Architectures with Reinforcement Learning
- ECAI 2016
- https://arxiv.org/abs/1608.02292
- 強化学習で、Denoising Autoencoderの構造を学習する
- (画像は、ベースラインの論文のもの。この mergeやincrementを、動作と捉えてRLする。)
8
26. Deep Compression: Compressing Deep Neural Networks with Pruning, Trained
Quantization and Huffman Coding
- ICLR 2016 Best Paper Award
- https://arxiv.org/abs/1510.00149 , https://github.com/songhan/Deep-Compression-AlexNet
- 刈り込み、量子化、ハフマン符号化を組み合わせて、ネットワークを圧縮する
26
27. Blockout: Dynamic Model Selection for Hierarchical Deep Networks
- https://arxiv.org/abs/1512.05246
- DropoutやDropconnectを一般化したもの。
- これらを「確率的なノードグループへの接続割り当て」と解釈した
(Dropoutがグループ1個、connectがN個)。
- 決められたグループ数について、「 i番目のグループへの接続率」を BPで学習させた。
- CIFARで良い性能を出した
27