第 11 章 机器学习论文

11.1 如何高效读论文?

来源:量子位

第一遍:快速预览,把握概要。

拿到一篇新论文,第一遍阅读要花多长时间?5-10分钟足以。

不是每一篇论文都干货满满,所以初次见面,先打个印象分,再决定是否继续,是更为高效的方法。

具体操作如下:

1、仔细阅读标题、摘要和简介。

2、先忽略内容,读一读文章中的每个小标题。

3、如果有数学内容,先大致浏览,确定其理论基础。

4、读结论。

5、浏览参考文献,如果有你已经读过的,把它们勾选出来。

如此读完第一遍,你需要问问自己以下几个问题:

1、分类:这是什么类型的论文?

2、背景:与哪些其他论文相关?基于何种理论基础来分析问题?

3、正确性:论文的假设看起来正确吗?

4、贡献:论文的主要贡献是什么?

5、清晰度:这篇论文写得好吗?

当你心中有了这些答案,你也就知道自己该不该真正精读这篇论文了。

P.S. 这里也涉及到撰写论文的一个小技巧:结构尽量清晰,要点尽量突出,让审稿人第一遍就能get到。

第二遍:抓住重点,暂略细节

当你判定一篇论文值得一读,就可以把它加入第二遍阅读的队列。

第二遍阅读,就要好好看看论文内容了,投入的时间大概在1个小时左右。

不过,不要纠结于没见过的术语,也不要沉迷于证明推导的细节:把它们记下来,先略过。

这一遍阅读中,有两个小技巧:

1、仔细查看论文中的图表。关注一下细节:坐标轴是否正确标记?结论是否具有统计意义?往往细节之中,就能窥见真正出色的工作和水文之间的区别。

2、标记论文中涉及的、你并未读过的参考文献,之后进一步阅读。

读完第二遍,你应该能掌握论文内容,总结全文主旨了。

不过,有时候即使是这样读完一遍,也未必就能读懂论文:论文可能涉及你陌生的领域,有太多陌生术语;作者可能采用了你不了解的证明或实验技术;甚至,这篇论文可能写得不行。

那么,就进入最后一步吧。

第三遍:重构论文,注重细节

要想完全理解论文,就需要展开第三遍阅读:跟随作者的思路,在脑海中重现论文内容。

将重现的结果与实际论文进行比较,就可以轻松看出论文的创新点,找到文中隐含的假设,捕获隐藏在实验和技术分析中的潜在问题和引文缺失。

进入第三遍,最重要的事情强调三遍:细节!细节!细节!

找出作者陈述中的每一个假设,亲自挑战它,提出自己的思考。如此,对于论文的证明和其中的技术,你便会有更为深刻的理解。

One More Thing:文献调研怎么做?

说到读论文,是不是想起了被文献综述统治的恐惧?

Srinivasan Keshav教授同样有“三步法”要传授诸位。

首先,善用学术搜索引擎(如谷歌学术),找出3-5篇相关领域近期最高引用的论文。

了解这些论文的工作原理,阅读其中related work的部分。幸运的话,这些内容能直接帮你完成文献综述。

第二步,在这些论文的参考文献中找出其共同引用的论文,或重复出现的作者姓名。

访问这些关键人物的网站,查看他们近期发表的论文,也可以看看他们都参加了哪些顶级会议。

第三步,访问顶级会议的网站,浏览它们最近的会议记录。

通过“三遍论”的第一遍阅读快速识别高质量的相关工作。

汇总这一步中查找出的论文和第二步中的高引论文,基本上就能构成你文献综述的初版内容啦。

最后,三步法可以迭代进行。

11.3 深度学习必读论文

1 ImageNet Classification with Deep Convolutional Neural Networks

下载地址:http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

2 Using Very Deep Autoencoders for Content Based Image Retrieval

下载地址:http://www.cs.toronto.edu/~hinton/absps/esann-deep-final.pdf

3 Learning Deep Architectures for AI

下载地址:http://www.iro.umontreal.ca/~lisa/pointeurs/TR1312.pdf

4 CMU’s list of papers

下载地址:http://deeplearning.cs.cmu.edu/

5 Neural Networks for Named Entity Recognition zip

下载地址:https://nlp.stanford.edu/~socherr/pa4_ner.pdf

6 Geoff Hinton’s reading list (all papers)

下载地址:http://www.cs.toronto.edu/~hinton/deeprefs.html

7 Supervised Sequence Labelling with Recurrent Neural Networks

下载地址:http://www.cs.toronto.edu/~graves/preprint.pdf

8 Statistical Language Models based on Neural Networks

下载地址:http://www.fit.vutbr.cz/~imikolov/rnnlm/thesis.pdf

9 Training Recurrent Neural Networks

下载地址:http://www.cs.utoronto.ca/~ilya/pubs/ilya_sutskever_phd_thesis.pdf

10 Recursive Deep Learning for Natural Language Processing and Computer

下载地址:Vision https://nlp.stanford.edu/~socherr/thesis.pdf

11 Bi-directional RNN

下载地址:https://www.di.ufpe.br/~fnj/RNA/bibliografia/BRNN.pdf

12 LSTM

下载地址:http://web.eecs.utk.edu/~ielhanan/courses/ECE-692/Bobby_paper1.pdf

13 GRU - Gated Recurrent Unit

下载地址:https://arxiv.org/pdf/1406.1078v3.pdf

14 GFRNN

下载地址:https://arxiv.org/pdf/1502.02367v3.pdf

15 LSTM: A Search Space Odyssey

下载地址:https://arxiv.org/pdf/1503.04069v1.pdf

16 A Critical Review of Recurrent Neural Networks for Sequence Learning

下载地址:https://arxiv.org/pdf/1506.00019v1.pdf

17 Visualizing and Understanding Recurrent Networks

下载地址:https://arxiv.org/pdf/1506.02078v1.pdf

18 Wojciech Zaremba, Ilya Sutskever, An Empirical Exploration of Recurrent Network Architectures

下载地址:http://proceedings.mlr.press/v37/jozefowicz15.pdf

19 Recurrent Neural Network based Language Model

下载地址: http://www.fit.vutbr.cz/research/groups/speech/publi/2010/mikolov_interspeech2010_IS100722.pdf

20 Extensions of Recurrent Neural Network Language Model

下载地址:http://www.fit.vutbr.cz/research/groups/speech/publi/2011/mikolov_icassp2011_5528.pdf

21 Recurrent Neural Network based Language Modeling in Meeting Recognition

下载地址:http://www.fit.vutbr.cz/~imikolov/rnnlm/ApplicationOfRNNinMeetingRecognition_IS2011.pdf

22 Deep Neural Networks for Acoustic Modeling in Speech Recognition Speech

下载地址:http://cs224d.stanford.edu/papers/maas_paper.pdf

23 Reinforcement Learning Neural Turing Machines

下载地址:https://arxiv.org/pdf/1505.00521v1.pdf

24 Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation

下载地址:https://arxiv.org/pdf/1406.1078v3.pdf

25 Google - Sequence to Sequence Learning with Neural Networks

下载地址:http://papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf

26 Memory Networks

下载地址:https://arxiv.org/pdf/1410.3916v10.pdf

27 Policy Learning with Continuous Memory States for Partially Observed Robotic Control

下载地址:https://arxiv.org/pdf/1507.01273v1.pdf

28 Microsoft - Jointly Modeling Embedding and Translation to Bridge Video and Language

下载地址:https://arxiv.org/pdf/1505.01861v1.pdf

29 Neural Turing Machines

下载地址:https://arxiv.org/pdf/1410.5401v2.pdf

30 Ask Me Anything: Dynamic Memory Networks for Natural Language Processing

下载地址:https://arxiv.org/pdf/1506.07285v1.pdf

31 Mastering the Game of Go with Deep Neural Networks and Tree Search

下载地址:https://www.nature.com/articles/nature16961

32 Batch Normalization

下载地址:https://arxiv.org/abs/1502.03167

33 Residual Learning

下载地址:https://arxiv.org/pdf/1512.03385v1.pdf

34 Image-to-Image Translation with Conditional Adversarial Networks

下载地址:https://arxiv.org/pdf/1611.07004v1.pdf

35 Berkeley AI Research (BAIR) Laboratory

下载地址:https://arxiv.org/pdf/1611.07004v1.pdf

36 MobileNets by Google

下载地址:https://arxiv.org/abs/1704.04861

37 Cross Audio-Visual Recognition in the Wild Using Deep Learning

下载地址:https://arxiv.org/abs/1706.05739

38 Dynamic Routing Between Capsules

下载地址:https://arxiv.org/abs/1710.09829

39 Matrix Capsules With Em Routing

下载地址:https://openreview.net/pdf?id=HJWLfGWRb

40 Efficient BackProp

下载地址:http://yann.lecun.com/exdb/publis/pdf/lecun-98b.pdf

41 Recognition with Deep Recurrent Neural Networks

下载地址:http://cs224d.stanford.edu/papers/maas_paper.pdf