[[244555]] ビッグデータダイジェスト制作 編集者: グアグア、アイリーン この投稿には、私がこれまでに見つけた中で最高のチュートリアル コンテンツが含まれています。これは、オンラインで利用できるすべての機械学習関連のチュートリアルを網羅したリストではありません。そうすると、長すぎて繰り返しが多くなります。ここでは平均的な品質のコンテンツは含めません。私の目標は、機械学習と自然言語処理の拡張トピックに、私が見つけられる最高のチュートリアルを結び付けることです。 ここで「チュートリアル」と言っているのは、概念を簡潔に教えるために書かれた入門コンテンツを意味します。教科書の章は幅広いトピックを扱っているので、私は教科書や研究論文は避けるようにしています。研究論文は通常、概念を伝えるのにあまり役立ちません。その場合は、本を買ってみてはいかがでしょうか。チュートリアルは、基本的なトピックを学習したいときや、より広い視野を得たいときに役立ちます。 この記事は、機械学習、自然言語処理、Python、数学の 4 つの部分に分けました。各セクションではいくつかのトピックをリストしていますが、資料が膨大であるため、すべてのトピックを網羅することは不可能です。 私が見逃した良いチュートリアルを見つけたら、ぜひ教えてください。 チュートリアルの数はトピックごとに 5 つか 6 つに抑えるようにしています。それ以上になると、必然的に重複が生じます。各リンクには、他のリンクとは異なる資料が含まれていたり、情報が別の方法 (コード、スライド、長いテキストの使用など) で提示されていたり、異なる視点から提供されていたりします。 機械学習 - 機械学習をここから始めましょう (machinelearningmastery.com): https://machinelearningmastery.com/start-here/
- 機械学習のルール: ML エンジニアリングのベスト プラクティス (martin.zinkevich.org)
- 機械学習クラッシュコース: パート I、パート II、パート III (バークレーでの機械学習):
- https://ml.berkeley.edu/blog/2016/11/06/tutorial-1/
- https://ml.berkeley.edu/blog/2016/12/24/tutorial-2/
- https://ml.berkeley.edu/blog/2017/02/04/tutorial-3/
- 機械学習理論とその応用入門: 例を交えたビジュアルチュートリアル (toptal.com)
- 機械学習のやさしいガイド (monkeylearn.com)
- どの機械学習アルゴリズムを使用すればよいですか? (sas.com)
- 機械学習入門 (sas.com): https://www.sas.com/content/dam/SAS/en_us/doc/whitepaper1/machine-learning-primer-108796.pdf
- 初心者向け機械学習チュートリアル (kaggle.com/kanncaa1): https://www.kaggle.com/kanncaa1/machine-learning-tutorial-for-beginners
活性化関数と損失関数 - シグモイドニューロン (neuralnetworksanddeeplearning.com): http://neuralnetworksanddeeplearning.com/chap1.html#sigmoid_neurons
- ニューラル ネットワークにおける活性化関数の役割は何ですか? (quora.com)
- ニューラル ネットワークの活性化関数の包括的なリストと長所/短所 (stats.stackexchange.com): https://stats.stackexchange.com/questions/115258/comprehensive-list-of-activation-functions-in-neural-networks-with-pros-cons
- 活性化関数とその種類 - どちらが優れているか? (medium.com)
- 対数損失を理解する (exegetic.biz): http://www.exegetic.biz/blog/2015/12/making-sense-logarithmic-loss/
- 損失関数 (スタンフォード CS231n): http://cs231n.github.io/neural-networks-2/#losses
- L1 対 L2 損失関数 (rishy.github.io): http://rishy.github.io/ml/2015/07/28/l1-vs-l2-loss/
- クロスエントロピーコスト関数 (neuralnetworksanddeeplearning.com): http://neuralnetworksanddeeplearning.com/chap3.html#the_cross-entropy_cost_function
偏差 - ニューラル ネットワークにおけるバイアスの役割 (stackoverflow.com)
- ニューラル ネットワークのバイアス ノード (makeyourownneuralnetwork.blogspot.com)
- 人工ニューラル ネットワークにおけるバイアスとは何ですか? (quora.com)
パーセプトロン - パーセプトロン (neuralnetworksanddeeplearning.com)
- 知覚 (natureofcode.com): https://natureofcode.com/book/chapter-10-neural-networks/#chapter10_figure3
- 単層ニューラル ネットワーク (パーセプトロン) (dcu.ie): http://computing.dcu.ie/~humphrys/Notes/Neural/single.neural.html
- パーセプトロンからディープ ネットワークへ (toptal.com)
戻る - 線形回帰分析入門 (duke.edu): http://people.duke.edu/~rnau/regintro.htm
- 線形回帰 (ufldl.stanford.edu): http://ufldl.stanford.edu/tutorial/supervised/LinearRegression/
- 線形回帰 (readthedocs.io): http://ml-cheatsheet.readthedocs.io/en/latest/linear_regression.html
- ロジスティック回帰 (readthedocs.io)
- 機械学習のための単純な線形回帰チュートリアル (machinelearningmastery.com)
- 機械学習のためのロジスティック回帰チュートリアル (machinelearningmastery.com): https://machinelearningmastery.com/logistic-regression-tutorial-for-machine-learning/
- ソフトマックス回帰 (ufldl.stanford.edu): http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/
勾配降下法 - 勾配降下法による学習 (neuralnetworksanddeeplearning.com)
- 勾配降下法 (iamtrask.github.io): http://iamtrask.github.io/2015/07/27/python-network-part2/
- 勾配降下アルゴリズムを理解する方法 (kdnuggets.com): http://www.kdnuggets.com/2017/04/simple-understand-gradient-descent-algorithm.html
- 勾配降下法の最適化アルゴリズムの概要 (sebastianruder.com): http://sebastianruder.com/optimizing-gradient-descent/
- 最適化: 確率的勾配降下法 (スタンフォード CS231n): http://cs231n.github.io/optimization-1/
生成学習 - 生成学習アルゴリズム (スタンフォード CS229): http://cs229.stanford.edu/notes/cs229-notes2.pdf
- ナイーブベイズ分類器の実践的な説明 (monkeylearn.com)
サポートベクターマシン - サポート ベクター マシン (SVM) の紹介 (monkeylearn.com): https://monkeylearn.com/blog/introduction-to-support-vector-machines-svm/
- サポートベクターマシン (スタンフォード CS229): http://cs229.stanford.edu/notes/cs229-notes3.pdf
- 線形分類: サポートベクターマシン、ソフトマックス (スタンフォード 231n):http://cs231n.github.io/linear-classify/
ディープラーニング - YN² によるディープラーニングガイド (yerevann.com): http://yerevann.com/a-guide-to-deep-learning/
- ディープラーニング論文読書ロードマップ (github.com/floodsung): https://github.com/floodsung/Deep-Learning-Papers-Reading-Roadmap
- ディープラーニングの概要 (nikhilbuduma.com)
- ディープラーニングのチュートリアル (Quoc V. Le)
- ディープラーニングとは何ですか? (machinelearningmastery.com)
- 人工知能、機械学習、ディープラーニングの違いは何ですか? (nvidia.com): https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/
- ディープラーニング — The Straight Dope (gluon.mxnet.io): https://gluon.mxnet.io/
最適化と次元削減 - データ次元削減のための 7 つのテクニック (knime.org): https://www.knime.org/blog/seven-techniques-for-data-dimensionality-reduction
- 主成分分析 (スタンフォード CS229): http://cs229.stanford.edu/notes/cs229-notes10.pdf
- ドロップアウト: ニューラル ネットワークを改善する簡単な方法 (Hinton @ NIPS 2012): http://cs229.stanford.edu/notes/cs229-notes10.pdf
- ディープ ニューラル ネットワークをトレーニングする方法 (rishy.github.io)
長期短期記憶 (LSTM) - 専門家による長期短期記憶ネットワークの簡単な入門 (machinelearningmastery.com)
- LSTM ネットワークの理解 (colah.github.io)
- LSTM の探索 (echen.me): http://blog.echen.me/2017/05/30/exploring-lstms/
- 誰でも Python で LSTM-RNN のコーディングを学べます (iamtrask.github.io)
畳み込みニューラルネットワーク - 畳み込みネットワークの紹介 (neuralnetworksanddeeplearning.com)
- ディープラーニングと畳み込みニューラルネットワーク (medium.com/@ageitgey)
- Conv Nets: モジュラーの観点 (colah.github.io)
- 畳み込みを理解する (colah.github.io)
リカレントニューラルネットワーク - リカレント ニューラル ネットワーク チュートリアル (wildml.com): http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/
- 注意と拡張リカレントニューラルネットワーク (distill.pub)
- リカレントニューラルネットワークの不合理な有効性 (karpathy.github.io)
- リカレント ニューラル ネットの詳細な解説 (nikhilbuduma.com)
強化学習 - 強化学習とその実装に関する初心者向けのシンプルなガイド (analyticsvidhya.com): https://www.analyticsvidhya.com/blog/2017/01/introduction-to-reinforcement-learning-implementation/
- 強化学習の学習 (wildml.com): http://www.wildml.com/2016/10/learning-reinforcement-learning/
- 深層強化学習: ピクセルからの Pong (karpathy.github.io)
生成的敵対ネットワーク (GAN) - 敵対的機械学習 (aaai18adversarial.github.io): https://aaai18adversarial.github.io/slides/AML.pptx
- 生成的敵対ネットワークとは? (nvidia.com): https://blogs.nvidia.com/blog/2017/05/17/generative-adversarial-network/
- 生成的敵対ネットワークを悪用して 8 ビットのピクセル アートを作成する (medium.com/@ageitgey)
- 生成的敵対ネットワークの紹介 (TensorFlow のコード付き) (aylien.com): http://blog.aylien.com/introduction-generative-adversarial-networks-code-tensorflow/
- 初心者のための生成的敵対的ネットワーク (oreilly.com)
マルチタスク学習 - ディープ ニューラル ネットワークにおけるマルチタスク学習の概要 (sebastianruder.com)
自然言語処理 - 自然言語処理のためのニューラル ネットワーク モデル入門 (Yoav Goldberg): http://u.cs.biu.ac.il/~yogo/nnlp.pdf
- 自然言語処理の決定版ガイド (monkeylearn.com)
- 自然言語処理入門 (algorithmia.com): https://blog.algorithmia.com/introduction-natural-language-processing-nlp/
- 自然言語処理チュートリアル (vikparuchuri.com): http://www.vikparuchuri.com/blog/natural-language-processing-tutorial/
- 自然言語処理 (ほぼ) ゼロから (arxiv.org): https://arxiv.org/pdf/1103.0398.pdf
ディープラーニングと自然言語処理 - ディープラーニングをNLPに適用する (arxiv.org)
- NLP のためのディープラーニング (魔法なし) (Richard Socher)
- NLP のための畳み込みニューラル ネットワークを理解する (wildml.com)
- ディープラーニング、NLP、表現 (colah.github.io)
- 埋め込み、エンコード、注目、予測: 最先端の NLP モデルのための新しいディープラーニング方式 (explosion.ai): https://explosion.ai/blog/deep-learning-formula-nlp
- Torch を使用したディープ ニューラル ネットワークによる自然言語の理解 (nvidia.com): https://devblogs.nvidia.com/parallelforall/understanding-natural-language-deep-neural-networks-using-torch/
- Pytorch を使用した NLP のディープラーニング (pytorich.org): http://pytorch.org/tutorials/beginner/deep_learning_nlp_tutorial.html
単語ベクトル - Bag of Words と Bags of Popcorn の融合 (kaggle.com)
- 単語埋め込みについて パート I、パート II、パート III (sebastianruder.com)
- http://sebastianruder.com/word-embeddings-1/index.html
- http://sebastianruder.com/word-embeddings-softmax/index.html
- http://sebastianruder.com/secret-word2vec/index.html
- 単語ベクトルの驚くべき力 (acolyer.org)
- word2vec パラメータ学習の説明 (arxiv.org): https://arxiv.org/pdf/1411.2738.pdf
- Word2Vec チュートリアル - スキップグラム モデル、ネガティブ サンプリング (mccormickml.com):
- http://mccormickml.com/2016/04/19/word2vec-tutorial-the-skip-gram-model/
- http://mccormickml.com/2017/01/11/word2vec-tutorial-part-2-negative-sampling/
エンコーダー/デコーダー - ディープラーニングと NLP における注意と記憶 (wildml.com)
- シーケンスからシーケンスへのモデル (tensorflow.org): https://www.tensorflow.org/tutorials/seq2seq
- ニューラル ネットワークによるシーケンス間学習 (NIPS 2014)
- 機械学習は楽しい パート 5: ディープラーニングによる言語翻訳とシーケンスの魔法 (medium.com/@ageitgey)
- tf-seq2seq (google.github.io): https://google.github.io/seq2seq/
パイソン - 機械学習クラッシュコース (google.com): https://developers.google.com/machine-learning/crash-course/
- 素晴らしい機械学習 (github.com/josephmisiti): https://github.com/josephmisiti/awesome-machine-learning#python
- Python で機械学習をマスターするための 7 つのステップ (kdnuggets.com)
- 機械学習ノートブックの例 (nbviewer.jupyter.org): http://nbviewer.jupyter.org/github/rhiever/Data-Analysis-and-Machine-Learning-Projects/blob/master/example-data-science-notebook/Example%20Machine%20Learning%20Notebook.ipynb
- Python による機械学習 (tutorialspoint.com): https://www.tutorialspoint.com/machine_learning_with_python/machine_learning_with_python_quick_guide.htm
例 - Python でパーセプトロン アルゴリズムをゼロから実装する方法 (machinelearningmastery.com): http://machinelearningmastery.com/implement-perceptron-algorithm-scratch-python/
- Python でゼロからニューラル ネットワークを実装する (wildml.com)
- 11 行の Python で記述したニューラル ネットワーク (iamtrask.github.io): http://iamtrask.github.io/2015/07/12/basic-python-network/
- Python を使用して独自の k 近傍法アルゴリズムを実装する (kdnuggets.com): http://www.kdnuggets.com/2016/01/implementing-your-own-knn-using-python.html
- Scatch からの ML (github.com/eriklindernoren): https://github.com/eriklindernoren/ML-From-Scratch
- Python 機械学習 (第 2 版) コード リポジトリ (github.com/rasbt): https://github.com/rasbt/python-machine-learning-book-2nd-edition
Scipy と numpy - Scipy 講義ノート (scipy-lectures.org): http://www.scipy-lectures.org/
- Python Numpy チュートリアル (スタンフォード CS231n): http://cs231n.github.io/python-numpy-tutorial/
- Numpy と Scipy の紹介 (UCSB CHE210D): https://engineering.ucsb.edu/~shell/che210d/numpy.pdf
- 科学者のための Python 短期集中講座 (nbviewer.jupyter.org)
サイキットラーン - PyCon scikit-learn チュートリアル インデックス (nbviewer.jupyter.org): http://nbviewer.jupyter.org/github/jakevdp/sklearn_pycon2015/blob/master/notebooks/Index.ipynb
- scikit-learn 分類アルゴリズム (github.com/mmmayo13): https://github.com/mmmayo13/scikit-learn-classifiers/blob/master/sklearn-classifiers-tutorial.ipynb
- scikit-learn チュートリアル (scikit-learn.org): http://scikit-learn.org/stable/tutorial/index.html
- 要約版 scikit-learn チュートリアル (github.com/mmmayo13): https://github.com/mmmayo13/scikit-learn-beginners-tutorials
テンソルフロー - Tensorflow チュートリアル (tensorflow.org): https://www.tensorflow.org/tutorials/
- TensorFlow 入門 — CPU と GPU (medium.com/@erikhallstrm): https://medium.com/@erikhallstrm/hello-world-tensorflow-649b15aed18c
- TensorFlow: 入門 (metaflow.fr): https://blog.metaflow.fr/tensorflow-a-primer-4b3fa0978be3
- Tensorflow の RNN (wildml.com): http://www.wildml.com/2016/08/rnns-in-tensorflow-a-practical-guide-and-undocumented-features/
- TensorFlow でのテキスト分類用 CNN の実装 (wildml.com)
- TensorFlow でテキスト要約を実行する方法 (surmenok.com)
パイトーチ - PyTorch チュートリアル (pytorch.org): http://pytorch.org/tutorials/
- PyTorch の簡単な入門 (gaurav.im)
- チュートリアル: PyTorch でのディープラーニング (iamtrask.github.io)
- PyTorch の例 (github.com/jcjohnson): https://github.com/jcjohnson/pytorch-examples
- PyTorch チュートリアル (github.com/MorvanZhou): https://github.com/MorvanZhou/PyTorch-Tutorial
- ディープラーニング研究者向け PyTorch チュートリアル (github.com/yunjey): https://github.com/yunjey/pytorch-tutorial
数学 - 機械学習のための数学 (ucsc.edu): https://people.ucsc.edu/~praman1/static/pub/math-for-ml.pdf
- 機械学習のための数学 (UMIACS CMSC422): http://www.umiacs.umd.edu/~hal/courses/2013S_ML/math4ml.pdf
線形代数 - 線形代数の直感的なガイド (betterexplained.com): https://betterexplained.com/articles/linear-algebra-guide/
- 行列乗算に関するプログラマーの直感 (betterexplained.com): https://betterexplained.com/articles/matrix-multiplication/
- クロス積の理解 (betterexplained.com): https://betterexplained.com/articles/cross-product/
- ドット積の理解 (betterexplained.com): https://betterexplained.com/articles/vector-calculus-understanding-the-dot-product/
- 機械学習のための線形代数 (バッファロー大学 CSE574): http://www.cedar.buffalo.edu/~srihari/CSE574/Chap1/LinearAlgebra.pdf
- ディープラーニングのための線形代数のチートシート (medium.com)
- 線形代数の復習とリファレンス (スタンフォード CS229): http://cs229.stanford.edu/section/cs229-linalg.pdf
確率 - 比率によるベイズの定理の理解 (betterexplained.com)
- 確率論の復習 (スタンフォード CS229): http://cs229.stanford.edu/section/cs229-prob.pdf
- 機械学習のための確率論レビュー (スタンフォード CS229): https://see.stanford.edu/materials/aimlcs229/cs229-prob.pdf
- 確率論 (バッファロー大学 CSE574): http://www.cedar.buffalo.edu/~srihari/CSE574/Chap1/Probability-Theory.pdf
- 機械学習のための確率論 (トロント大学 CSC411): http://www.cs.toronto.edu/~urtasun/courses/CSC411_Fall16/tutorial1.pdf
微積分 - 導関数を理解する方法: 商の法則、指数、対数 (betterexplained.com)
- デリバティブを理解する方法: プロダクト、パワー、チェーンのルール (betterexplained.com): https://betterexplained.com/articles/derivatives-product-power-chain/
- ベクトル計算: 勾配を理解する (betterexplained.com)
- 微分積分学 (スタンフォード CS224n): http://web.stanford.edu/class/cs224n/lecture_notes/cs224n-2017-review-differential-calculus.pdf
- 微積分の概要 (readthedocs.io): http://ml-cheatsheet.readthedocs.io/en/latest/calculus.html
関連レポート: https://medium.com/machine-learning-in-practice/over-200-of-the-best-machine-learning-nlp-and-python-tutorials-2018-edition-dd8cf53cb7dc [この記事は51CTOコラムBig Data Digest、WeChatパブリックアカウント「Big Data Digest(id: BigDataDigest)」からのオリジナル記事です] この著者の他の記事を読むにはここをクリックしてください |