読者です 読者をやめる 読者になる 読者になる

めもめも

このブログに記載の内容は個人の見解であり、必ずしも所属組織の立場、戦略、意見を代表するものではありません。

「TensorFlow Tutorialの数学的背景」シリーズの目次

TensorFlowを使って、実際にコードを動かしながら、DeepLearningの仕組みを段階的に学んでいきましょう。

目次

・No.1 TensorFlow Tutorialの数学的背景 − MNIST For ML Beginners(その1)
平面上の2種類のデータをロジスティック回帰で直線的に分類するという、機械学習の基礎を説明します。

・No.2 TensorFlow Tutorialの数学的背景 − MNIST For ML Beginners(その2)
線形多項分類器とソフトマックス関数で、3種類以上のデータを分類する方法を説明します。

・No.3 TensorFlow Tutorialの数学的背景 − TensorFlow Mechanics 101(その1)
No.1で説明した問題に対して、もっとも単純なニューラルネットワークを適用して、複雑な境界を持つ分類を実現します。

・No.4 TensorFlow Tutorialの数学的背景 − TensorFlow Mechanics 101(その2)
No.3のニューラルネットワークに対して、Unit数の増加やActivation関数の取り換えを試します。

・No.5 TensorFlow Tutorialの数学的背景 − TensorFlow Mechanics 101(その3再び)
ニューラルネットワークを2段階にすることで、「特徴変数の抽出」+「特徴変数による分類」という処理を実現します。

・No.6 TensorFlow Tutorialの数学的背景 − Deep MNIST for Experts(その1)
畳み込み演算を用いて、画像データの特徴を抽出する方法を説明します。

・No.7 TensorFlow Tutorialの数学的背景 − Deep MNIST for Experts(その2)
畳み込み演算のフィルターを機械学習で最適化することで、もっとも単純なCNN(畳み込みニューラルネットワーク)を実現します。

・No.8 TensorFlow Tutorialの数学的背景 − Deep MNIST for Experts(その3)
MNISTの手書き数字を分類するCNNを作ります。畳み込み層を2段階にすることで、99.2%の識別率を実現します。

・No.9 TensorFlow Tutorialの数学的背景 − Vector Representations of Words
NLP(自然言語処理)のタスクである、単語の「ベクトル表現」を生成する処理について解説します。

・No.10 TensorFlow Tutorialの数学的背景 − Convolutional Neural Networks (その1) CNNに入力する画像データの前処理について解説します。


Jupyterを用いたコード解説

各パートの実装コードを学習するJupyterのノートブックを実験的に用意しています。

※ Jupyterについては、下記の記事を参考にしてください。

enakai00.hatenablog.com

ノートブックのファイルは下記から入手することができます。

github.com

・No.1: Liner binary categorizer using Logistic regression.ipynb

・No.2: MNIST with simple softmax.ipynb

No.3以降も順次用意していきます!