筑波大学 システム情報系教授 佐久間 淳先生の機械学習の講義を見て勉強したので学習メモ。
第1回 1. 機械学習概論と単回帰 (1)。
用語メモ
- 機械学習とは・・・?
- 人間が持っている学習能力(知的処理)をコンピューターにできるようにさせる
- 人工知能
- 人間ができる知的処理を計算機にやらせましょう。人工知能という概念が機械学習を包含しているが、近年&一般人向けには人工知能≒機械学習と解釈してOK
- 強い人工知能
- 人間の脳と同じ仕組みで同じ処理をコンピューターにやらせる。
- 弱い人工知能
- 同じ仕組みじゃないくて良いから人間と同じことができるようになって欲しい。過程はどうあれアウトプットが目的に即していればよい。
引用(講義ポイント)メモ
教師あり | 教師なし | |
---|---|---|
予測対象が連続値 | 回帰、推薦 | 次元削減(主成分分析) |
予測対象が離散値 | 分類 | クラスタリング |
- 連続値 ·s·s·s 温度とか
- 離散値 ·s·s·s ニュースカテゴリ(政治、スポーツ、芸能)とか、
基本的には予測対象が連続の方が数学的には扱いやすいので、回帰やってから徐々に離散にうつっていく。
機械学習では全てのデータはベクトルであると考える。これは特徴的な考え方。本講義ではデータからベクトルに変換されたものを特徴量と呼ぶ。画像データの場合はRGB値なのでベクトルにするのは容易そうだが、例えばテキストデータだとベクトル値に変換するのは難しい。データからベクトルに変換するところに一つ難しさがある。
機械学習(教師あり、なし共に)のアルゴリズムは特徴量から概念へ写像を機械学習で獲得する。
いっかい概念を獲得してしまえばデータを与えれば概念に機械学習が変換できるようになる。
$$t=wx+b$$
\(b\)はバイアスパラメータと呼ばれる。
特徴量から目標値を予測する線形式を考える。
$$quality = w_1 * fixed\_acidity + b_1$$
$$quality = w_2 * volatile\_acidity + b_2$$
10次元ある特徴量ごとに線形式(一次関数)で目的変数である quality が予測される。
じゃぁそれをどうやって数学的に言葉にするかというと、予測誤差が小さいということ。
\(x\) が観測されたときに\(t\) の実測値とモデルによる予測値の Gap を計算する。Gap は\(x\) の値ごとに異なるため、与えられた\(x\) に対して誤差を全て足し合わせて総合的に良い悪いを判断する。
(散布図の)真ん中あたり通っているというのは感覚的にはあっていて、全部のデータに対する誤差が総合的に小さいから真ん中を通っている。