AIでいう「機械学習」、様々な手法があります。
目次
機械学習のカテゴリー
AIでいう「機械学習」、様々な手法があります。
- 教師あり学習
- 教師なし学習
- 強化学習
機械学習のカテゴリー | 概要 |
---|---|
教師あり学習 | 与えられた入力データをもとに、そのデータがどのような出力になるのか識別・予測する。 ・「回帰問題」(数字を予測する場合=連続する値) ・「分類問題」(カテゴリーなどを予測する場合=連続しない離散値) |
教師なし学習 | 入力データそのものが持つ構造・特徴を対象にする。 ・顧客層、関係性など。 |
強化学習 | 行動を学習する仕組み(目的とする報酬を最大化するためにどのような行動を取ればよいかを学習していく)。 ・エージェント:環境→状態→フィードバック→判断→行動 ※”行動”のよさを報酬(スコア)としてフィードバックしていく |
それぞれの強化学習のカテゴリーは、優劣があるわけではなく、対象とする課題の種類が異なるのみ。
「教師なし学習」の手法
- 階層なしクラスタリング(k-means法)
- 階層ありクラスタリング(ウォード法、最短距離法)
- 主成分分析
- 協調フィルタリング
- トピックモデル
階層なしクラスタリング(k-means法)
- データをk個のグループに分けることを目的としている→「k-means法」
- 元データからグループ構造を見つけ出し、それぞれをまとめるもの
- グループ=「クラスタ」
- ①各データを適当にk個のクラスタに振り分ける
②各クラスタの重心を求める
③k個の重心と各データとの距離を求め、各データを最も距離の近い重心に対応するクラスタに振り分け直す
④重心の位置がほぼ変化しなくなるまで繰り返す
階層ありクラスタリング(ウォード法、最短距離法)
- クラスタの階層構造を求めるまで行う手法→「ウォード法」、「最短距離法」
- 「ウォード法」
→各データの平方和の小さい順にクラスタを作り、階層構造を作っていく - 「最短距離法」
→最も距離が近い2つのデータ(クラスタ)を選び、それらを1つのクラスタにまとめ、階層構造を作っていく - 樹形図で表すことができる→「デンドログラム」
主成分分析
- データの特徴量間の関係性(相関)を分析することで、データの構造を掴む手法
- 特に特徴量の数の多い場合に用いられる
- 相関を持つ多数の特徴量から相関のない少数の特徴量へと次元削減することが主な目的
- 特徴量が少なくなるためデータ分析がしやすくなったり、教師あり学習の入力として用いる場合に計算量を減らせるというメリットがある
- 次元削減→他に「特異値分解(SVD)」「多次元尺度構成法(MDS)」「t-SNE」
協調フィルタリング
- レコメンデーションに用いられる手法のひとつ
- 対象ユーザーは買っていないが、似ているユーザーは買っている商品を推薦する
- ユーザー間の類似度を定義(同じ商品へのレビューの情報を参照)
- 事前にある程度の参考データが必要→「コールドスタート問題」
- 「コンテンツベースフィルタリング」
→ユーザーでなく商品に何かしらの特徴量を付与し、特徴が似ている商品を推薦する
トピックモデル
- クラスタリングを行うモデル
- 「潜在的ディリクレ配分法(LDA)」が有名
- 各文書は、複数の潜在的なトピックから確率的に生成されると仮定したモデル