教師あり、半教師あり、教師なし、強化学習の概要
1. 概要
機械学習は、数学的および統計的アプローチを適用して、機械にデータから学習させることで構成されます。 これは、4つの大きな技術ファミリーで構成されています。
- 教師あり学習
- 半教師あり学習
- 教師なし学習
- 強化学習
この記事では、機械学習の目的と、特定の手法をいつ使用する必要があるかについて説明します。 したがって、簡単な例に基づいて、それらがどのように機能するかを調べます。
2. 教師あり学習
教師あり学習は、ラベル付けされたデータを機械学習モデルに提供することで構成される手法です。 ラベル付けされたデータセットは通常、経験から収集されたデータであり、経験的データとも呼ばれます。 さらに、データの品質を向上させたり、ギャップを埋めたり、トレーニング用にデータを最適化したりするための準備が必要になることがよくあります。
例として、次の種類のワインのデータセットを取り上げましょう。
タイプ | 酸度 | 二酸化炭素 | pH |
---|---|---|---|
白い | .27 | 45 | 3 |
赤 | .3 | 14 | 3.26 |
白い | .28 | 47 | 2.98 |
白い | .18 | 3.22 | |
赤 | 16 | 3.17 |
次に、準備後の様子を見てみましょう。
タイプ | 酸度 | 二酸化炭素 | pH |
---|---|---|---|
1 | .75 | .94 | .07 |
0 | 1 | 0 | 1 |
1 | .83 | 1 | 0 |
1 | 0 | .52 | .86 |
0 | .67 | .06 | .68 |
データセットの品質(セルの欠落)に関連する問題を修正し、学習プロセスを容易にするために最適化しました。 たとえば、redとwhiteの値がデジタル値に置き換えられていることがわかります。
ユースケースに応じて、分類モデルまたは回帰モデルのいずれかを使用します。
それらの用語が何を意味するのか、そしてどれが最適かを選択する方法を発見しましょう。
2.1. 分類
まず、車の画像のデータセットがあると仮定しましょう。 これらの画像をタイプ別に分類します:セダン、トラック、バンなど。 したがって、この種のユースケースでは、分類モデルを使用する必要があります。
このタイプのモデルは、事前定義された網羅的なクラスのいずれかに入力を分類します。この例では、車のタイプごとに分類します。
ただし、その前に、正しい出力クラスでラベル付けされた車の画像の大規模なセットをフィードします。 これがトレーニングステップと呼ばれるものです。
その後、モデルは、これまで処理されたことのない別のラベル付き画像のセットでテストされます。 このステップは、操作する新しいデータが与えられた場合にモデルがどのように動作するかを知るために重要です。
最後に、結果が特定のレベルの正しい予測に達している場合、モデルは成熟していると見なすことができます。 レベルは通常、ユースケースの重要度によって異なります。 たとえば、スパムを除外するモデルは、自動車両を操作するモデルほど重要ではありません。 損失関数を使用してモデルの精度を計算します。
例として、以下の画像は、catとcatではないの2つのクラスで構成される分類モデルの例です。
分類に使用されるアルゴリズムのいくつかをリストしてみましょう。
- ロジスティック回帰
- ランダムフォレスト
- デシジョンツリー
- サポートベクターリグレッサ
- k-最も近い隣人
2.2. 回帰
一方、回帰では、クラスは出力として提供されませんが、固有の値は予測または予測とも呼ばれます。
回帰モデルを使用して、履歴データに基づいてこれらの値を予測します。 このように、分類モデルと大差ありません。 また、トレーニングステップとテストステップも必要です。
たとえば、人々の年齢とそれぞれの身長があるとしましょう。 このデータを使用して、年齢に基づいて、誰かの身長が最も高くなる可能性が高いモデルを構築できます。
回帰に使用できるアルゴリズムを見てみましょう。
- 線形回帰
- ランダムフォレスト
- デシジョンツリー
- サポートベクターリグレッサ
- k-最も近い隣人
それらのほとんどが分類サブセクションにもリストされていることに気づきました。
3. 教師なし学習
教師あり学習とは対照的に、教師なし学習は、ラベルのないデータを操作することで構成されます。実際、これらのユースケースのラベルを取得するのは難しいことがよくあります。 たとえば、データに関する十分な知識がないか、ラベル付けに費用がかかりすぎます。
さらに、ラベルがないため、トレーニング済みモデルの目標を設定するのが困難です。 したがって、結果が正確であるかどうかを測定することは複雑です。 その場合でも、複数の手法を使用すると、データをより適切に把握できる結果を得ることができます。
3.1. クラスタリング
クラスタリングは、いくつかの機能に基づいて類似アイテムのクラスターを検出することで構成されます。 言い換えれば、この手法はデータのパターンを明らかにするのに役立ちます。
たとえば、車で構成される入力があるとします。 さらに、データセットにはラベルが付けられていないため、類似した機能または機能のセットがクラスターとして何につながる可能性があるかはわかりません。 クラスタリングモデルはパターンを見つけます。 例として、以下に示すケースでは、それぞれの色を使用して車をグループ化する方法を見つけます。
いくつかのクラスタリングアルゴリズムを発見しましょう:
- k-クラスタリングを意味します
- 階層的クラスタリング
3.2. 次元削減
ディメンション性とは、データセット内のディメンションの数を指します。たとえば、ディメンションはフィーチャまたは変数を表すことができます。 データセット内のエンティティを記述します。
この手法の目的は、異なる次元間の相関関係を検出することです。 つまり、データセット機能の冗長性を見つけて削減するのに役立ちます。 例として、同じ情報を異なる形式で提供する2つの機能を考えることができます。 結果として、アルゴリズムはこれらの列の1つだけを圧縮されたサブセットに保持します。
その後、重要な情報を失うことなく、必要最小限の寸法のみを保持します。 最後に、この手法は、より良いデータセットを取得し、さらなるトレーニングステップを最適化するのに役立ちます。
次元削減アルゴリズムの網羅的ではないリストに注意することができます。
- 主成分分析
- 線形判別分析
- 一般化判別分析
- カーネル主成分分析
4. 半教師あり学習
教師あり学習と教師なし学習と同様に、半教師あり学習はデータセットの操作で構成されます。
ただし、半教師あり学習のデータセットは、ラベル付き部分とラベルなし部分の2つの部分に分割されます。 この手法は、データにラベルを付ける場合や、ラベルを付けたデータを収集するのが難しすぎる場合や費用がかかりすぎる場合によく使用されます。 ラベル付けされたデータの一部も品質が悪い可能性があります。
たとえば、癌を検出するために医用画像を使用する場合、データセットにラベルを付ける医師を配置することは非常に費用のかかる作業です。 さらに、それらの医師は他にもっと緊急の仕事をしなければなりません。 たとえば、以下では、医師がデータセットの一部にラベルを付け、他の部分にはラベルを付けていないことがわかります。
最後に、この機械学習の手法は、データセットが部分的にラベル付けされている場合でも、優れた精度を発揮することが証明されています。
5. 強化学習
の 強化学習、 システム 学ぶ 排他的に から a シリーズ の 援軍。 それらの できる なれ ポジティブ また ネガティブ inシステム目標との関係。ポジティブなものは「報酬」と呼ばれ、一方、ネガティブなものは「罰」と呼ばれます。
たとえば、ビデオゲームをプレイしているモデルを考えてみましょう。 システムは、より多くのポイントを獲得すると報酬を受け取ります。 しかし、負けた場合、モデルは罰を受けます。 その結果、モデルは戦略の観点からどの動きが良かったかを特定できます。
次に、ムーブの値が相互に加算されて、短期的な戦略と長期的な戦略が構築されます。 結果として、モデルはゲームのプレイ方法を学び、可能な限り多くの賞を蓄積します。
最後に、モデルは各アクションと報酬、またはアクションと報酬のバッチごとに進化します。
強化学習のいくつかのアルゴリズムは次のとおりです。
- State-action-reward-state-actionのようなSARSA
- Q学習
- トンプソンサンプリング
- 信頼限界の上限
- モンテカルロ木探索
6. 適切なアプローチを選択する方法は?
理想的な遺伝的アルゴリズムは存在しません。 各アルゴリズムには長所と短所があります。 ユースケースとさまざまな要因に応じて、どちらかのアルゴリズムを選択します。
アルゴリズムを選択する際に考慮すべきいくつかの非網羅的なポイントを見てみましょう。
- 問題の種類– 解決すべき問題を念頭に置いて、同様の問題に対して良好な結果を提供することが証明されているアルゴリズムを選択します。
- 利用可能なサンプル数– 一般に、データセットが大きいほど優れていますが、一部のアルゴリズムは小さなデータセットでもうまく機能します(Naive Bayes、KNeighbors Classifier、Linear SVC、SVRなど)。
- モデルのトレーニングに使用されるデータ量と比較したモデルのアルゴリズムの複雑さ– より正確には、アルゴリズムが複雑すぎても、トレーニングされたデータが非常に少ない場合、柔軟性が高すぎて、結果として生じる可能性があります。過剰適合
- 期待される精度– 精度の低い機械学習モデルは、損失を最小限に抑えることを目的として、他のモデルよりもはるかに速くトレーニングできます。
7. 結論
結論として、機械学習を適用するための複数の手法を発見しました。 これらの手法にはさまざまな種類があることがわかりましたが、すべてに共通点があります。それらは常に数学と統計の手法で構成されています。