翻訳と辞書
Words near each other
・ AD.POLICE
・ AD/Cycle
・ Ad:tech
・ ad_hoc
・ ADA
・ Ada
・ Ada (ISO 639)
・ Ada95
・ ADABAS
・ Adabas
・ AdaBoost
・ ADAC
・ ADACHI TRIBE
・ adactylia
・ adage
・ adagio
・ Adam
・ Adam Air
・ Adam Freeland
・ Adam M-309


Dictionary Lists
翻訳と辞書 辞書検索 [ 開発暫定版 ]
スポンサード リンク

AdaBoost : ウィキペディア日本語版
AdaBoost
AdaBoost(Adaptive Boosting、エイダブースト、アダブースト)は、Yoav FreundRobert Schapireによって考案された〔Yoav Freund, Robert E. Schapire. "A Decision-Theoretic Generalization of on-Line Learning and an Application to Boosting" , 1995〕機械学習アルゴリズムである。メタアルゴリズムであり、他の多くの学習アルゴリズムと組み合わせて利用することで、そのパフォーマンスを改善することができる。AdaBoostは前の分類機の間違いに応じて調整された次の分類機を作るという意味で適応的(Adaptive)である。AdaBoostはノイズの多いデータや異常値に影響を受ける。しかし、いくつかの場面では、多くの学習アルゴリズムより過剰適合の影響を受けにくい。
AdaBoost は、それぞれの標本に対し、弱い分類器(classifier tを、 t = 1からt = Tまで順に適用し、それぞれの分類器が正解したか否かを判断する。間違って分類された標本に対応する重みD_は、より重くされる(あるいは、正しく分類された標本の場合は、重みを減らす)。これらの標本に対する重みから、次のtのループでは正しい分類器を早く探す事が出来る。
== 二分類のアルゴリズム ==
Given: (x_,y_),\ldots,(x_,y_) where x_ \in X,\, y_ \in Y = \
Initialize D_(i) = \frac, i=1,\ldots,m.
For t = 1,\ldots,T:
* Find the classifier h_ : X \to \ that minimizes the error with respect to the distribution D_:
: h_ = \underset \; \epsilon_, where \epsilon_ = \sum_^ D_(i)\ne h_(x_)
* if \epsilon_ > 0.5 then stop.
* Choose \alpha_ \in \mathbf, typically \alpha_=\frac\textrm\frac where \epsilon_ is the weighted error rate of classifier h_.
* Update:
: D_(i) = \frac
where Z_ is a normalization factor (chosen so that D_ will be a probability distribution, i.e. sum one over all x).
Output the final classifier:
: H(x) = \textrm\left( \sum_^ \alpha_h_(x)\right)
The equation to update the distribution D_ is constructed so that:
: - \alpha_ y_ h_(x_) \begin <0, & y(i)=h_(x_) \\ >0, & y(i) \ne h_(x_) \end
Thus, after selecting an optimal classifier h_ \, for the distribution D_ \,, the examples x_ \, that the classifier h_ \, identified correctly are weighted less and those that it identified incorrectly are weighted more. Therefore, when the algorithm is testing the classifiers on the distribution D_ \,, it will select a classifier that better identifies those examples that the previous classifer missed.

抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)
ウィキペディアで「AdaBoost」の詳細全文を読む




スポンサード リンク
翻訳と辞書 : 翻訳のためのインターネットリソース

Copyright(C) kotoba.ne.jp 1997-2016. All Rights Reserved.