我正在尝试用Python实现AdaBoost算法。
我有一组包含m个弱分类器的列表,称为classifiers
。
我有一个名为_D的向量,存储当前迭代的分布值。
我的代码如下(向量是numpy数组):
for t in range(m): chosen_examples_indexes = [] for i, d in enumerate(_D): if np.random.binomial(1, d) == 1: chosen_examples_indexes.append(i) training_examples = examples[chosen_examples_indexes]
问题是_D的使用是否正确。如果不正确,正确的使用方法是什么?
回答:
AdaBoost的核心版本使用分布D来加权样本,而不是抽样样本(尽管在极限情况下这几乎是一样的,但在固定长度的场景中这是完全不同的)。
因此,在你的记号中,你只需这样做
X, y = # 从examples中获取训练数据for t in range(m): classifiers[t].fit(X, y, sample_weights=_D) # 根据结果更新_D
如果你的分类器不支持sample_weights,那么这个问题就更复杂了,解决方案大致如你所提供的,但是如果可能的话,总是应该优先使用加权,因为这是我们感兴趣的直接优化,而不是抽样的随机近似。
for t in range(m): chosen_examples_indexes = np.array([np.random.random() < _d for _d in _D]) training_examples = examples[chosen_examples_indexes] X, y = # 从training_examples中获取训练数据 classifiers[t].fit(X, y) # 根据结果更新_D