我正在尝试将一些旧代码从使用sklearn转换为Keras实现。由于保持相同的操作方式至关重要,我想了解我是否做得正确。
我已经转换了大部分代码,但是在转换sklearn.svm的SVC分类器时遇到了麻烦。目前的情况如下:
from sklearn.svm import SVCmodel = SVC(kernel='linear', probability=True)model.fit(X, Y_labels)
非常简单,对吧。然而,我在Keras中找不到SVC分类器的对应物。所以,我尝试了以下方法:
from keras.models import Sequentialfrom keras.layers import Densemodel = Sequential()model.add(Dense(64, activation='relu'))model.add(Dense(1, activation='softmax'))model.compile(loss='squared_hinge', optimizer='adadelta', metrics=['accuracy'])model.fit(X, Y_labels)
但是,我认为这完全不对。请问您能帮我找到sklearn中SVC分类器在Keras中的替代方案吗?
谢谢您。
回答:
如果您在制作分类器,您需要使用squared_hinge
和regularizer
,以获得完整的SVM损失函数,如这里所示。因此,您还需要在执行激活之前拆分最后一层以添加正则化参数,我在这里添加了代码。
这些更改应该会给您带来输出
from keras.regularizers import l2from keras.models import Sequentialfrom keras.layers import Densemodel = Sequential()model.add(Dense(64, activation='relu'))model.add(Dense(1), kernel_regularizer=l2(0.01))model.add(activation('softmax'))model.compile(loss='squared_hinge', optimizer='adadelta', metrics=['accuracy'])model.fit(X, Y_labels)
此外,Keras中为二元分类实现了hinge
,所以如果您正在处理二元分类模型,请使用下面的代码。
from keras.regularizers import l2from keras.models import Sequentialfrom keras.layers import Densemodel = Sequential()model.add(Dense(64, activation='relu'))model.add(Dense(1), kernel_regularizer=l2(0.01))model.add(activation('linear'))model.compile(loss='hinge', optimizer='adadelta', metrics=['accuracy'])model.fit(X, Y_labels)
如果您无法理解文章或对代码有疑问,请随时评论。我之前也遇到过同样的问题,这个GitHub讨论串帮助了我理解,您也可以看看,有些想法直接来自这里 https://github.com/keras-team/keras/issues/2588