在机器学习中的分类问题中,假设可以描述如下。
hθ(x)=g(θ'x)z = θ'xg(z) = 1 / (1+e^−z)
为了得到离散的0或1分类,我们可以将假设函数的输出翻译如下:
hθ(x)≥0.5→y=1hθ(x)<0.5→y=0
我们的逻辑函数g的行为方式是,当其输入大于或等于零时,其输出大于或等于0.5:
g(z)≥0.5whenz≥0
记住。
z=0,e0=1⇒g(z)=1/2z→∞,e−∞→0⇒g(z)=1z→−∞,e∞→∞⇒g(z)=0
所以,如果我们输入给g的是θTX,那么这意味着:
hθ(x)=g(θTx)≥0.5whenθTx≥0
从这些陈述中我们现在可以说:
θ'x≥0⇒y=1θ'x<0⇒y=0
如果决策边界是将y=0和y=1区域分隔开的线,由我们的假设函数创建:
这部分与决策边界有什么关系?或者决策边界算法从何而来?
回答:
由其他技术论坛的发帖者提供。
求解theta’*x >= 0和theta’*x<0可以得到决策边界。不等式的右边(即0)来自于Sigmoid函数。
Theta为你提供了最适合训练集的假设。
从theta中,你可以计算决策边界 – 它是(X * theta) = 0的点的轨迹,或者等价于g(X * theta) = 0.5的地方。