这学期我在学习机器学习算法,但我不太明白在运行梯度下降法并更新参数theta后,这些参数是如何使用的,尤其是在逻辑回归中。简而言之,我的疑问是参数theta更新后,决策边界是如何引导的。
回答:
在使用梯度下降法估计参数theta后,你可以使用这些计算得到的参数来进行预测。
对于任何输入x,你现在可以计算出预测结果y。
机器学习的最终目标是进行预测。
因此,你会收集大量的观察数据x和y。其中x是你的输入,y是你的输出。在逻辑回归的情况下,y是两个值之一。例如,收集一批标记为垃圾邮件或非垃圾邮件的电子邮件(x),y为1表示垃圾邮件,0表示非垃圾邮件。或者收集一批标记为健康或不健康的医学图像…
将所有这些数据输入你的机器学习算法。你的算法(例如梯度下降法)会计算出theta系数。
现在你可以使用这些theta系数来对新的x值进行预测。例如,对于系统从未见过的新电子邮件,使用theta系数,你可以预测它是否是垃圾邮件。
至于绘制决策边界,当你的x只有两个维度时,这是可行的。你可以将一个维度放在每个轴上。图表中的点就是你的y值。你可以用不同的颜色或形状来区分结果是哪一种(即你的y是0还是1)。
在实际操作中,这些图表在讲课时很有用,可以帮助理解你试图做什么或实现什么。但在现实中,每个输入X可能是一个包含许多值的向量(远不止两个)。因此,绘制决策边界变得不可能。