因为我认为残差=(实际值 – 预测值)。让我们以线性回归的实际函数为例:
y= mx+c+error
,我们在预测中得到的函数是y=mx+c
,通过
最小化RSS(残差平方和)。那么残差不就是误差吗?为什么这两个术语被描述为不同呢?
如果我错了,请纠正我。
回答:
在实际应用中,以及在机器学习的语境下,这两个术语被视为同义词。
“残差”这一术语源自线性回归在统计学中的起源;由于在统计学中“误差”一词(曾经)有与今天的机器学习中不同的含义,因此需要一个不同的术语来区分因变量的估计(预测)值与其观察值之间的差异,因此有了“残差”。
您可以在维基百科条目Errors and residuals(注意是复数)中找到更多详情;引用如下:
在统计学和优化中,误差和残差是两个密切相关且容易混淆的度量,用于衡量统计样本中某一元素的观测值与其“理论值”之间的偏差。误差(或扰动)是观测值与某个感兴趣量的真实值(例如,总体均值)之间的偏差,而残差是观测值与该感兴趣量的估计值(例如,样本均值)之间的差异。这种区别在回归分析中最为重要,在那里这些概念有时被称为回归误差和回归残差,并引出了学生化残差的概念。
请记住,以上内容来自统计学领域;在机器学习的语境中,我们使用“误差”(单数)一词来表示预测值与观测值之间的差异,而“残差(们)”这个术语几乎从不使用……