线性回归:y = w1·x1 + w2·x2 + ... + bias。找到使预测值和实际值之间差异最小化的权重(通常是均方误差)。这是最简单的ML模型,在关系大致线性时仍被广泛使用。逻辑回归(尽管名字里有回归)实际上是分类——它通过对线性输出应用sigmoid函数来预测类别的概率。
用神经网络替代线性函数,你就可以学习任意复杂的关系。输出层有一个没有激活函数(或线性激活)的神经元,损失函数通常是均方误差或平均绝对误差。这用于:预测价格、估计完成时间、预测需求,以及任何输出是数字而非标签的任务。
有趣的是,LLM可以通过文本执行回归:“给定这些房屋特征,预测价格”可以通过提示LLM来处理。研究表明LLM在简单回归任务上表现出人意料地好,尽管它们在精度关键的应用中不如专用回归模型可靠。LLM的优势在于当回归需要理解非结构化上下文时:“给定这个产品评论,预测星级评分”将文本理解与数值预测结合在一起。