以下是根据您的要求重新写作的版本:
《人工智能的数学基础》读书笔记第15章:第三章拟合数据的函数(5)
在矩阵运算中,大矩阵相乘是非常昂贵的操作;相反,将矩阵乘以向量更为高效。我们在计算过程中尽量避免矩阵之间的相乘,而是选择使用向量与矩阵相乘。例如,在正常方程中,我们优先计算,避免计算。为了解决这个问题,我们可以使用X的伪逆来解决线性系统。伪逆允许我们在没有常规逆矩阵的情况下进行反转操作。我们将在第11章中详细讨论伪逆。
我们刚刚找到了权重向量,它在我们的训练数据和线性回归训练函数之间提供了最佳拟合。我们使用了一种解析方法(计算损失函数的梯度并将其设置为零)来导出正态方程给出的解。这是我们能够导出解析解的少数情况之一。所有其他寻找最小化方法的都是数值方法。
我们需要避免过度拟合训练数据。我们计算的给出了使训练函数最适合训练数据的ω值,但过度拟合意味着训练函数可能会接收噪声,而不仅仅是数据中的信号。我们刚刚提到的解决方案甚至最小化问题本身都需要进行修改,以防止过度拟合。正规化或提前停止在这里非常有帮助。我们将花一些时间来讨论第4章中的内容。
这是通往回归的漫长道路。我们必须通过微积分和线性代数来前进,因为我们现在才刚刚开始。接下来将介绍即将到来的机器学习模型——逻辑回归、支持向量机、决策树和随机森林——它们只是将相同的思想应用于不同的函数。
逻辑回归主要用于分类任务。我们首先解释如何将模型应用于二分类任务(例如,癌症/非癌症、儿童安全/不安全、可能偿还/不太可能等)。然后我们将模型推广到分类为多个类(例如,将手写数字图像分类为0、1、2、3、4、5、6、7、8或9)。在这种情况下,我们依然使用相同的数学设置:
训能方面,逻辑回归的训练函数计算特征的线性组合并添加一个常数偏差项。但它不是按原样输出结果,而是通过逻辑函数进行转换。逻辑函数的输出值介于0到1之间,因此可以解释为一个数据点属于某个类的概率。如果输出小于0.5,则将数据点分类为属于第一类;如果输出大于0.5,则将数据点分类为另一类。
损失函数方面,我们需要为分类设计一个好的损失函数。我们的目标是惩罚错误分类的训练数据点。在我们的标记数据集中,如果一个实例属于一个类,那么其ytrue为1;如果不是,那么其ytrue为0。我们希望训练函数为属于正类的训练实例输出高预测值(通过逻辑函数进入),并为不属于该类的实例输出低预测值。如果线性组合加偏置步骤给出低t值而导致正实例被错误分类,或者给出高t值而导致负实例被错误分类,则对其进行惩罚。我们使用的损失函数是错误分类一个训练实例的成本。对于多个类别的分类任务,我们可以使用softmax回归来推广逻辑回归的思想。
优化方面,与线性回归不同,如果我们决定通过设置来最小化损失函数,则ω’s没有封闭形式的解公式。好消息是,这个函数是凸的,所以第4章中的梯度下降(或随机或小批量梯度下降)可以保证找到一个最小值(如果学习率不是太大,如果我们等待的时间足够长)。但是要注意softmax回归一次只预测一个类别,不适用于多输出的场景。对于图像数据等包含大量特征的数据集来说,我们需要使用复杂的模型如网络来进行处理和分析。图像数据的每个像素强度都可以作为一个特征进行训练模型的输入使用处理分析这类数据的过程包括灰度图像处理和彩色图像处理两个步骤在这个过程中需要利用张量等技术进行数据的处理和存储最后我们通过总结数据和评估机器学习模型在相应任务上的性能来分析数据和评估模型的效果随着机器学习技术的发展越来越多的应用场景将被拓展和解决在构建复杂模型的道路上还有许多挑战需要我们去克服通过学习数学基础我们将会更加深入地理解人工智能的工作原理及其未来发展潜力并从中收获无限的乐趣和知识作为人工智能工程师我们应当始终记住不忘初心坚持深入探索和实践为实现更好的人工智能不断奋斗学习和创新不断努力向未知进发。