最近有感而发,决定开一个新坑:机器学习的数学基础V2(视频课程版)
提别提醒,视频课程在后面有链接,开新坑总得有些“废话”~
实际上,关注很久的朋友,应该知道,机器学习的数学基础这其实也不是什么新坑,我们之前也曾经出过一个机器学习的数学基础系列。
但是在我们团队使用下来,发觉只有讲义,大家的学习效率还是不是特别高,并且经常发现有些知识点单纯通过文字确实也不好理解,因此也就有了本次课程的“新坑”了。
相比于我们旧的机器学习的数学基础,本次V2版本会有如下加强:
-
毫无疑问,最大的变化就是配套了视频讲解
-
内容上,增加了更多的直观理解的讲解。这也是视频课程的好处,毕竟单纯的讲义其实并不方便做太多直观的表达;
-
虽然增加了直观理解,但是我个人认为不能只有直观理解,因此大部分内容增加了定理的证明,我个人认为,直观理解只是手段,一切都是以掌握知识为主,所以会更加定理证明。简而言之,就是证明+直观兼而有之,丰俭由人。
-
增加更多的例题。嗯,这也是为了帮助大家更好地掌握。
整体内容肯定是四大块,分别是:
当然,根据需要会适当有些混合型的小章节,例如解析几何,矩阵求导,信息论等,这些可能都会以单独的内容章节出现。
第一讲,就是我们的基础,微积分,大概3-4小时左右吧,内容目录如下:
好了,就到这里吧,视频课程链接如下:
最近有感而发,决定开一个新坑:机器学习的数学基础V2(视频课程版)
极限知识:两个重要极限
函数是阶乘在实数域上的推广,这样就能算小数的阶乘:
正式开始前,此处先对微分及导数进行一个概念的区分,大概可以记住这里的理解继续往下读:
导数:函数在某一点出的的变化率,反映的是相对量,形式: ,一般也记作
微分:函数在某一点处的有x的变化量(这个变化率趋向于无穷小)所引起函数的变化量,反映的是绝对量,形式 ;当 时, ,所以也有 、
导数是什么?最常用的两种是:
-
函数图像中,某点的切线的斜率;
虽然导数有很多含义,在物理场景中可能代表了瞬时速度,在函数曲线上可以代表切线的斜率,而归根到底,导数是函数增量 与自变量增量 之比 的极限,这个增量比称之为函数关于自变量的平均变化率,而导数 则为 在 处关于 的变化率。公式如下:
在表示上,我们除了写作 一般也有: ,这里面
这里的dy和dx,分别是y和x的微分,关于微分,我们会在后面继续介绍。
在一元函数上,对应的图像如下所示:
图中,示例函数为: ,点 为一元函数上的某点,从点 至函数任一点 , 函数的增量为 , 自变量的增量为 ,增量之比为 , 函数在 点的导数 即为函数在该点增量比的极限 ,对应的导数为在该店切线的斜率 2 ,对应的导函数 。其中红色线为 的割线,蓝色线为点 的切线,而当这个变化量 无穷小时,割线和切线重合了。
为了加深理解,我们再举一个物理的常用例子:有s代表路程(s=f(t)),t代表时间,我们知道平均速度 ,而在某一时间点 的瞬时速度就是
在这里,我们使用导数的定义来对导数进行计算:
(2) ( 为任意实数)
(1)常见的求导结果:
(3)左导数及右导数的关系(01常用函数的导数以及到导数的常用公式)
导数存在与左右导 数存在且相等为充要条件
例 求函数 在 处的导数. 解 .
所以, 不存在, 即函数 在 处不可导.
可看作由 复合而成,因此
例 设 ,求 . 解对于 ,我们可以看作由 , 复合而成.因
定义 1若函数 的导函数 在点 可导, 则称 在点 的导数为 在点 的二阶导数, 记作 , 即
同时称 在点 为二阶可导. 若 在区间 上每一点都二阶可导, 则得到一个定义在 上的二阶导函数,记作 , 或者简单记为 ,即有: 或 .
类似地,二阶导数的导数,叫做三阶导数,三阶导数的导数叫做四阶导数 一般地, 阶导数的导数叫做 阶导数,分别记作 或
例 求指数函数 的 阶导数. 解 .
微分:函数在某一点处的有x的变化量(这个变化率趋向于无穷小)所引起函数的变化量,反映的是绝对量,形式 ;当 时, ,所以也有
我们先考察一个具体问题。设我们的函数 ,对应实例,我们等于设一边长为x的正方形,它的面积 ,它是x的函数,若边长由 增加△x,相应地正方形面积的增量:
由两部分组成:第一部分 (即图中的阴影部分,即增量的主体部分);第二部分 关于 的高阶无穷小量。
一般地,当给 一个微小增量△x时,由此引起的正方形面积增量 可以近似地用第一部分来表示,而剩下的关于 的高阶无穷小量,我们认为这是近似误差。
定义:设函数y=f(x)定义在点 的某邻域 上。当给 一个增量△x, +△x∈ 时,相应地得到数的增量为 ,如果存在常数A,使得△y能表示成 ,则称函数f在点 可微,并称上式中的第一项 为 在点 的微分,记作 ,这个部分实际上就是 的主要线性增长部分;由定义可知函数的微分和增量仅相差一个关于 的高阶无穷小量。实际上微分做的事情就是用线性增长的主要部分 近似代替领域内的函数值,而忽略了高阶项
实际上,结合前面导数可知, (这一点我们将在下面继续阐述)
微分和差分, 微分和导数
函数 在点 处可微的充要条件是函数 在点 处可导。
若函数 在点 处可微,有 ,所以 ,其极限有
其中增量 分别称作自变量和因变量的差分, 分别是自变量和因变量的微分。实际上微分就是差分的线性主要部分。
-
对于 ,作为自变量的增量,我们不需要过多描述。
-
对于 ,,我们令 时, ;
-
对于 ,按照定义, ,我们利用前面的证明,以及 与 的关系,即可得到 或者说
-
特别地,对于导数 就是因变量差分与自变量差分之比(简称为差商)的极限值,也即微商。
例(数学分析_陈纪修):设 , 在 处, 有
当 时, 趋于 0 的阶比 的阶低, 因而 绝不可能表示成 的线性项 与高阶项的和.由定义, 函数 在 处是不可微的. 函数 虽然尤是 上的吋微函数, 但它在 和 上却 都是可微的(留作习题).
在定义上,我们已经数理清楚微分和导数的关系(绝对量与相对速度的关系)。关于差分和微分,定义也相对清楚了,但是还遗留一个问题,从数学来看,这里因变量和自变量的差分和微分为什么是不相等?某种意义上来说,y=x的话,y也是因变量,那究竟是相等还是不相等?另外,部分同学也有疑问,自变量此处的相等究竟是在趋向于无穷小出相等还是不需要无穷小处相等,那因变量呢?
这个问题,我认为还是要回到微分的本质来讨论,我认为微分实际上就是用线性函数去逼近原函数的微小变化量。了解了这一点,其实就可以很好去解释上面的问题了。单从 的公式上看,似乎确实不需要有无穷小的定义下,两者都是相等的,这也是很多人认为不需要在极限下去讨论这个问题。但是回到微分的本质上看,微分讨论的是,我们在微小变化中,以直代曲的近似,所以尽管结果上看两者是相等的,但是不在无穷小的情况下,我认为两者的讨论其实并无必要。
其次,可能更让人困惑的是,书中教材用自变量和因变量去讨论,我们看到自变量两者差分和微分是相等的,而因变量差分和微分还差了一个无穷小量,用一个定性问题去划分,确实是让人困惑。但是还是让我们回到本质上看,我们在做的是“微小变化情况下的,以直代曲”,那误差怎么来,就是因为近似来。但如果我们以直代直呢,那不就是不是近似,而是相等吗?那不就没有误差了吗?这就对了,我们讨论自变量的时候,我们是把函数定义为y=x,因此,这种情况下,我们确实没有含有误差。这种情况下,当函数是线性情况下,我们是不含有误差的,当然这样写,也是符合公式的,对于线性函数,我们的误差项不妨看作0,而事实上,常函数0我们当然可以把它看作是
与自变量不同,我们把自变量看作自身的线性函数,但是因变量呢?我们大部分讨论的都不是线性函数,就像教材中最经典的例子, ,这可是实打实的曲线,显然我们的近似,就是有误差的。
-
【干货收藏】2021最新版统计分析/机器学习最强整理指南
-
连载完毕|Python基础速查学习笔记下载!
-
SPSS最实用功能:自动建模与模型集成
-
建议收藏|机器学习中模型评估的详细剖析
关注后回复“ 视频课程”, 领取领取全套机器学习38课时学习视频!
关注后回复“ 指南”, 获取统计分析机器学习入门指南!