AI | 优化背后的数学基础

news/2024/7/7 18:49:40

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达

a0fbd448559366932d9b87d186414a97.png

e64b876952faeac8f3d66e2f4c9d4a17.png

编者按

什么是优化呢?优化就是寻找函数的极值点。既然是针对函数的,其背后最重要的数学基础是什么呢?没错,就是微积分。那什么是微积分呢?微积分就是一门利用极限研究函数的科学。本文从一维函数的优化讲起,拓展到多维函数的优化,详细阐述了优化背后的数学基础。

深度学习中的优化是一项极度复杂的任务,本文是一份基础指南,旨在从数学的角度深入解读优化器。

618550493be3a12ccbc31d1bc82d1206.png

一般而言,神经网络的整体性能取决于几个因素。通常最受关注的是网络架构,但这只是众多重要元素之一。还有一个常常被忽略的元素,就是用来拟合模型的优化器。

为了说明优化的复杂性,此处以 ResNet 为例。ResNet18 有 11,689,512 个参数。寻找最佳参数配置,也就是在 11,689,512 维的空间中定位一个点。如果暴力搜索的话,可以把这个空间分割成网格。假设将每个维度分成十格,那么就要检查 10^11689512(10 的 11689512 次方)组可能的配置,对每一组配置都要计算损失函数,并找出损失最小的配置。

10 的 11689512 次方是一个什么概念?已知宇宙中的原子才只有 10^83 个,宇宙的年龄只有 4.32 x 10^17 秒(约 137 亿年)。如果从大爆炸开始,每秒检查 10^83 个原子,我们现在才检查了 4.32*10^1411 个,远远小于上述网格可能的配置数。

所以优化器非常重要。它们就是用来处理这种难以理解的复杂性的。有了它,你就可以将训练网络的时间压缩在几天内,而不是数十亿年间。下文将从数学角度深入研究优化器,并了解它们是如何完成这一看似不可能的任务的。

优化的基础

我们从简单的地方开始。假设要最大化单变量函数。(在机器学习中,通常以最小化损失函数为目标,不过最小化就等同于最大化函数的负值。)

定义:

0c166af2a0bd6ad1d73fbb75123443c1.png

对函数作图:

efaa882734003ec7a38e5edefceeadfd.png

最直观的方法是将这条线划分成网格,检查每个点的值,然后选择函数值最大的点。正如引言中所说,这是不可扩展的,因此要找其他解决方案。将这条线想象成一座要爬到顶峰的山。假设位于红点处:

537bea939b9858fc5f8669ed666c25d1.png

如果要到达山峰,该往哪个方向走?当然,应该向斜率增加的地方前进。这个概念对应的是函数的导数。在数学上,导数定义为:

4b7e88728cdaa510f23b6c4e49659def.png

乍看之下,导数非常神秘,但它的几何意义非常简单。仔细看一下求导的点:

0534dbe58b2a13add95976c6fa611408.png

对任何 x 和 y,通过 f(x) 和 f(y) 的这条线定义为:

ff03fa00a4a15a9b72df52b24758e7f5.png

一般而言,如果用 at+b 定义一条直线,那称 a 为这条线的斜率。这个值既可以是正值也可以是负值,斜率为正,直线向上走;斜率为负,直线向下走。绝对值越大,直线越陡。如果像导数定义中一样,让 y 越来越接近 x,那么这条线就会成为 x 处的切线。

6ca506945c2effa3c9aed06a9d5b27de.png

(图注)在 x=-2.0 时,f(x)的切线和逼近线。

切线为:

f50a98c11890ebac858a46552b20ae98.png

切线方向记为向量(1,f’(x))。

如果从 x_0=-2.0 的位置开始登山,应该沿切线上升的方向前进。如果切线的斜率较大,可以大步迈进;如果斜率接近零,应该小步小步往上爬,以免越过峰值。如果用数学语言表示,我们应该用下面这种方式定义下一个点:

3ad9c4838b7b8f392b8344a608866bf8.png

式中 λ 是个参数,设置前进的步长。这就是所谓的学习率。通常,后续步骤定义为:

ee90d35b5cbec0a3b9d63f51606a60a6.png

正导数意味着斜率在增加,所以可以前进;而负导数意味着斜率在减少,所以要后退。可视化这个过程:

3adfaa262716ddd9b1d0f284b299f1fc.png

如你所见,这个简单的算法成功地找到了峰值。但如图所示,这并非函数的全局最大值。在所有的优化算法中,这都是一个潜在的问题,但还是有解决办法的。

在这个简单的例子中,我们只最大化了单变量函数。这样虽然可以有效地说明这个概念,但在现实生活中,可能存在数百万变量,神经网络中就是如此。下一部分将会介绍,如何将这样简单的算法泛化到多维函数的优化。


多维优化

在单变量函数中,可以将导数视为切线的斜率。但遇到多个变量,则不能如此。先来看个具体的例子。定义函数:

0793734a1633c1fb9061dfad3877ebc9.png

这个函数将是这部分的 toy example 。

f560692735354ef829edb4031058d972.png

对 f(x,y)作图。

这是一个有两个变量的函数,图像是一个曲面。马上可以发现,这样很难定义切线的概念,因为与曲面上一个点相切的线有很多。事实上,可以做一个完整的平面。这就是切平面。

14d475653e838e9b18c258c0e94cad99.png

f(x,y)在点 (0,0) 处的切平面。

但切平面有两个非常特别的方向。以点 (0,0) 处的切平面为例。对每一个多变量函数来说,先固定所有变量只取一个能动的变量,这样这个函数基本上就变成单变量函数了。示例函数变为:

7fccef255ce6675fb10244e3cafcb819.png

和:

7fe5f01a535f8682111e6cf6a8e0d78c.png

可以用垂直于坐标轴的平面分割曲面,来可视化上面这两个函数。平面和曲面相交处就是 f(x,0) 或 f(0,y),这取决于你用哪个平面。

56e6d91c2f7594269d704f5144163afd.png

用垂直的平面切割曲面,可视化 f(0,x)。

对这些函数,就可以像上文一样定义导数了。这就是所谓的偏导数。要泛化之前发现峰值的算法,偏导数起着至关重要的作用。用数学语言定义:

f495c9fe48514c8cc3e9cdf0b0efe925.png

每个偏导数表示切平面上的一个方向。

0083ec6b5253b77b8e11ba20c72515af.png

切平面上偏导数的方向。

偏导数的值是特殊切线的斜率。最陡的方向根据梯度确定,定义为:

60e3d38e1db589be10bc7f5547a58053.png

注意,梯度是参数空间中的方向。可以轻松在二维平面中绘制出梯度,如下图所示:

4976b2f19aa073b67afacde6ab8d9799.png

f(x,y)的梯度。

综上所述,发现峰值的算法现在成为:

e44946fc90ffe16706272a8bb156233d.png

这就是所谓的梯度上升(gradient ascent)。如果要求函数最小值,就要沿负梯度的方向迈出一步,也就是下降最陡的方向:

be3a809af048bde78199bbf133a7cc24.png

这就是所谓的梯度下降(gradient descent),你可能会很频繁地看到它,因为在机器学习中,实际上是要最小化损失。

为什么梯度指向最陡的上升方向?

在这种情况下,要知道为什么梯度给出的是最陡峭的上升方向。为了给出精确的解释,还要做一些数学计算。除了用垂直于 x 轴或 y 轴的垂直平面切割曲面外,还可以用 (a,b) 任意方向的垂直平面切割曲面。对于偏导数,有:

7a2380ebe01a8fd34eb142f67bea3125.png

可以将它们视为 f(x,y) 沿 (1,0) 和(0,1)方向的导数。尽管这些方向特别重要,但也可以任意规定这些方向。也就是说,假设方向为:

0c6c5c2184fae11151a15d2cef1f7a40.png

这个方向的导数定义为:

e1a7b76e602ca1d67ce706e41000d641.png

注意,最后一个等式就是方向向量和梯度的点积,这可能和高中几何课堂上遇到的点积是相同的。所以:

问题是,哪个方向的方向导数最大?答案是上升程度最陡峭的方向,所以如果要优化,得先知道这个特定的方向。这个方向就是之前提过的梯度,点积可以写作:

7dcc306753625427ac17257ff639136b.png

d8d32df7cf42604c09b75bbecf54a3fb.png

式中的 |.| 表示向量长度,α是两向量间的夹角(这在任意维数上都是成立的,不只是二维)。显而易见,当 cosα=1,即 α=0 时,表达式取最大值。这就意味着这两个向量是平行的,所以 e 的方向和梯度方向是相同的。


训练神经网络

现在要从理论转战实践了,了解如何训练神经网络。假设任务是将有 n 维特征向量的图像分成 c 类。从数学角度看,神经网络代表将 n 维特征空间映射到 c 维空间的函数 f:

7580cd79abcb13348c47072edc46d3ff.png

神经网络本身是参数化的函数。方便起见,将参数标记为 m 维向量:

ec75a1eaf3d45a44022c0c30d10171dd.png

为了表现出对参数的依赖,习惯记为:

e4f9ec38904f542b085d2dac5c1465d7.png

将神经网络的参数空间映射为实数。损失函数记为:

470929fb016d8ae4973f6bb0711544a0.png

式中的909d800a2f25ebb1b13b4abfb1efa661.png是观测值为0121817f6aef37ba4542da5e7f95d100.png的第 i 个数据点

L 是损失函数项。例如,如果 J 是交叉熵损失,则:

6819c2d375bf5d4394b732b4bc7fc6c8.png

式中

baba1bbebd5f1d3fe72848cd1f5ab5a8.png

这看似简单,但难以计算。在真实世界中有数百万个数据点 N,更别说参数 m 的数量了。所以,一共有数百万项,因此要计算数百万个导数来求最小值。那么在实践中该如何解决这一问题?

随机梯度下降

要用梯度下降,得先计算:

a9e60ea5838fb78248498be34ce7a914.png

如果 N 很大,那么计算量就很大,而一般都希望 N 大一点(因为想要尽量多的数据)。可以化简吗?一种方式是忽略一部分。尽管这看起来像个不靠谱的方案,但却有坚实的理论基础。要理解这一点,首先注意 J 其实可以写成期望值:

b36bc65b8e995f79cf6358dce232da7a.png

式中的3874aa0137f824e340837fc53e885e02.png是训练数据给出的(经验)概率分布。可以将序列写成:

d91cce7a5497fa155201e6c794a4743e.png

这样就成了独立同分布的随机变量。根据大数定律:

974e1d541bab0f17612d6598e0cdd42b.png

式中f63111ea933c81ac96141200ea1116fb.png是真正的总体分布(这是未知的)。再详细点说,因为增加了训练数据,损失函数收敛到真实损失。因此,如果对数据二次采样,并计算梯度:

780a1efdaf4d1cd17c14e1d644552d9c.png

对某些 i,如果计算足够,仍然可以得到合理的估计。这就是所谓的随机梯度下降,记为 SGD (Stochastic Gradient Descent)。

我认为,研究人员和数据科学家能有效训练深度神经网络依赖于三个基础发展:将 GPU 作为通用的计算工具、反向传播还有随机梯度下降。可以肯定地说,如果没有 SGD,就无法广泛应用深度学习。

与几乎所有新方法一样,SGD 也引入了一堆新问题。最明显的是,二次采样的样本量要有多大?太小可能会造成梯度估计有噪声,太大则会造成收益递减。选择子样本也需要谨慎。例如如果所有子样本都属于一类,估计值可能会相差甚远。但在实践中,这些问题都可以通过实验和适当随机化数据来解决。

改善梯度下降

梯度下降(以及 SGD 变体)存在一些问题,因此这些方法在某些情况下可能会无效。例如,学习率控制着梯度方向上前进的步长。在这个参数上一般会犯两个错误。第一,步长太大,以至于损失无法收敛,甚至可能分散;第二,步长太小,可能因为前进太慢,永远都无法到达局部最小值。为了阐明这个问题,以 f(x)=x+sin x 函数为例进行研究:

5fee08016fc3d291ff645ec470ce697a.png

假设从 x_0=2.5 开始进行梯度下降,学习率 α 分别为 1、0.1 和 0.01。

c9f985b3f5896de5545678028945bf6c.png

理解起来可能不够直观,所以对每个学习率的 x-s 绘图:

5a5cbf8a216d3f168cfcc92078ad437d.png

当 α=1 时,图像在两点间震荡,无法收敛到局部最小值;当 α=0.01 时,收敛得似乎很慢。在本例中,α=0.1 似乎是合适的。那在一般情况下该如何确定这个值呢?这里的中心思想是,学习率不一定是恒定的。同理,如果梯度幅度很大,就应该降低学习率,避免跳得太远。另一方面,如果梯度幅度较小,那可能意味着接近局部最优值了,所以要避免超调(overshooting)的话,学习率绝对不能再增加了。动态改变学习率的算法也就是所谓的自适应算法。

最流行的自适应算法之一是 AdaGrad。它会累积存储梯度幅度和大小,并根据记录调整学习率。AdaGrad 定义了累积变量 r_0=0 并根据规则进行更新:

940f2cfa6ebfe391e40d59435daf45bd.png

式中的

383b4543e7962a2ea7f7c2044ab9273f.png

表示两个向量的分量乘积。将其用于度量学习率:

468641dd88eb38a57ca191e7f9c56018.png

式中的 δ 是为了保持数据稳定的数值,平方根是根据分量取的。首先,当梯度大时,累积变量会很快地增长,学习率会下降。当参数接近局部最小值时,梯度会变小,学习率会停止下降。

当然,AdaGrad 是一种可能的解决方案。每一年都会有越来越多先进的优化算法,来解决梯度下降相关的问题。但即便是最先进的方法,使用并调整学习率,都是很有好处的。

另一个关于梯度下降的问题是要确定全局最优值或与之接近的局部最优值。看前面的例子,梯度下降通常会陷入局部最优值。为了更好地了解这一问题和更好的解决办法,建议您阅读 Ian Goodfellow、Yoshua Bengio 和 Aaron Courville 所著的《深度学习》(Deep Learning)第八章(https://www.deeplearningbook.org/)。

深度神经网络的损失函数什么样?

前面的例子只可视化了非常简单的玩具示例,比如 f(x)=25sin x-x^2。这是有原因的:绘制超过两个变量的函数图像很难。考虑到固有的局限性,我们最多只能在三个维度上进行观察和思考。但为了了解神经网络中的损失函数,可以采取一些技巧。Hao Li 等人发表的论文《Visualizing the Loss Landscape of Neural Nets》(https://arxiv.org/pdf/1712.09913.pdf)就是有关这个的,他们选择两个随机方向,对二变量函数绘图,从而可视化损失函数。

cc0968dbd5e6ff21de9ce31a3a38daa6.png

(为了避免因尺度不变而引起的失真,他们还在随机方向中引入了一些归一化因素。)他们的研究揭示了在 ResNet 架构中,残差连接是如何影响损失,让优化变得更容易的。

d797311c7676de4f8f85a5e0ca6212cf.png

图像来源:Hao Li 等人所著《Visualizing the Loss Landscape of Neural Nets》(https://arxiv.org/pdf/1712.09913.pdf)。

无论残差连接做出了多显著的改善,我在这里主要是想说明多维优化的难度。在图中的第一部分可以看出,有多个局部最小值、峰值和平稳值等。好的架构可以让优化变得更容易,但完善的优化实践,可以处理更复杂的损失情况。架构和优化器是相辅相成的。


总结

我们在前文中已经了解了梯度背后的直观理解,并从数学角度以精确的方式定义了梯度。可以看出,对于任何可微函数,无论变量数量如何,梯度总是指向最陡的方向。从概念上来讲非常简单,但当应用在有数百万变量的函数上时,存在着很大的计算困难。随机梯度下降可以缓解这个问题,但还存在陷入局部最优、选择学习率等诸多问题。因此,优化问题还是很困难的,需要研究人员和从业人员多加关注。事实上,有一个非常活跃的社区在不断地进行改善,并取得了非常惊人的成绩!

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。

下载2:Python视觉实战项目52讲

在「小白学视觉」公众号后台回复:Python视觉实战项目即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。

下载3:OpenCV实战项目20讲

在「小白学视觉」公众号后台回复:OpenCV实战项目20讲即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。

交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~

d4be9cf56061abba9b8d1cb884d1ac8a.png

e673f9cf6d3bdc74ae3fbc85aeaf45d2.png


http://lihuaxi.xjx100.cn/news/269570.html

相关文章

域内渗透基本技巧

0x00 什么是域 有人说域是一种组织结构,是个安全边界。域也有另为一个名字,"活动目录"。不管域是什么,它总有一些特点,有了它,对管理一个机构的组织单元,人员,特别是计算机就方便了许…

企业数据库合规的最佳实践

PCI DSS当前对于数据库要求有下述明确的控制措施: • 对访问任意数据库的所有用户进行认证。 • 所有用户访问任何数据库时,用户的查询和操作(例如移动、拷贝和删除)只能通过编程性事务(例如存储过程)。 •…

python中读取文件过程中seek()函数的使用

python中读取文件过程中seek()函数的使用 目录 概述: 语法: 参数: 返回值: 实例: 概述: seek() 方法用于移动文件读取指针到指定位置。 语法: seek() 方法语法如下: 文件对象.seek(偏移量, 起始位…

深度整合英特尔傲腾,SmartX首发100us级超低延迟超融合解决方案

6 月 17 日,致力于超融合中高端市场的SmartX公司正式发布基于核心软件 SMTX OS 与英特尔 傲腾™ 持久内存的高性能、低延迟超融合解决方案与SmartX Halo P系列一体机。 SmartX 在业内首次将英特尔傲腾持久内存以App Direct Mode (应用直接访问模式&…

android悬浮动态权限,android应用内悬浮窗-自动贴边,不需要权限!

简单基于注释的API来处理运行时6.0权限配置热门度(没变化)10.0/10 (没变化) ">10.0活跃度(没变化)0.8/10 (没变化) ">0.8Watchers:277Fork:1227创建时间: 2015-08-16 05:41:05最后Commits: 16天前简单基于注释的A…

zabbix4.0使用snmp代理方式监控vcenter6.5

公司使用的是vsphere6.5,使用vcenter6.5进行管理,vcenter部署的是vcsa(vCenter Server Appliance),本质是一台linux虚拟机。在使用vsphere client,登陆的时候,发现只能对vcenter配置snmptrap,将snmp告警信息发送给指定…

干货|pytorch必须掌握的的4种学习率衰减策略

点击上方“视学算法”,选择加"星标"或“置顶”重磅干货,第一时间送达作者丨机器学习入坑者知乎(已授权)来源丨https://zhuanlan.zhihu.com/p/93624972编辑丨极市平台导读 本文介绍了四种衰减类型:指数衰减、…

【转载】邻接表表示法

图的邻接表表示法 图的邻接表表示法类似于树的孩子链表表示法。对于图G中的每个顶点v i ,该方法把所有邻接于v i 的顶点v j 链成一个带头 结点的单链表,这个单链表就称为顶点v i 的邻接表(Adjacency List)。 1. 邻接表的结点结构 &#xff08…