幼儿饰品瑜伽美体用品微软
投稿投诉
微软创意
爱情通信
用品婚姻
爱好看病
美体软件
影音星座
瑜伽周边
星座办公
饰品塑形
搞笑减肥
幼儿两性
智家潮品

浅学CNN

  头条创作挑战赛
  当前人工智能领域的先进技术层出不穷,诸如计算机视觉、自然语言处理、影像生成,深度神经网络等先进技术日新月异。然而,从计算能力、内存或能源消耗角度来看,这些新技术的成本可能令人望而却步,其中某些成本对于大多数硬件资源受限的用户来说,则完全负担不起。所以说,人工智能许多领域将对神经网络进行必要的修剪,在确保其性能的同时降低其运行成本。
  这就是神经网络压缩的全部要点,在这一领域,有多种方法来实现神经网络的压缩,如量化、分解蒸馏等等,本文的重点在于阐述神经网络的剪枝。
  神经网络剪枝旨在去除性能良好但花费大量资源的多余部分网络。尽管大型神经网络的学习能力有目共睹,但事实上,在训练过程结束后,并不是所有的神经网络全部有用,神经网络剪枝的想法便是在不影响网络性能的情况下去除这些无用的部分。
  在这个研究领域,每年均有几十篇,甚至数百篇论文发布,众多的论文揭示了这一想法蕴含的复杂性。通过阅读这些文献,可以快速识别出神经网络的无用部分,并在训练前后去除它们,值得强调的是,并不是所有的修剪都可以提速神经网络,某些工作甚至会事倍功半。
  本文在阅读原生神经剪枝论文的基础上,提出了解决神经网络修剪的解决方案,依次回答了三个这一领域中的核心问题:应该对哪部分进行修剪?、如何判断哪些部分可以修剪?以及如何在不损害网络的情况下进行修剪?。综上所述,本文将详细介绍神经网络剪枝的结构、剪枝准则和剪枝方法。1剪枝的结构1。1非结构化剪枝
  当涉及神经网络的成本时,参数的数目和FLOPS(每秒钟的浮点操作次数)是其中最广泛使用的指标之一。看到网络显示出天文数字的参数(对某些人来说会花费高达数十亿美元的成本),这的确令人生畏。通过直接删除参数,从而直观地减少参数数目,这一方法肯定有效。实际上,这一方法在多个文献中均有提及,修剪参数是文献中提到的应用最为广泛的示例,被视为处理剪枝时的默认框架。
  直接修剪参数的方法有诸多优点。首先,它很简单,在参数张量内,将其权重值设为零,便可以实现对参数的修剪。在Pytorch深度学习框架中,可以轻松地访问到网络的所有参数,实现起来非常简单。尽管如此,修剪参数的最大优势是:它们是网络中最小、最基本的元素,因此,只要数量足够多,便可以在不影响性能的情况下,对它们进行大量修剪。这种精细修剪的粒度使得可以在非常精密的模式下实现剪枝,例如,可以对卷积内核内的参数进行修剪。由于剪枝权值根本不受任何约束条件的限制,而且是修剪网络的最好方法,因此将这种方式称为非结构化剪枝。
  然而,这种方法的致命缺点是:大多数深度学习框架和硬件无法加速稀疏矩阵的计算,这意味着无论你为参数张量填充多少个零,都不会对实际训练成本产生实质的影响,仅仅是一种直接改变网络架构的方式进行剪枝,而不是对任何框架都放之四海而皆准的方法。
  非结构化(左)和结构化(右)剪枝之间的区别:结构化剪枝会同时删除卷积过滤器和内核行,而不仅仅是修剪参数。从而使得中间特征映射的数目更少。1。2结构化剪枝
  结构化剪枝专注于对更为庞大的结构进行修剪,比如修剪整个神经元,或者,在更现代的深度卷积网络中,直接修剪卷积过滤器。大型网络往往包含许多卷积层,每个层中包含数百或数千个过滤器,可以对卷积层过滤器进行细粒度的修剪。移除这种结构不仅使得深度神经网络的层结构更为稀疏,而且这样做还可以去除过滤器输出的特性映射。
  由于减少了参数,这种网络不仅存储起来更为轻便,而且计算量也得以降低,生成更为便捷的中间表示,因此在运行时需要更少的内存。实际上,有时降低带宽比减少参数数目更有益。对于涉及大型图像的任务,如语义分割或对象检测,中间表示可能比网络本身更加消耗内存,出于这些原因,可以将过滤器修剪视为默认的结构化剪枝。
  在应用结构化剪枝时,应注意以下几方面:首先,应考虑如何构建卷积层,对于Cin输入通道和Cout输出通道,卷积层由Cout过滤器构成,过滤器分别对Cin内核进行计算;每个过滤器均输出一个特征映射,每个输入通道为一个内核专用。基于这种架构,卷积网络为堆叠的多个卷积层,当对整个过滤器进行剪枝时,可以观察到对每一个过滤器剪枝的过程,随后输出特征映射,这一过程也会导致对后续层内核的修剪。这意味着,当修剪过滤器时,在第一次删除参数之后,实际删除的参数数量是最初认为要删除的参数数量的数倍。
  下面来考虑一下这种特殊情况,当一不留神把所有卷积层都修剪掉之后(虽然卷积层被修剪掉了,但神经网络并没有被摧毁,这由神经网络的架构来决定),无法链接到前一层的输出,这也可以是神经网络的一种剪枝方式:修剪掉所有卷积层,实际上等于修剪掉了所有上一层的输出,所以只能连接到其他地方(如残余连接或并行通道)。
  在对过滤器剪枝时,首先应该计算出实际参数的确切数量,再根据过滤器在神经网络架构中的分布,修剪相同数量的过滤器,如果实际参数的数量与修剪参数数量不同,结果将不具备可比性。
  在进入下一个主题之前,需要提及的是:依然有少数工作集中于剪枝卷积内核、核内架构乃至是特定的参数结构。然而,这些架构需要用特殊的方法来实现(如非结构化剪枝)。此外,另一种方法是对每个核中的某个参数进行修剪,将卷积层转换为移位层,这可以通过一次移位操作和一次11卷积的组合来实现。
  结构化剪枝的缺点:输入和输出维度的改变会引发某些偏差。2剪枝原则
  在决定了采用何种结构进行剪枝之后,下一个问题便会是:现在,如何找出保留哪些部分,哪些部分需要修剪?为了回答这个问题,通过对参数、过滤器或其他特性进行排序基础上,生成一个恰当的剪枝准则。2。1权重大小准则
  一个非常直观而又有效的准则是:修剪掉那些权重绝对值最小的参数。事实上,在权重衰减的约束条件下,那些对函数没有显著贡献的参数在训练期间,它们的幅度会不断减小。因此,那些权重比较小的参数便显得多余了。原理很简单,这一准则在当前神经网络的训练中被广泛使用,已成为该领域的主角。
  尽管这个准则在非结构化剪枝的实现中显得微不足道,但大家更想知道如何将其应用于结构化剪枝。一种简单的方法是根据过滤器的范数(例如L1或L2)对过滤器进行排序。这种方法实现起来简单粗暴,即将多个参数封装在一起:例如,将卷积过滤器的偏差和批归一化参数封装到一起,将在并行层的过滤器输出融合起来,从而减少通道数目。
  其中一种方法是:在无需计算所有参数的组合范数的前提下,为需要修剪的每一层的特征映射插入一个可学习的乘法因子,当它减少为零时,有效地删除负责这个通道的所有参数集,该方法可用于修剪权重幅度较小的参数。2。2梯度大小剪枝准则
  权重大小剪枝准则并非唯一流行的准则,实际上,还有另一个重要准则,即梯度大小剪枝准则,也非常适用。根据上世纪80年代的一些基础理论,通过泰勒分解去消除参数对损失的影响,某些指标:如反向传播的梯度,可提供一个不错的判断方法,来确定在不损害网络的情况下可以修剪掉哪些参数。
  在实际项目中,这一准则是这样实现的:首先计算出小批量训练数据的累积梯度,再根据这个梯度和每个参数对应权重之间的乘积进行修剪。2。3全局或局部剪枝
  最后一个需要考虑的因素是,所选择的剪枝准则是否适用于网络的所有参数或过滤器,还是为每一层独立计算而设计。虽然神经网络全局剪枝可以生成更优的结果,但它会导致层垮塌。避免这个问题的简单方法是,当所使用的全局剪枝方法无法防止层垮塌时,就采用逐层的局部剪枝。
  局部剪枝(左)和全局剪枝(右)的区别:局部剪枝对每一层分别进行剪枝,而全局剪枝同时将其应用于整个网络3剪枝方法
  在明确了剪枝结构和剪枝准则之后,剩下就是应该使用哪种方法来剪枝一个神经网络。这实际上是最令人困惑的话题,因为每一篇论文都会带来自己的独有的剪枝方法,以至于大家可能会对到底选用什么方法来实现神经网络的剪枝感到迷盲。
  在这里,将以此为主题,对目前较为流行的神经网络剪枝方法作一个概述,着重强调训练过程中神经网络稀疏性的演变过程。3。1经典的框架:训练、剪枝和微调
  训练神经网络的基本框架是:训练、剪枝和微调,涉及1)训练网络2)按照剪枝结构和剪枝准则的要求,将需要修剪的参数设置为0(这些参数之后也无法恢复),3)添加附加的epochs训练网络,将学习率设为最低,使得神经网络有一个从剪枝引起的性能损失中恢复的机会。通常,最后两步可以迭代,每次迭代均加大修剪率。
  具体剪枝方法如下:按照权重大小剪枝原则,在剪枝和微调之间进行5次迭代。实验表明,通过迭代可以明显提高训练性能,但代价是要花费额外的算力和训练时间。这个简单的框架是许多神经网络剪枝的基础,可以看作是训练神经网络的默认方法。3。2经典框架的拓展
  有一些方法对上述经典框架做了进一步的修改,在整个训练过程中,由于删除的权重越来越多,加速了迭代过程,从而从迭代的优势中获益,与此同时,删除整个微调过程。在各个epoch中,逐渐将可修剪的过滤器数目减少为0,不阻止神经网络继续学习和更新,以便让它们的权重在修剪后能重新增长,同时在训练中增强稀疏性。
  最后,Renda等人的方法指出:在网络被修剪后进行重新再训练。与以最低学习率进行的微调不同,再训练采用与原先相同的学习率,因此称这种剪枝方法为学习率重绕。这种剪枝后再一次重新训练的方法,比微调网络的性能更优。3。3初始化时剪枝
  为了加快训练速度,避免微调,防止训练期间或训练后神经网络架构的任何改变,许多工作都集中在训练前的修剪上:斯摩棱斯基在网络初始化时便对网络进行修剪;OBD(OptimalBrainDamage)在对网络初始化剪枝时采用了多种近似,包括一个极值近似,即假设在训练收敛后将执行参数删除,这种方法并不多见;还有一些研究对这种方法生成掩码的能力提出了保留意见,神经网络随机生成的每一层的掩码具有相似的分布特性。
  另一组研究剪枝和初始化之间关系的方法围绕着彩票假说展开。这一假设指出,随机初始化的密集神经网络包含一个初始化的子网,当隔离训练时,它可以在训练相同次数迭代后匹配原始网络的测试精度。项目实践中,在刚刚初始化时,便使用已经收敛的剪枝掩码。然而,对这一剪枝方法的有效性,还存在着诸多质疑,有些专家认为,利用特定掩码来训练模型的性能甚至可以优于用胜券假设下获得的性能。
  经典的剪枝框架、彩票假说的学习率调整比较3。4稀疏训练
  上述方法均共享相同的底层主题:在稀疏性约束下的训练。这一原则以一系列稀疏训练方法为核心,它包括在训练分布变化的情况下,执行恒定的稀疏率并逐步调整。由Mocanu等人提出,它包括:
  1)用一个随机掩码初始化网络,并对网络进行一定比例的修剪
  2)在一个epoch内训练这个修剪过的网络
  3)修剪一定数量较小的权值,4)再生相同数量的随机权值。
  这种情况下,剪枝掩码是随机的,被逐步调整以瞄准最小的导入权值,同时在整个训练过程中强制执行稀疏性。各层或全局的稀疏性级别可以相同。
  稀疏训练在训练过程中周期性期切割和增长不同的权重,经过调整后的权重与相关参数的掩码相关3。5掩码学习
  还有一些方法侧重于在训练期间学习掩码修剪,而不是利用特定准则来修剪权重。在这一领域,比较流行的有以下两种方法:1)对网络或层分开进行掩码学习,2)通过辅助参数进行掩码学习。第一种方法中可以采用多种策略:尽可能多的修剪的每层的过滤器,在最大限度地提高精度的前提下,插入基于attention的层或使用强化学习。第二种方法将剪枝视为一个优化问题,它倾向于最小化网络的L0范数和监督损失。
  由于L0是不可微的,有些方法主要围绕着使用辅助的惩罚参数来实现,在前向通路中,将辅助的惩罚参数乘以其相应的参数来规避这个问题。还有一些方法采用了一种类似于二进制连接的方法,即:在参数选择时,应用随机门的伯努利分布,这些参数p利用直接估计器或其他学习方法获取。3。6基于惩罚的方法
  有许多方法应用各种惩罚来增加权重,使它们逐步收缩为0,而不是通过手动修剪连接或惩罚辅助参数。实际上,这一概念相当古老,因为权重衰减是衡量权重大小的一个基本标准。除了单独使用重量衰减之外,还有许多方法专门为执行稀疏性而设计了惩罚。当前,还有一些方法在权重衰减的基础之上应用不同的正则化,以期进一步增加稀疏性。
  在最近的研究中,有多种方法采用了LASSO(最小绝对收缩并选择操作符)来修剪权重或组。某些其他的方法还采用了针对弱连接的惩罚,以加大保留参数和修剪参数之间的距离,使它们对性能的影响降为最小。经验表明,在整个训练过程中进行惩罚,可以逐步修剪参数,从而达到无缝剪枝的目的。4可用的框架
  在神经网络的训练过程中,无须从头开始实现(重用论文作者提供的源代码),在某些现成框架上应用上述基本剪枝方法,实现上相对会更加容易一些。4。1Pytorch
  Pytorch为网络剪枝提供了多种高质量的特性,利用Pytorch所提供的工具,可以轻松地将掩码应用到网络上,在训练期间对该掩码进行维护,并允许在需要时轻松地恢复该掩码。Pytorch还提供了一些基本的剪枝方法,如全局或局部剪枝,无论是结构化的剪枝还是非结构化的剪枝,均能实现。结构化剪枝适用于任何维度的权值张量,可以对过滤器、内核行,甚至是内核内的某些行和列进行修剪。这些内置的基本方法还允许随机地或根据各种准则进行剪枝。4。2Tensorflow
  Tensorflow的Keras库提供了一些基本的工具来修剪权重较低的参数,修剪的效率根据所有插入的零引入的冗余来度量,从而可以更好地压缩模型(它与量化很好地结合)。4。3ShrinkBench
  Blalock等人研发了一个自定义库ShrinkBench,以帮助社区剪枝算法进行规范化。这个自定义的库基于Pytorch框架,旨在使修剪方法的实现更加容易,同时对训练和测试条件规范化。它为不同的剪枝方法(如随机剪枝,权重大小剪枝或梯度大小剪枝),提供了不同的基准。
  5结论
  综上所述,可以看出
  1)剪枝结构定义了通过剪枝操作可以获得哪种收益
  2)剪枝准则基于多种理论和实际的结合
  3)剪枝方法倾向于围绕在训练过程中引入稀疏性以协调性能和成本。
  此外,尽管神经网络的基础工作可以追溯到上世纪80年代末,但是,目前神经网络剪枝是一个非常动态的领域,期待有新的基础理论和新的基本概念出现。
  今日头条小助手cnn神经网络

ampampquot失落之城ampampquot失落之城仍有秘密有待揭开:数千年前,如今已被遗弃的佩特拉曾经繁荣发展。被直接雕刻成充满活力的红色、白色、粉色和砂岩悬崖面的史前约旦城市佩特拉数百年来一直被西方世界遗忘。……科学家在太阳中发现神秘漩涡状波浪速度出乎意料得快来自纽约大学阿布扎比分校(NYUAD)空间科学中心的研究人员在太阳中发现了一组新的波,出乎意料的是,这些波的速度似乎比理论预测的要快得多。在《NatureAstronomy》上……人走茶凉何炅曾得全娱乐圈送祝福,如今唯独沈腾马丽帮宣传1、要不是何炅在7年前拨出了那通紧急电话,那沈腾和马丽如今也不会站这说出这句话:这句令何炅险些落泪的话,出自《向往的生活》第6季第4期。今年6月,自打结……元宇宙的价值是什么要知道元宇宙的价值是什么,首先要了解一下元宇宙是什么?元宇宙(Metaverse)是利用科技手段进行链接与创造的,与现实世界映射与交互的虚拟世界,具备新型社会体系的数字生……重返帝国3月29日火爆来袭,发布会现场一键get策略新玩法由腾讯天美出品的全自由即时策略手游《重返帝国》,最近召开了一场别开生面的上线前瞻发布会,在发布会上,官方确定游戏将于3月29日正式上线。发布会上游戏圈老熟人云集,像PDD、罗永……最近,微信又添新功能,太好用了微信关怀模式,现在都支持听文字消息了。开启后,点一下聊天中的文字消息就能听到。无论你是安卓手机,还是苹果手机,更新到最新版本就能用。朋友们可以这样开启。打开微信,点击我,……每周锻炼两次,哮喘少发作来源:生命时报英国东英吉利大学医学院的科研人员发现,促进哮喘患者参与体育活动的干预措施,可以显著改善他们的症状以及生活质量。研究团队选取来自世界各地的25项独立研究……有白头发最好不要染,日常多吃这3种食物,或可以让白头发少一些随着年龄不断增长,绝大数人容易出现白发,这是一种正常的表现,很多年轻人也发生白发,这也是大家经常说的少白头,20多岁年龄长出白发,会给人一种衰老的感觉,为了使这种症状得到改善,……神2场,鬼2场,火箭的巨星梦要碎了哈登选择离开了效力了9年的火箭队,这让火箭队从争冠级别的队伍一下子变成了鱼腩,球队经历了从天堂到地狱般的转变。不过面对巨大的落差,火箭并没有沉寂在失望中,球队加快交易、摆……时隔近5年再夺冠,张帅乐开花,这一刻她等太久了,对手伤心落泪WTA250里昂公开赛女单决赛,中国一姐张帅对阵达雅娜雅斯特雷姆斯卡,最终,张帅在先丢一盘的情况下连胜两盘,21逆转击败了对手,时隔近5年再夺巡回赛单打冠军。作为双打好手……家门口的好去处春游记,踏青趣!Q萌动物在这里草木蔓发,风传花信,在阳光明媚的日子里,秦岭野生动物园里,可爱的动物们,更是舒适与活跃。01hr春日希望:春暖花开为满足广大游客的观赏需求秦岭野生动物园精心编……黄河每天冲鱼入海,大部分淡水鱼在海中活不了,它们都去哪里了综述每每念出那句君不见黄河之水天上来,奔流到海不复回,我们总是忍不住感慨这条大河的磅礴气势和壮阔风景,但是同时一个很有意思的问题也会出现在我们的脑海当中,既然黄河的水势又……
MLCC为什么会啸叫?怎么解决啸叫?MLCC多层片式陶瓷电容器,简称贴片电容,会引起噪声啸叫问题笔记本电脑电源电路的啸叫示例部位。随着人们对电子设备的需求趋于平静,在笔记本电脑、手机、数码相机(DSC……不足6000元,这三款电脑都配置了i7处理器,既轻便又有高性在以前,提起i7笔记本,大家都觉得肯定价格不低,怎么也得7000、8000元吧。而实际上,随着i9的出现,i7的价位也开始向下移动,最低可能可达到4999元。这次,我们就……我们深挖喜马拉雅,从大语文到科普,把各科优质听单给娃备齐这学期帝都的娃基本又是一路网课学下来的,不少爸妈都为娃的视力问题闹心。这次小爱在喜马拉雅的大宝库里,给大家精挑细选了一波优质的听力资源!平时在家放给孩子听,娃不至于觉得无聊或者……芭珠周末档这些让宝石颜值升级的套路你知道吗?各位热爱珠宝的集美们肯定都知道,传统三宝祖母绿、红宝石和蓝宝石大多经过某种方式的优化处理。只有非常纯净、色彩完美的宝石才不需要经过任何人工处理,也只有它们才称得上真正的纯天然,……准备了24年10个月,邓清明终于随神十五飞天据中国载人航天工程办公室消息,神舟十五号瞄准11月29日23时08分发射。经空间站阶段飞行任务总指挥部研究决定,费俊龙、邓清明、张陆3名航天员将执行神舟十五号载人飞行任务……黄冈市百强企业出炉红安一企业常年排第一,一地级市多达17家近日,黄冈市百强企业排名出炉了,引起了网友的广泛评论!这次的百强企业榜有几个硬性的标准,分别是以2021年营业收入(占比30)、税收(占比30)、发展后劲(技改投入、研发……一地鸡毛虽可怕,风花雪月尚可期最近,我在抖音上关注了一个人苏敏(ID:50岁阿姨自驾游)。她是河南郑州人,今年五十八岁。两年前,在双胞胎外孙上幼儿园后,她决定去自驾旅行。为什么会有这样的想法呢?……男篮新一期集训名单预测,四大新星或首次入选,周琦阿联强势领衔前言男篮新帅乔尔杰维奇的球员选拔工作正在进行中,虽然最终名单还未出炉,但乔帅已详细明确了自己的选人标准,大致有三个方面。第一,乔帅十分注重球员的职业素养;第二,乔帅喜欢比……那些让人匪夷所思的婚外情事(五十九)头条创作挑战赛周有德从山下往回走,他把地里的麦地里草狠狠撸了一遍,又把红薯地里藤蔓拔起整理好,来的时候,忘记带水了,口干舌燥的他想回去找点水喝,一个人生活,整点馍,烙点饼……挥别2022九个维度看南海2022年对于南海,是极不平凡、又极其难忘的一年。这一年,我们站在世纪疫情的关口,社会的运转、商业的逻辑、个人的生活都被深度重构。这一年,我们栉风沐雨,将困难与挑战碾碎熔……最长久的关系能量对等,频率相似,灵魂相依我思考过很多次,幸福的感情应该是什么样的?是没有矛盾,没有分歧,一直都亲密无间吗?好像并不尽然。年轻时总以为,维持感情很简单,只要两人相爱就够了;可随着……解锁长沙秋日氛围感这是仙境吧!出片率极高的粉色花海,长沙也有你相信吗?长沙的秋天是粉色的。进入秋天,各地的粉黛乱子草也进入了盛开的花期,风中摇曳的粉黛乱子草,营造出一种独特的云雾缭绕感,大片的粉红也让早秋弥漫着浪漫的气息。这样温柔的秋季……
友情链接:易事利快生活快传网聚热点七猫云快好知快百科中准网快好找文好找中准网快软网