版权说明 操作指南
首页 > 成果 > 详情

一种基于动态量化编码的深度神经网络压缩方法

认领
导出
Link by 中国知网学术期刊 Link by 万方学术期刊
反馈
分享
QQ微信 微博
成果类型:
期刊论文
论文标题(英文):
A Dynamic Quantization Coding Based Deep Neural Network Compression Method
作者:
饶川;陈靓影;徐如意;刘乐元
通讯作者:
Chen, J.-Y.
作者机构:
华中师范大学国家数字化学习工程技术研究中心 武汉430079
华中师范大学教育大数据国家工程实验室 武汉 430079
[徐如意; 陈靓影; 刘乐元; 饶川] 华中师范大学
通讯机构:
National Engineering Research Center for E-Learning, Central China Normal University, Wuhan, China
语种:
中文
关键词:
深度神经网络;模型压缩;动态量化编码;码本更新
关键词(英文):
Codebook update;Deep neural network (DNN);Dynamic quantization coding (DQC);Model compression
期刊:
自动化学报
ISSN:
0254-4156
年:
2019
卷:
45
期:
10
页码:
1960-1968
基金类别:
2018YFB1004504:国家重点研发计划 CCNU19Z02002:中央高校基本科研业务费专项 2018M632889:中国博士后科学基金 2017CFB504:湖北省自然科学基金 2017CFA007:湖北省创新研究团队 61702208:国家自然科学基金 61807014:国家自然科学基金
机构署名:
本校为第一且通讯机构
院系归属:
国家数字化学习工程技术研究中心
摘要:
近年来深度神经网络(Deep neural network,DNN)从众多机器学习方法中脱颖而出,引起了广泛的兴趣和关注.然而,在主流的深度神经网络模型中,其参数数以百万计,需要消耗大量的计算和存储资源,难以应用于手机等移动嵌入式设备.为了解决这一问题,本文提出了一种基于动态量化编码(Dynamic quantization coding,DQC)的深度神经网络压缩方法.不同于现有的采用静态量化编码(Static quantitative coding,SQC)的方法,本文提出的方法在模型训练过程中同时对量化码本进行更新,使码本尽可能减小较大权重参数量化引起的误差.通过大量的对比实验表明,本文提出的方法优于现有基于静态编码的模型压缩方法.
摘要(英文):
Recently, deep neural network (DNN) stands out from many machine learning methods and has attracted wide interest and attention. However, it is difficult to apply DNN to mobile embedded devices such as mobile phones due to millions of parameters for the mainstream model of deep neural network, which requires a lot of calculation and storage resources. To address this problem, this paper proposes a deep neural network compressing method based on dynamic quantization coding (DQC). Different from the existing static quantitative coding (SQC) methods, the proposed method updates the quantized code...

反馈

验证码:
看不清楚,换一个
确定
取消

成果认领

标题:
用户 作者 通讯作者
请选择
请选择
确定
取消

提示

该栏目需要登录且有访问权限才可以访问

如果您有访问权限,请直接 登录访问

如果您没有访问权限,请联系管理员申请开通

管理员联系邮箱:yun@hnwdkj.com