CASIA OpenIR

浏览/检索结果: 共32条,第1-10条 帮助

限定条件                
已选(0)清除 条数/页:   排序方式:
TinyNeRF: Towards 100 times Compression of Volume Radiance Fields 会议论文
, 线上, 2023-02
作者:  Zhao TL(赵天理);  Chen JY(陈嘉园);  Leng C(冷聪);  Cheng J(程健)
Adobe PDF(2855Kb)  |  收藏  |  浏览/下载:158/36  |  提交时间:2023/06/21
Neural Radiance Fields  Discrete Cosine Transformation  Frequency Domain  
基于软硬件协同设计的深度学习模型压缩与加速 学位论文
, 2023
作者:  刘泽健
Adobe PDF(10064Kb)  |  收藏  |  浏览/下载:84/4  |  提交时间:2023/06/18
软硬件协同设计  模型压缩  DNN 加速器  自动化优化  
TBERT: Dynamic BERT Inference with Top-k Based Predictors 会议论文
, Antwerp, Belgium, 2023-4-17
作者:  Liu, Zejian;  Zhao, Kun;  Cheng, Jian
Adobe PDF(3426Kb)  |  收藏  |  浏览/下载:84/22  |  提交时间:2023/06/19
Transformer  Dynamic Inference  Pruning  
Optimization-Based Post-Training Quantization With Bit-Split and Stitching 期刊论文
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, 2023, 卷号: 45, 期号: 2, 页码: 2119-2135
作者:  Wang, Peisong;  Chen, Weihan;  He, Xiangyu;  Chen, Qiang;  Liu, Qingshan;  Cheng, Jian
Adobe PDF(921Kb)  |  收藏  |  浏览/下载:158/43  |  提交时间:2023/03/20
Deep neural networks  compression  quantization  post-training quantization  
Towards Automatic Model Compression via A Unified Two-Stage Framework 期刊论文
Pattern Recognition (PR), 2023, 卷号: 140, 页码: 109527
作者:  Weihan Chen;  Peisong Wang;  Jian Cheng
Adobe PDF(765Kb)  |  收藏  |  浏览/下载:92/26  |  提交时间:2023/06/20
Deep Neural Networks  Model Compression  Quantization  Pruning  
Ristretto: An Atomized Processing Architecture for Sparsity-Condensed Stream Flow in CNN 会议论文
, Westin Chicago, 2022-10
作者:  Gang Li;  Weixiang Xu;  Zhuoran Song;  Naifeng Jing;  Naifeng Jing;  Xiaoyao Liang
Adobe PDF(850Kb)  |  收藏  |  浏览/下载:70/23  |  提交时间:2023/06/21
Differentially Private Federated Learning with Local Regularization and Sparsification 会议论文
, 线上, 2022-6
作者:  Cheng AD(程安达);  Wang PS(王培松);  Zhang X(张希);  Cheng J(程健)
Adobe PDF(312Kb)  |  收藏  |  浏览/下载:103/38  |  提交时间:2023/06/05
面向视觉注意力模型的定点量化加速算法研究 学位论文
, 中国科学院自动化研究所: 中国科学院自动化研究所, 2022
作者:  李哲鑫
Adobe PDF(2261Kb)  |  收藏  |  浏览/下载:192/9  |  提交时间:2022/06/15
定点量化  模型压缩  模型加速  视觉注意力模型  混合精度  
Block Convolution: Toward Memory-Efficient Inference of Large-Scale CNNs on FPGA 期刊论文
IEEE TRANSACTIONS ON COMPUTER-AIDED DESIGN OF INTEGRATED CIRCUITS AND SYSTEMS, 2022, 卷号: 41, 期号: 5, 页码: 1436-1447
作者:  Li, Gang;  Liu, Zejian;  Li, Fanrong;  Cheng, Jian
Adobe PDF(4046Kb)  |  收藏  |  浏览/下载:245/22  |  提交时间:2022/06/10
Convolution  Field programmable gate arrays  System-on-chip  Task analysis  Random access memory  Tensors  Memory management  Block convolution  convolutional neural network (CNN) accelerator  field-programmable gate array (FPGA)  memory efficient  off-chip transfer  
Fixed-point Quantization for Vision Transformer 会议论文
, Beijing, China, 2021-10-22
作者:  Zhexin, Li;  Peisong Wang;  Zhiyuan Wang;  Jian Cheng
Adobe PDF(940Kb)  |  收藏  |  浏览/下载:235/66  |  提交时间:2022/06/15