×
验证码:
换一张
忘记密码?
记住我
切换中国科技网通行证登录
×
切换中国科技网通行证登录
登录
中文版
|
English
中国科学院自动化研究所机构知识库
Knowledge Commons of Institute of Automation,CAS
登录
注册
ALL
ORCID
题名
作者
导师
学科领域
关键词
资助项目
文献类型
出处
会议名称
收录类别
出版者
发表日期
存缴日期
学科门类
学习讨论厅
图片搜索
粘贴图片网址
首页
研究单元&专题
作者
文献类型
知识图谱
新闻&公告
在结果中检索
研究单元&专题
多模态人工智能系统... [10]
智能制造技术与系统研... [3]
中科院工业视觉智能装... [2]
学术期刊 [1]
复杂系统认知与决策实... [1]
紫东太初大模型研究中... [1]
更多...
作者
胡晰远 [3]
彭思龙 [3]
陈晨 [3]
邹伟 [2]
袁勇 [2]
胡卫明 [2]
更多...
文献类型
期刊论文 [14]
会议论文 [5]
发表日期
2024 [1]
2023 [4]
2022 [4]
2021 [2]
2020 [5]
2019 [2]
更多...
语种
英语 [17]
出处
Pattern Re... [3]
APPLIED IN... [1]
CHINESE JO... [1]
Chinese Jo... [1]
IEEE TRANS... [1]
IEEE TRANS... [1]
更多...
资助项目
Beijing Na... [1]
CETC Key L... [1]
China Post... [1]
Frontier s... [1]
Guangdong ... [1]
Huizhou Sc... [1]
更多...
收录类别
SCI [13]
EI [3]
CSCD [1]
导师
资助机构
National N... [6]
National K... [3]
Beijing Na... [1]
CETC Key L... [1]
China Post... [1]
Frontier s... [1]
更多...
×
知识图谱
CASIA OpenIR
开始提交
已提交作品
待认领作品
已认领作品
未提交全文
收藏管理
QQ客服
官方微博
反馈留言
浏览/检索结果:
共19条,第1-10条
帮助
已选(
0
)
清除
条数/页:
5
10
15
20
25
30
35
40
45
50
55
60
65
70
75
80
85
90
95
100
排序方式:
请选择
作者升序
作者降序
WOS被引频次升序
WOS被引频次降序
提交时间升序
提交时间降序
题名升序
题名降序
期刊影响因子升序
期刊影响因子降序
发表日期升序
发表日期降序
A Novel Tensor Decomposition-Based Efficient Detector for Low-Altitude Aerial Objects With Knowledge Distillation Scheme
期刊论文
IEEE/CAA Journal of Automatica Sinica, 2024, 卷号: 11, 期号: 2, 页码: 487-501
作者:
Nianyin Zeng
;
Xinyu Li
;
Peishu Wu
;
Han Li
;
Xin Luo
Adobe PDF(12478Kb)
  |  
收藏
  |  
浏览/下载:51/14
  |  
提交时间:2024/01/23
Attention mechanism
knowledge distillation (KD)
object detection
tensor decomposition (TD)
unmanned aerial vehicles (UAVs)
Balanced knowledge distillation for long-tailed learning
期刊论文
NEUROCOMPUTING, 2023, 卷号: 527, 页码: 36-46
作者:
Zhang, Shaoyu
;
Chen, Chen
;
Hu, Xiyuan
;
Peng, Silong
收藏
  |  
浏览/下载:94/0
  |  
提交时间:2023/11/17
Long-tailed learning
Knowledge distillation
Vision and text classification
Attention Weighted Local Descriptors
期刊论文
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, 2023, 卷号: 45, 期号: 9, 页码: 10632-10649
作者:
Wang, Changwei
;
Xu, Rongtao
;
Lu, Ke
;
Xu, Shibiao
;
Meng, Weiliang
;
Zhang, Yuyang
;
Fan, Bin
;
Zhang, Xiaopeng
收藏
  |  
浏览/下载:104/0
  |  
提交时间:2023/11/17
Local features detection and description
consistent attention mechanism
context augmentation
lightweight local descriptors
knowledge distillation
A Closer Look at Self-Supervised Lightweight Vision Transformers
会议论文
, Honolulu, Hawaii, USA, 2023-7
作者:
Wang, Shaoru
;
Gao, Jin
;
Li, Zeming
;
Zhang, Xiaoqin
;
Weiming, Hu
Adobe PDF(3478Kb)
  |  
收藏
  |  
浏览/下载:181/62
  |  
提交时间:2023/09/20
Vision Transformer
Self-supervised Learning
Lightweight Networks
Knowledge Distillation
PKD: General Distillation Framework for Object Detectors via Pearson Correlation Coefficient
会议论文
, New Orleans, America, Monday November 28th through Friday December 9th
作者:
Weihan, Cao
;
Yifan, Zhang
;
Jianfei, Gao
;
Anda, Cheng
;
Ke, Cheng
;
Jian, Cheng
Adobe PDF(2614Kb)
  |  
收藏
  |  
浏览/下载:73/18
  |  
提交时间:2023/06/21
Knowledge Distillation
Model Compression
Object Detection
Recovering Generalization via Pre-training-like Knowledge Distillation for Out-of-Distribution Visual Question Answering
期刊论文
IEEE Transactions on Multimedia, 2023, 页码: 1-15
作者:
Song, Yaguang
;
Yang, Xiaoshan
;
Wang, Yaowei
;
Xu, Changsheng
Adobe PDF(2397Kb)
  |  
收藏
  |  
浏览/下载:157/42
  |  
提交时间:2023/06/12
Multi-modal Foundation Model
Out-of-Distribution Generalization
Visual Question Answering
Knowledge Distillation
Cross-Architecture Knowledge Distillation
会议论文
INTERNATIONAL JOURNAL OF COMPUTER VISION, Macau SAR, China, 2022.12.4-2022.12.8
作者:
Yufan Liu
;
Jiajiong Cao
;
Bing Li
;
Weiming Hu
;
Jingting Ding
;
Liang Li
Adobe PDF(1020Kb)
  |  
收藏
  |  
浏览/下载:129/41
  |  
提交时间:2023/04/23
Knowledge distillation
Cross architecture
Model compression
Deep learning
Lifelong CycleGAN for continual multi-task image restoration
期刊论文
PATTERN RECOGNITION LETTERS, 2022, 卷号: 153, 页码: 183-189
作者:
Li, Yuping
;
Nie, Xiangli
;
Diao, Wenhui
;
Zheng, Suiwu
收藏
  |  
浏览/下载:179/0
  |  
提交时间:2022/02/16
Image restoration
Lifelong
continual learning
CycleGAN
Knowledge distillation
Deep Neural Network Self-Distillation Exploiting Data Representation Invariance
期刊论文
IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS, 2022, 卷号: 33, 期号: 1, 页码: 257-269
作者:
Xu, Ting-Bing
;
Liu, Cheng-Lin
收藏
  |  
浏览/下载:174/0
  |  
提交时间:2022/02/16
Training
Nonlinear distortion
Data models
Neural networks
Knowledge engineering
Network architecture
Generalization error
network compression
representation invariance
self-distillation (SD)
One-stage object detection knowledge distillation via adversarial learning
期刊论文
APPLIED INTELLIGENCE, 2021, 页码: 17
作者:
Dong, Na
;
Zhang, Yongqiang
;
Ding, Mingli
;
Xu, Shibiao
;
Bai, Yancheng
收藏
  |  
浏览/下载:161/0
  |  
提交时间:2021/11/02
Knowledge distillation
Object detection
Generative adversarial learning