×
验证码:
换一张
忘记密码?
记住我
切换中国科技网通行证登录
×
切换中国科技网通行证登录
登录
中文版
|
English
中国科学院自动化研究所机构知识库
Knowledge Commons of Institute of Automation,CAS
登录
注册
ALL
ORCID
题名
作者
导师
学科领域
关键词
资助项目
文献类型
出处
会议名称
收录类别
出版者
发表日期
存缴日期
学科门类
学习讨论厅
图片搜索
粘贴图片网址
首页
研究单元&专题
作者
文献类型
学科分类
知识图谱
新闻&公告
在结果中检索
研究单元&专题
模式识别国家重点实... [62]
高效智能计算与学习 [2]
毕业生 [2]
学术期刊 [1]
作者
刘成林 [9]
刘文举 [6]
张煦尧 [6]
陶建华 [6]
徐常胜 [5]
胡卫明 [5]
更多...
文献类型
期刊论文 [29]
会议论文 [28]
学位论文 [5]
发表日期
2023 [3]
2022 [6]
2021 [10]
2020 [9]
2019 [6]
2018 [8]
更多...
语种
英语 [36]
中文 [5]
出处
ACM TRANSA... [3]
INTERNATIO... [3]
PATTERN RE... [3]
IEEE TRANS... [2]
IEEE Trans... [2]
IEEE-ACM T... [2]
更多...
资助项目
National N... [2]
National N... [2]
Beijing Na... [1]
Beijing Na... [1]
CAS Extern... [1]
China Nati... [1]
更多...
收录类别
SCI [25]
EI [9]
ACM [1]
导师
刘文举 [2]
陶建华 [2]
资助机构
National N... [3]
2012017111... [1]
2012AA0125... [1]
2015CB3518... [1]
61170127 [1]
61201402 [1]
更多...
×
知识图谱
CASIA OpenIR
开始提交
已提交作品
待认领作品
已认领作品
未提交全文
收藏管理
QQ客服
官方微博
反馈留言
浏览/检索结果:
共62条,第1-10条
帮助
限定条件
专题:模式识别国家重点实验室
第一作者的第一单位
第一作者单位
通讯作者单位
已选(
0
)
清除
条数/页:
5
10
15
20
25
30
35
40
45
50
55
60
65
70
75
80
85
90
95
100
排序方式:
请选择
作者升序
作者降序
提交时间升序
提交时间降序
WOS被引频次升序
WOS被引频次降序
期刊影响因子升序
期刊影响因子降序
题名升序
题名降序
发表日期升序
发表日期降序
A Closer Look at Self-Supervised Lightweight Vision Transformers
会议论文
, Honolulu, Hawaii, USA, 2023-7
作者:
Wang, Shaoru
;
Gao, Jin
;
Li, Zeming
;
Zhang, Xiaoqin
;
Weiming, Hu
Adobe PDF(3478Kb)
  |  
收藏
  |  
浏览/下载:139/54
  |  
提交时间:2023/09/20
Vision Transformer
Self-supervised Learning
Lightweight Networks
Knowledge Distillation
视频中的文本检测与跟踪方法研究
学位论文
, 2023
作者:
张峻博
Adobe PDF(24487Kb)
  |  
收藏
  |  
浏览/下载:154/4
  |  
提交时间:2023/06/25
视频文本检测
文本跟踪
BiRViT-1K
鲁棒特征表示
Transformer
Patch Loss: A generic multi-scale perceptual loss for single image super-resolution
期刊论文
Pattern Recognition, 2023, 卷号: 139, 页码: 109510
作者:
An T(安泰)
;
Mao BJ(毛彬杰)
;
Xue B(薛斌)
;
Huo CL(霍春雷)
;
Xiang SM(向世明)
;
Pan CH(潘春洪)
Adobe PDF(5876Kb)
  |  
收藏
  |  
浏览/下载:64/11
  |  
提交时间:2024/01/17
Single-image super-resolution
Multi-scale loss functions
Image visual perception
Perceptual metrics
Cross-Architecture Knowledge Distillation
会议论文
INTERNATIONAL JOURNAL OF COMPUTER VISION, Macau SAR, China, 2022.12.4-2022.12.8
作者:
Yufan Liu
;
Jiajiong Cao
;
Bing Li
;
Weiming Hu
;
Jingting Ding
;
Liang Li
Adobe PDF(1020Kb)
  |  
收藏
  |  
浏览/下载:116/38
  |  
提交时间:2023/04/23
Knowledge distillation
Cross architecture
Model compression
Deep learning
Learning by Seeing More Classes
期刊论文
IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 卷号: 45, 期号: 6, 页码: 7477-7493
作者:
Fei Zhu
;
Xu-Yao Zhang
;
Rui-Qi Wang
;
Cheng-Lin Liu
Adobe PDF(2561Kb)
  |  
收藏
  |  
浏览/下载:84/32
  |  
提交时间:2023/09/12
Class augmentation
generalization
confidence estimation
open-environment learning
Rethinking Confidence Calibration for Failure Prediction
会议论文
, Virtual, October 23-27, 2022
作者:
Fei Zhu
;
Zhen Cheng
;
Xu-Yao Zhang
;
Cheng-Lin Liu
Adobe PDF(10583Kb)
  |  
收藏
  |  
浏览/下载:248/189
  |  
提交时间:2023/09/12
Domain-invariant Graph for Adaptive Semi-supervised Domain Adaptation
期刊论文
ACM TRANSACTIONS ON MULTIMEDIA COMPUTING COMMUNICATIONS AND APPLICATIONS, 2022, 卷号: 18, 期号: 3, 页码: 18
作者:
Li, Jinfeng
;
Liu, Weifeng
;
Zhou, Yicong
;
Yu, Jun
;
Tao, Dapeng
;
Xu, Changsheng
收藏
  |  
浏览/下载:210/0
  |  
提交时间:2022/06/10
Domain adaptation
domain-invariant graph
the Nystrom method
few labeled source samples
CMQA: A Dataset of Conditional Question Answering with Multiple-Span Answers
会议论文
, Gyeongju, Republic of Korea, October 12-17, 2022
作者:
Ju YM(鞠一鸣)
;
Wang WK(王唯康)
;
Zhang YZ(张元哲)
;
Zheng SC(郑孙聪)
;
Liu K(刘康)
;
Zhao J(赵军)
Adobe PDF(2736Kb)
  |  
收藏
  |  
浏览/下载:69/16
  |  
提交时间:2023/06/29
端到端中英混合语音识别方法研究
学位论文
工学博士, 中国科学院自动化研究所: 中国科学院大学人工智能学院, 2022
作者:
张帅
Adobe PDF(2551Kb)
  |  
收藏
  |  
浏览/下载:220/17
  |  
提交时间:2022/06/17
端到端语音识别
中英混合
语种语音联合建模
多语上下文
语义一致性
Continual Learning for Fake Audio Detection
会议论文
, 线上(捷克), 2021-9
作者:
Ma Haoxin
;
Yi Jiangyan
;
Tao Jianhua
;
Bai Ye
;
Tian Zhengkun
;
Wang Chenglong
Adobe PDF(2113Kb)
  |  
收藏
  |  
浏览/下载:198/54
  |  
提交时间:2022/06/20
fake audio detection
continual learning
detecting fake without forgetting