CASIA OpenIR

浏览/检索结果: 共9条,第1-9条 帮助

限定条件                
已选(0)清除 条数/页:   排序方式:
基于数据与知识双驱动的智能医疗问答系统研究 学位论文
, 中国科学院自动化研究所: 中国科学院自动化研究所, 2021
作者:  李文博
Adobe PDF(2865Kb)  |  收藏  |  浏览/下载:216/6  |  提交时间:2021/06/24
高血压  问答系统  知识图谱  深度学习  命名实体识别  
鲁棒的自然场景文本检测与识别技术研究 学位论文
, 中国科学院自动化研究所: 中国科学院自动化研究所, 2021
作者:  李小倩
Adobe PDF(23215Kb)  |  收藏  |  浏览/下载:243/12  |  提交时间:2021/06/29
自然场景  文本检测  文本识别  
Single shot multi-oriented text detection based on local and non-local features 期刊论文
INTERNATIONAL JOURNAL ON DOCUMENT ANALYSIS AND RECOGNITION, 2020, 期号: 2020, 页码: 241-252
作者:  Li, XiaoQian;  Liu, Jie;  Zhang, ShuWu;  Zhang, GuiXuan;  Zheng, Yang
浏览  |  Adobe PDF(2525Kb)  |  收藏  |  浏览/下载:294/49  |  提交时间:2020/09/07
Text detection  Natural scene text  Convolutional neural network  Attention mechanism  
Text Recognition in Natural Scenes: A Review 会议论文
, Beijing, 2020-10
作者:  Xiaoqian Li;  Jie Liu;  Shuwu Zhang
Adobe PDF(1091Kb)  |  收藏  |  浏览/下载:122/29  |  提交时间:2021/06/29
复杂场景语音前端增强与分离算法研究 学位论文
工学学位, 北京: 中国科学院自动化研究所, 2020
作者:  李晨星
Adobe PDF(11281Kb)  |  收藏  |  浏览/下载:318/15  |  提交时间:2020/07/20
语音去混响  语音增强  语音分离  远场语音识别  
IBN-STR: A Robust Text Recognizer for Irregular Text in Natural Scenes 会议论文
, MiLan, Italy, 2021-01-10
作者:  Li XQ(李小倩);  Liu J(刘杰);  Zhang GX(张桂煊);  Zhang SW(张树武)
浏览  |  Adobe PDF(450Kb)  |  收藏  |  浏览/下载:203/63  |  提交时间:2020/10/23
Text Recognition  
Single-channel Speech Dereverberation via Generative Adversarial Training 会议论文
, Hyderabad, 2018-9
作者:  Li, Chenxing;  Wang, Tieqiang;  Xu, Shuang;  Xu, Bo
浏览  |  Adobe PDF(1735Kb)  |  收藏  |  浏览/下载:185/64  |  提交时间:2020/07/21
Cbldnn-based Speaker-independent Speech Separation Via Generative Adversarial Training 会议论文
, Calgary, 2020-4
作者:  Li, Chenxing;  Zhu, Lei;  Xu, Shuang;  Gao, Peng;  Xu, Bo
浏览  |  Adobe PDF(791Kb)  |  收藏  |  浏览/下载:194/64  |  提交时间:2020/07/21
Self-Attention Based Network for Punctuation Restoration 会议论文
, In Beijing, China, August 20th-24th 2018
作者:  Feng Wang;  Wei Chen;  Zhen Yang;  Bo Xu
收藏  |  浏览/下载:25/0  |  提交时间:2020/10/27
Punctuation Restoration  Self-attention