CASIA OpenIR  > 模式识别实验室
Context-Aware Talking-Head Video Editing
Songlin Yang1; Wei Wang2; Jun Ling3; Bo Peng2; Xu Tan4; Jing Dong2
2023
会议名称the 31th ACM International Conference on Multimedia
会议日期2023.10.29-2023.11.2
会议地点加拿大渥太华
会议录编者/会议主办者tt
出版地tt
出版者tt
摘要

Talking-head video editing aims to efficiently insert, delete, and
substitutethewordofapre-recordedvideothroughatexttranscript
editor. The key challenge for this task is obtaining an editing model
that generates new talking-head video clips which simultaneously
have accurate lip synchronization and motion smoothness. Pre-
vious approaches, including 3DMM-based (3D Morphable Model)
methods and NeRF-based (Neural Radiance Field) methods, are sub-
optimal in that they either require minutes of source videos and
days of training time or lack the disentangled control of verbal (e.g.,
lip motion) and non-verbal (e.g., head pose and expression) repre-
sentations for video clip insertion. In this work, we fully utilize the
video context to design a novel framework for talking-head video
editing, which achieves efficiency, disentangled motion control, and

收录类别EI
七大方向——子方向分类多模态智能
国重实验室规划方向分类可解释人工智能
是否有论文关联数据集需要存交
文献类型会议论文
条目标识符http://ir.ia.ac.cn/handle/173211/57512
专题模式识别实验室
通讯作者Wei Wang
作者单位1.University of Chinese Academy of Sciences
2.Institute of Automation, Chinese Academy of Sciences Beijing, China
3.Shanghai Jiao Tong University Shanghai, China
4.Microsoft Research Asia Beijing, China
通讯作者单位中国科学院自动化研究所
推荐引用方式
GB/T 7714
Songlin Yang,Wei Wang,Jun Ling,et al. Context-Aware Talking-Head Video Editing[C]//tt. tt:tt,2023.
条目包含的文件
文件名称/大小 文献类型 版本类型 开放类型 使用许可
MM_2023_Context-Awar(1657KB)会议论文 开放获取CC BY-NC-SA浏览
个性服务
推荐该条目
保存到收藏夹
查看访问统计
导出为Endnote文件
谷歌学术
谷歌学术中相似的文章
[Songlin Yang]的文章
[Wei Wang]的文章
[Jun Ling]的文章
百度学术
百度学术中相似的文章
[Songlin Yang]的文章
[Wei Wang]的文章
[Jun Ling]的文章
必应学术
必应学术中相似的文章
[Songlin Yang]的文章
[Wei Wang]的文章
[Jun Ling]的文章
相关权益政策
暂无数据
收藏/分享
文件名: MM_2023_Context-Aware Talking-Head Video Editing_.pdf
格式: Adobe PDF
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。