精英人才培养计划是一项校企联合人才培养项目,入选学生将受到业界顶尖技术团队与高校导师的联合指导及培养。培养期间,学生将获得3个月以上到访腾讯开展科研访问的机会,基于真实产业问题及海量数据,验证学术理论、加速成果应用转化、开阔研究视野。同时项目组将为学生搭建线上和线下学习、交流平台,帮助学生挖掘更多潜能。学生通过“十分精英圈”线上平台,随时获取前沿技术资讯、沉淀科研收获与心得;通过“智学研讨会”及“智享交流会”等线下平台,积极参与海内外顶级学术会议及学术专家交流活动;通过“精英研学营”进阶平台,对话产业专家、修炼职场智慧、开拓创新思维。
2020腾讯犀牛鸟精英人才培养计划
12个前沿方向,69项课题
申报截止日期:2020年1月19日
同学们,记得抓紧时间申报哦!
上期介绍了
课题方向(五)机器学习及其相关应用研究
这期让我们一起来看看第六个方向吧!
总有一个适合你!
课题方向(六)
语音技术
1基于短语音的声纹识别研究(地点:深圳)
声纹识别技术是一种根据人的声音来进行身份判定的人机交互方式。该技术在智能家居、商业支付、车载和司法刑侦等方面发挥着重要作用。目前基于短语音的身份判定受到研究者的广泛关注,具体包括基于短语音的文本无关声纹识别、文本相关声纹识别和文本限定声纹识别。研究重点包括基于深度学习的网络设计、损失函数设计和说话人特征学习等。
导师简介
腾讯高级研究员,博士毕业于西北工业大学,研究兴趣包括声纹识别和机器学习。目前主要负责声纹识别方面的工作。在Interspeech、ICASSP、ASRU、SLT、CSL、TASLP等会议和期刊发表论文约20篇。
2人机语音交互中的高表现力语音合成研究(地点:深圳)
语音中的非文本信息对确定说话人的情感和意图十分重要。然而现有的人机语音交互系统中很少考虑用户音频中的非文本信息。本课题旨在探求如何通过自然语言处理和情感识别等多个深度学习领域结合的方式来充分利用用户音频中的非文本信息,如情感与重音等,来改进现有的人机语音交互系统中合成的语音的表现力,使其能够根据用户的情感及意图做出更具个性化的回应。
3基于互联网大规模无标注音频的语音合成研究(地点:深圳)
现有的语音合成系统通常都是基于大量的优质数据的有监督学习,然而大量的优质数据是十分昂贵的。本课题旨在探求如何通过表征学习和对抗学习等无监督学习的方式,增强语音合成算法在标注不完善、不同环境、不同口音和有数据噪声等情形下的鲁棒性,最终利用互联网中的大量无标注音频构建无需优质数据的鲁棒语音合成系统。
导师简介(课题2和课题3)
腾讯高级研究员,博士毕业于香港中文大学。研究兴趣包括语音合成、多模态音视频生成、歌唱合成和说话人转换等。在ICASSP、Interspeech等国际顶尖会议上发表论文10余篇。
、43基于低质量语料的语音合成方法研究(地点:北京/深圳)
目前语音合成技术依赖于高质量的训练语料。在很多工业界应用中,采集大规模高质量语音数据是非常昂贵的。本项目目标是从低质量语音里分离出不同的浅变量,并通过控制这些浅变量合成出高质量语音。
导师简介
腾讯高级研究员,毕业于德州大学达拉斯分校。主要研究方向包括多模态语音合成、歌声合成、语音识别以及说话人识别。在语音方向顶级会议和期刊发表论文30余篇。
5基于深度学习的3D沉浸式语音采集和渲染(地点:深圳)
本课题探索结合经典信号处理和深度学习的3D渲染技术。特别地,本课题将针对多人会议场景,如何基于参数化深度网络的建模,优化HRTF设置,提升空间声效果。该课题将覆盖包括耳机、笔记本和音箱阵列等多种终端场景。
导师简介
腾讯专家研究员,负责音频算法研究。主要研究方向包括:语音通信、语音增强、心理听觉建模和语音质量评估等。参与ITU-T、3GPP、MPEG和AVS等标准组织下多个标准化工作,包括音频压缩和感知质量评估等方向。有30+篇专利(部分已授权)和50+篇标准提案。
6基于深度学习的端到端实时智慧语音通信(地点:深圳)
主要结合语音信号处理和深度学习技术,研究复杂场景下的特征提取和深度神经网络模型结构,改善传输语音信号质量,在语音增强、分离、去混响、回声消除、关键词识别、说话人识别和语音转换等领域的技术探索。
导师简介
腾讯高级研究员,博士毕业于中国科学技术大学信号与信息处理专业,研究领域包括语音增强、语音分离、语种识别、语音转换、说话人识别和关键词检测等,目前主要研究深度学习技术在实时语音通信场景的探索和应用。
语音技术研究方向中有哪个课题戳中你吗?
了解更多课题方向请访问链接
https://www. withzz. com/project/detail/54
或直接扫描下方二维码查看
“2020腾讯犀牛鸟精英人才培养计划申报指南”
|