微信邦

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 4014|回复: 0

腾讯犀牛鸟精英人才培养计划课题介绍(一)——机器学习&量子计算

[复制链接]
发表于 2018-4-23 13:36:11 | 显示全部楼层 |阅读模式
腾讯犀牛鸟精英人才培养计划是一项面向学生的校企联合培养方案,项目覆盖机器学习、量子计算、计算机视觉、语音技术、自然语言处理等产学研热点方向,入选学生将到腾讯开展科研访问,基于真实产业问题,借助腾讯海量数据、专家指导等资源,验证学术理论,加速成果应用转化,全面提升自身科研能力和综合素质。

2018年度申请时间已经过半,小伙伴们要抓紧哦~

今年共有8个课题方向,54个子课题供大家选择,总有一款适合你!
课题方向及导师介绍请持续关注系列推送

机器学习及其相关应用研究

1.1
用户行为时间序列分析及建模
利用各种机器学习算法(包括深度学习、图学习、强化学习等)和大规模计算集群对万亿级数据进行分析,探索有效的用户行为建模工具(如用户分割、内容推荐、异常检测、可视化等),以帮助提高用户体验和系统效率。
导师简介

分别获得浙江大学生物医学工程学士、控制理论与工程硕士、美国德州大学阿灵顿分校计算机科学博士学位,期间在微软亚洲研究院和IBM T. J.

Watson 研究院担任访问学生和研究实习生,并在主要相关会议杂志(ICML、NIPS、CVPR、ICCV、AAAI、IJCAI、SIGKDD 等)上发表论文30 余篇。曾先后服务于两家美国创业公司并作为主要数据科学家帮助其分别在NASDAQ 和NYSE 成功上市。曾就职于滴滴。目前任腾讯专家研究员。

1.2
大规模分布式深度学习中的

训练加速与结构学习

本课题围绕以下两项内容开展研究:1. 深度学习模型的压缩与加速:通过对深度学习模型的参数和/或梯度进行量化或者稀疏化,降低模型在存储和运行时的空间占用,加快模型在推断时的计算速度;2. 深度学习模型的结构学习:针对大规模数据场景调研更加有效的深度学习神经网络结构,并能够自动进行学习,降低深度学习的调研成本与提升模型的精度。

导师简介

导师1: 中国科学院自动化研究所博士毕业。目前主要研究方向是深度学习和分布式学习,特别是量化方法在两者中的应用,从而加快模型的训练和推断效率。
导师2: 毕业于北京航空航天大学,先后在百度和腾讯从事多年机器学习方向工作。目前主要研究领域是机器学习平台搭建、大规模分布式系统设计、深度学习、超参数学习、在线学习、Boosting 等方面研究。

1.3
迁移学习及大规模图算法的
并行加速

本课题围绕以下两项内容开展研究:1. 基于Aspect 的推荐系统可以提高推荐的覆盖率和准确率。由于标注Aspect 数据耗费巨大,所以希望提出迁移学习算法从已有的标注数据领域迁移知识到未标注数据领域,以提高搭建Aspect-based推荐系统的效率;2. 传统图论算法的并行化加速一直以来都是并行化算法研究的热点课题,例如MBE(Maximal Biclique Enumeration)问题等。就MBE问题而言,传统的解决方案主要采用基于DFS 的串行算法。如何使用并行算法解决MBE 至今依然是一个开放问题。
导师简介

导师1:香港科技大学博士。主要的研究方向为迁移学习理论及应用,以及异构数据融合。博士期间有多篇论文发表在 KDD、AAAI、IJCAI 等top-tier会议上。曾担任 IJCAI、AAAI、PAMI、SDM、TCSVT 等会议以及期刊的审稿人。
导师2:香港中文大学系统工程与工程管理系博士。主要研究方向是图理论及数据挖掘,基于图的大规模分布式机器学习,社交网络分析与推荐系统。在数据库数据挖掘顶级会议KDD、WWW 以及CIKM、DASFAA 发表论文(一作4 篇)。曾经担任KDD、WWW、CIKM、WSDM、SDM 等会议以及VLDBJ、TKDE 等期刊审稿人。

1.4
强化学习在物理世界中的核心算法
和应用研究

近年来,强化学习已经在虚拟世界游戏、模拟等领域(Alpha Go,CMU Poker,OpenAI DOTA2)取得突破性进展,但是在现实物理世界中鲜有应用。如何打通虚拟世界和现实物理世界的桥梁,将在虚拟模拟器里训练得到的模型有效部署到现实世界中,或直接在现实世界中进行高效强化学习训练,并将相应核心算法落地到普通用户的生活场景中,是一项有挑战性的重要课题,其成果将有助于通用人工智能在现实世界中的落地。
导师简介

导师1:腾讯专家研究员。美国威斯康辛大学麦迪逊分校博士毕业。加入腾讯之前就职于美国硅谷英特尔研究院担任高级研究科学家。所提出的DC Flow 光流算法曾获世界第一,在CVPR/IICCV/ICML 等顶级会议上发表了超过10 篇论文。目前的研究兴趣为深度增强学习和计算机视觉。

导师2:腾讯专家研究员。美国南加州大学博士毕业。加入腾讯之前曾在美国University of Central Florida 任教。在CVPR/ICCV/NIPS/ICML/ICLR 顶级会议上发表了近20 篇论文。目前的研究兴趣为深度增强学习和计算机视觉。

1.5
强化学习在游戏AI 中的
核心算法研究

最近几年,强化学习在限定场景的游戏AI(如Atari,Vizdoom,Alpha Go,OpenAI Dota2)中已经取得突破性进展, 如何搭建通用的游戏AI 平台,使其能在多个智能体参与的复杂策略游戏(如星际,王者荣耀)中对不完整的游戏场景进行准确估计和理解,与不同智能体进行协作,作出长远游戏策略规划,共同取得团队胜利,是一项有挑战性的重要课题,其成果将有助于推动强化学习在游戏AI 中的进步。
导师简介

腾讯高级研究员。清华大学博士毕业。加入腾讯之前分别于康奈尔大学和罗格斯大学从事博士后研究工作。在包括ICML 在内的业内顶级会议上发表了多篇论文。目前的研究兴趣为深度增强学习和计算机视觉。

1.6
面向信息安全的海量社交关系链
计算

微信或者QQ 的社交网络对用户的了解,一个重要的用户画像信息就是社交关系。以微信8 亿活跃用户的社交关系为例,最完整的表达是8 亿*8 亿的邻接矩阵。但这在我们用来做分析或者机器学习任务时显然是非常不方便的,且计算成本非常高。Network Embedding 是一种图特征的表达学习方法,将网络中的节点映射为向量空间的一个向量,通过将关系网络转换成低维空间的向量,来提升关系计算的效率。Network Embedding 的几个代表性算法包括2014 年的Deepwalk、2016 年KDD 文章Node2vec,以及2015 年微软发表的LINE。但是开源的算法在实际应用过程存在性能问题和功能问题。本项目主要是研究高效的、满足业务应用需求的关系计算算法并实现。
导师简介
意大利机器学习博士毕业,博士论文发表于ACL(long paper),一直致力于机器学习在实际业务场景中的落地应用,具体包括电商、资讯、O2O
及信息安全等方面。

1.7
基于深度神经网络的转化建模
和转化率预估优化

互联网广告场景中,转化率预估已经成为影响广告投放效果的一个重要策略环节。由于不同广告主行业不同,各自对转化的定义也不同,转化类型可能包括注册账号、付费下载、下单购买等。在这种场景下,如何建模转化率预估问题是很有挑战的。我们希望有一个统一的建模,尽可能利用上所有的广告行为数据,同时避免不同类型的转化数据相互影响,对不同类型的转化都能良好地预估。
导师简介
毕业于上海交通大学计算机应用技术专业,主要从事数据挖掘、机器学习相关研究,共发表国际会议论文6 篇,其中两篇为第一作者,分别发表在CIKM 和AAAI。目前主要负责社交广告中转化率的预估并参与转化优化相关策略,相关项目获得公司技术突破奖。

1.8
MOBA 游戏中的AI 研究

MOBA(Multiplayer Online BATtle Arena)类游戏是近年来市场上最为火热的游戏类型,无论是《英雄联盟》、《王者荣耀》都有数以亿计的游戏用户,相关电竞比赛全球关注。MOBA 类游戏吸引用户的主要点是在于其丰富多变的游戏角色、技能组合和战略战术配合,而这种实时、高自由度、复杂的游戏也给人工智能技术的研究提供了一个很好的环境。如何利用现有的人工智能技术,在MOBA 类游戏中,实现正常的角色操作,以至于达到接近甚至超过人类玩家的水平,是一个非常有挑战的课题,也是本项目主要关注的问题。
导师简介

本科毕业于复旦大学,博士毕业于新加坡国立大学计算机学院。博士期间的主要工作是文档图像的处理。随后在新加坡国立大学担任博士后,主要负责机器学习在医学图像的应用。加入腾讯前曾在新加坡资讯通信研究院担任研究员,负责机器学习在智能交通系统和文字识别等领域的应用。目前主要工作方向是人工智能在游戏上的应用和探索。

1.9
面向自动发音评测及反馈的
深度神经网络算法研究

自动发音评测是计算机辅助语言学习(CALL)的核心模块之一。传统的评测体系中的语音模型是基于语音识别建立,因而忽略了评测任务的特定需求,造成对不标准发音评测的困难。同时,传统的评测算法基于一些特定的声学和发音特征,这些特征的识别提取需要大量的训练和数据,造成实际应用的困难。本课题旨在探索构建面向发音评测的DNN 算法,实现从语音到评测结果端到端的映射,提高评测结果与人工评测的相关性,进而实现发音的评估和指导性的反馈。

导师简介

本科硕士毕业于清华大学,博士毕业于美国麻省理工学院,研究方向为超大规模数值模拟、统计分析、随机模拟、优化算法、模型的预测和不确定性分析,在SIAM 上发表应用数学论文数篇。目前负责深度学习模型的优化算法改进,以及语音评测技术的开发及算法研究。

1.10
多模态样本的低维编码

样本的低维编码一直是机器学习领域关注的基本问题,也是很多实际应用急需的技术,如在NLP 领域的词编码(Word Embedding)。在过去几十年里,基于贝叶斯推断的生成模型(Generative Model) 取得了很大的成功,其中生成模型用来描述样本从低维到观测空间的映射过程。近些年,在学习观测样本的概率分布方面,生成对抗网络(Generative Adversarial Network, GAN)受到了极大关注。不过在处理多模态(multi modes)样本时,GAN 常常会遇到难以训练的状况。在本课题中,我们将探讨基于GAN 的多模态样本的低维编码问题。
导师简介

腾讯杰出科学家,曾就读及工作于复旦大学(本科),清华大学(硕士),普林斯顿大学计算机系(博士),加州理工大学(博士后),香港中文大学
(助理教授,副教授)。现担任Theoretical Computer Science 及International Journal of Quantum Information 杂志编委。主要研究方向为量子和经典的随机算法,复杂性分析,分布式协议设计,以及上述理论在大规模数据处理,机器学习和人工智能基础研究中的应用。

量子计算

2.1
量子机器学习算法

在解决某些大规模机器学习任务上,量子算法展现出了有指数级的运算优势。了解在什么样的任务和条件下量子计算机有优势,优势有多大,是量子计算最重要的研究领域之一。学生在联合培养期间将通过研究已知的量子算法,在导师的带领下和团队成员的合作中开发新的高效量子机器学习算法。
导师简介
腾讯杰出科学家,曾就读及工作于复旦大学(本科),清华大学(硕士),普林斯顿大学计算机系(博士),加州理工大学(博士后),香港中文大学
(助理教授,副教授)。现担任Theoretical Computer Science 及International Journal of Quantum Information 杂志编委。主要研究方向为量子和经典的随机算法,复杂性分析,分布式协议设计,以及上述理论在大规模数据处理,机器学习和人工智能基础研究中的应用。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

微信邦网联系QQ|Archiver|手机版|小黑屋|鲁公网安备 37082802000167号|微信邦 ( 鲁ICP备19043418号-5 )

GMT+8, 2024-12-23 08:45 , Processed in 0.094946 second(s), 22 queries .

Powered by Discuz! X3.4

© 2001-2013 Wxuse Inc. | Style by ytl QQ:1400069288

快速回复 返回顶部 返回列表