报告人:中国科学院自动化所 梁山副研究员
时间:12月19日(周五)15:00-16:30
地点:信息楼313会议室
报告内容简介:
语音识别、声纹识别等语音交互技术是最自然的人机交互手段,一直受到学术界和工业界的广泛关注。随着深度学习在语音识别领域中的成功应用,相关技术日趋成熟。支持远讲、噪音场景下的语音交互技术开始广泛应用于智能家居、陪伴型机器人等产品,并呈现爆发趋势,代表产品如亚马逊、小米等公司推出的智能音箱产品。远讲场景下由于麦克风收集到的信号能量远低于近讲,容易受到噪声、混响等干扰,严重影响了语音交互的准确性。本次报告将简要介绍语音交互的主要应用场景,以及远讲场景下语音交互技术面临的主要挑战;基于传统语音信号处理技术的解决方法;深度学习与传统信号处理相结合的解决方法;总结并展望语音信号处理领域当前研究热点。
报告人简介:
梁山,男,分别于2008年7月和2013年7月于西安电子科技大学和中科院自动化研究所获学士和博士学位。2013年8月起留所工作,历任模式识别国家重点实验室助理研究员、副研究员。腾讯“犀牛鸟精英人才培养计划”专家库成员。主要从事语音信号处理、语音分离、麦克风阵列语音增强、计算听觉场景分析、鲁棒语音识别和深度学习等领域的研究工作。在语音和信号处理领域国际顶级期刊IEEE/ACM TASLP、JASA、Speech Communication 和国际顶级会议ICASSP、INTERSPEECH发表论文20余篇。主持或参与多项国家自然基金课题和国家自然基金重大研究计划重点项目,完成多项企业(华为、腾讯、滴滴等)合作项目。