CRI将在CEDEC会议介绍从语音数据自动生成自然口型动作的语音分析软件“CRI ADX LipSync”
活用深度学习,对应所有语言
面向游戏开发的语音、影像的中间件品牌CRIWARE®展开的株式会社CRI Middleware(总部:东京都涩谷区,董事长:押见正雄,东京证券交易所创业板:证券代码3698,以下简称“CRI”), 在2019年9月4日(水)~ 9月6日(金) PACIFICO横滨举行的日本最大的游戏开发人员会议“CEDEC 2019”上,举办关于从语音数据自动生成自然口型动作的语音分析口型同步中间件CRI ADX®LipSync(以下简称“ADX LipSync”)”的讲座。
ADX LipSync是活用深度学习的语音分析技术,根据角色的发声自动生成最佳口型动作,预定今秋上市的中间件。
口型动作制作时,通常采用的是对台词逐音手动操作来设定口型动作,并配合台词音量来改变嘴巴大小的方法。而ADX LipSync可以比这些方法更有效的生成更自然的口型。
讲座除了介绍口型的制作基础知识、实装手法的比较、ADX LipSync的特长外,在展位上还会展示游戏中模拟对话场景、根据台词自然生成口型的演示;以及模拟语音聊天情景,基于麦克风输入的声音数据生成实时口型的演示。我们欢迎您的参加。
■关于ADX LipSync
输入声音数据自动生成自然的口型动作
ADX LipSync分析输入的语音数据的波形,自动生成适当的口型动作。另外,不单单是口型,例如日语的Ma行Ba行Pa行等两唇音都是发声时先闭上嘴唇,像这样的嘴巴开闭,都能做到再现符合实际发音的口型。
生成的口型可以输出为可以简单嵌入各种模型数据的格式,可以同时应用于2d / 3d模型。
多语言对应
ADX LipSync不仅可以生成日语模式,还可以生成所有语言的口型。大幅提高对应日语、英语、中文等多种语言、世界范围进行发行的游戏的开发效率。
与音频中间件“CRI ADX®2”协作
与CRI的统合型音频中间件“CRI ADX2”协作,你可以用相同的工具来编辑声音和口型。因为能够一边看声音波形数据一边调整口型和同步等,所以有助于快速的开发。
■CEDEC2019参展概要
・会 期:2019年9月4日(三)~6日(五)
・场 所:PACIFICO横浜
・参展概要:
累计5000以上的游戏采用的音频中间件“CRI ADX2”,以及今秋发布的语音解析口型同步中间件的最新技术展示。在ADX2中介绍面向Unreal Engine 4的“音频空间设计功能”和对改善工作流程做出贡献的新功能等。对于新的口型同步中间件,公司将以使用实际模型数据进行实时语音分析技术演示为中心进行介绍。
・讲 座:
9月4日(三)13:30~14:30
“让角色更有魅力!面向游戏的口型同步中间件”
https://cedec.cesa.or.jp/2019/session/detail/s5ce392857c2d5
暂无关于此日志的评论。