想象一下,只需输入一段文字,就能立刻生成一个数字人,不仅口型与声音完美同步,连说话的风格、面部表情都能模仿得惟妙惟肖?这听起来像是科幻电影里的场景,但现在,阿里开源的 OmniTalker 项目,正让这个想法触手可及。 数字人生成的“老大难”问题,解决了? 在过去,想要从文本生成一个会说话的数字人视频,通常需要分好几步走:先用一个模型把文字转成语音(TTS),再用另一个模型根据语音驱动数字人的口型和表情。这种“分步走”的方式,就像一个蹩脚的翻译,不仅效率低、延迟高,还常常导致声音和画面对不上号(音画不同步),或者说…