9月11日,AI视频创业公司生数科技创始团队在北京亮相,这是今年4月份在中关村论坛一炮而红后,生数科技团队成员的首次露面。
生数科技的产品名为Vidu,是国内首个长时长、高一致性、高动态性视频大模型,当时备受外界关注。不过时至9月,AI视频行业已经有了很大变化,Vidu不再一枝独秀,快手、字节跳动、阿里巴巴、智谱AI、MiniMax、商汤等公司都已经推出AI视频产品。据经济观察报不完全统计,仅在国内,过去4个月时间便有超过10家公司推出了自研AI视频产品。
东吴证券今年8月发布的国产AI视频大模型深度报告测算,AI视频的潜在行业空间为3178亿元。东吴证券还估算,在全AI模式下,电影、长剧、动画片和短剧的制作成本,相较传统模式将下降超过95%。
AI视频赛道能成为大众市场吗?它的商业机会在哪里?大厂入局之后,它的市场竞争愈加激烈,创业公司还有机会吗?生数科技CEO唐家渝接受经济观察报在内的媒体采访时,回应了上述问题。
关于竞争和融资
经济观察报:Vidu发布4个月以来,国内陆续出现很多AI视频公司,头部大厂也都推出了AI视频产品。作为曾经的黑马,Vidu现在还有优势吗?
唐家渝:目前在AI视频语义理解方面,我们能做到业界最好。另外Vidu在视频动作幅度较大的情况下,能保持较好的连贯性,用户公认这一点我们做得好。我们最近发布了AI视频主体参照一致性生成能力,这是全球首发的能力,可以解决AI生成视频的剧情连贯性问题。从这些技术角度,我们是有优势的。
Vidu在全球最早提出了Diffu-sion与Transformer(一种基于自注意力机制的深度学习模型)融合的底层架构U-ViT,并坚持自主的底层算法研发,没有采用开源结构,这也是我们的底气。
经济观察报:国内AI视频公司已经有10多家,大家的技术路线和商业化路径会不会出现同质化趋势?
唐家渝:在技术路线上,AI视频行业目前处于底层架构收敛的状态,可以理解为同质化,但并不意味着大家进展都一样。例如现在的大语言模型都会使用 Transformer架构,但OpenAI是明显领先的。
在底层架构统一的基础上,各个公司会有一些差异性。例如,如何有效压缩视频,如何在保证质量的情况下快速生成视频,会涉及非常多算法技巧、算法难点,这是导致差异性的主要原因。
目前各个公司的商业方向也是比较类似的,即便是Sora、Runway等国外AI视频应用,也都在积极地拥抱好莱坞,或者与广告公司合作,这是AI视频技术比较好落地的领域。总体来说,AI视频还处于行业发展前期,还有很长的路要走。
经济观察报:今年6月,生数科技公布了数亿元融资,接下来会有什么样的融资规划?今年大模型公司融资都面临一个困境,很难依靠技术和团队吸引投资,投资方会要求商业化能力。你们是否也面临同样的问题?
唐家渝:我们正在做新一轮的融资。融资过程中,技术仍是很关键的东西,目前的AI视频生成只是初步符合了物理规律,还有很高的技术天花板需要突破,比如更强的模型能力以及更多模态的协同生成。
我们经过一年半的成长,在商业化方面已经阶段性交出了比较好的答卷。其实大家耳熟能详的一些大客户,已经接入了Vidu的底层视频生产能力了,只是我们目前还不能公布。
经济观察报:你们会如何选择投资者?有什么考量?
唐家渝:我们会更愿意选择长期陪伴的投资者,无论是从资源、战略协同上,还是上下游产业上,我觉得都可以接受,最主要的还是希望大家能有长期一起往前走的机会。
关于商业化
经济观察报:现在Vidu是否已经商业化?有哪些已经落地的商业场景?
唐家渝:商业模式主要有两种。一种是SaaS订阅模式,用户打开Vidu.studio可以直接体验到产品功能。目前我们每月有80个免费积分,如果用户有更多的需求或想使用更高级的能力,就需要支付订阅费用。另一种是API(应用程序编程接口)形式,将模型能力输出形式提供给大家,即MaaS(模型即服务)。现在有很多客户需要具备视频生成的能力,作为他们已有工作流程的一个环节,所以他们希望直接调用模型的能力。
我们的客户主要来自与视频内容相关的领域,比如广告、游戏、短剧和影视等。另一部分客户是C端应用,他们需要AI视频能力支撑他们的新玩法。
经济观察报:在C端市场和B端行业,哪个领域的AI视频增长潜力更大?
唐家渝:B端的需求比较稳定、确定,能带来比较直接的收入。在接触B端行业的过程中,我们发现,他们提出的都是实实在在的需求,并不是还没想清楚就简单试一下,所以B端是我们长期重点关注的方向。
上线一个月以来,我们的C端用户增长曲线非常高。所以,我们也在不断探索C端商业化的过程中。
经济观察报:现在AI视频主要是艺术家、影视专业人员在用,普通人用一下就不用了。这个工具什么时候能普及到大众?会不会一直只是小众人群的玩具?
唐家渝:AI视频不会一直都是小众产品。就像拍照一样,一开始只是摄影爱好者或摄影师群体使用,现在拍视频、拍照已经成为每个人的习惯。
现在的AI视频已经发展到了一个节点,Vidu最新发布的功能是,只需输入一张图像,就可以保持该主体的一致性,生成各种场景的视频。我们正在努力降低视频创作的门槛,让Vidu成为一个大众愿意使用的产品,今年年底应该就能普及到大众。
关于局限和突围
经济观察报:很多人觉得用AI生成视频很难,为什么会这样?视频生成技术还存在怎样的局限性或瓶颈?
唐家渝:目前的视频生成模型最大的局限性在于可控性不足。比如生成一段画面,画面里的人物或者对象容易崩坏,生成的结果也有很大的随机性,需要不断地尝试,这背后的本质是目前视频生成技术的稳定性还不够。
从实际落地的层面上看,上面我们提到的广告、短剧等场景,对画面连续性、一致性的要求是很高的。即便是C端用户单纯去玩,也会希望能一次性就生成一个他们想要的画面,这背后都是围绕可控性的需求。
经济观察报:这种不可控的瓶颈能否实现突破?如果技术继续进步,会在哪些方面有所提高?
唐家渝:我们刚刚发布的主体参照功能,已经在一致性生成方面带来了很大提升。
当然,技术还有更进一步提升的空间。比如一个精雕细琢的柜子,上面有繁复花纹和镂空部分,对于这样复杂的结构,目前AI视频生成成功的概率依旧不高。场景生成包含很多组成因素,例如AI视频生成的一款运动鞋,我希望它能在更复杂、更动态化的场景中有更好的表现。这些都需要不断提升模型能力。
免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。