1月13日,文生视频领域创新企业爱诗科技发布通用实时交互式“无限流”世界生成模型——PixVerse R1。该模型标志着生成式视频技术从传统固定时长内容生成迈入“无限、连续的视觉流式传输”新阶段。
  该模型可根据用户输入的文本提示,持续生成并动态演化视觉内容,形成流畅的视频流。响应延迟仅约2秒,能够快速将用户的创意构思转化为符合预期的实时视觉变化。爱诗科技在技术报告中表示,此项技术突破了传统视频生成模型在内容时长与交互性上的双重限制。
  该模型代表了继三类主流路线之后的第四条重要路径——实时交互式视频生成,其核心在于强调用户与生成内容之间的实时互动关系,有望推动传统线性、固定时长的视频内容形态,向动态化、可交互的沉浸式视觉体验升级。在娱乐领域,该模型技术或催生新型互动媒体形式,使用户能够实时影响叙事走向;在教育培训领域,则可生成高度沉浸、灵活可变的交互场景,提升学习体验。
  目前,爱诗科技已同步上线该模型技术演示平台。平台内置多种预设场景模板,展示了该模型在不同视觉风格与应用场景下的综合表现,便于公众体验其技术特性。
  此次技术突破的背后,离不开创新政策的支持。前期,北京市科委中关村管委会已通过科技计划研发项目及人工智能产业投资基金等方式支持相关企业创新发展。

【打印本页】 【关闭窗口】