国内企业开发者怎么接入Veo3.1APi?一条视频0.4的低价?

171 阅读4分钟

Open最新模型一出它的对头谷歌坐不住了,立马推出新一代AI视频生成模型Veo 3.1,较比上一个版本提升了AI视频的叙事控制能力、音频融合度与画面真实感。

Veo3是啥?如果你忘了可以在脑海里想想前几个月的ASMR沉浸式切割玻璃水果视频,就是由Veo3模型生成,清脆爆汁的音效和质感也引起了一波热度。

那么这次的Veo3.1带来哪些新的技术提升?怎么调用便宜稳定的Veo3.1视频模型APi?

Veo3.1带来哪些新的技术提升?

对比Veo3,Veo3.1将生成式音频、精细化的编辑控制与高质量的视觉输出进行了深度整合,为创作者提供了更强的叙事能力。

1.视听同步突破

Veo 3.1首次实现原生音频同步生成,能自动创建与画面完美匹配的背景音乐、环境音效和人物对话。

2.2个精准编辑能力

任意添加新元素:使用“插入 (Insert)”功能可以向场景中添加任何想象中的事物,可以处理复杂的细节,如阴影和场景光照,使添加的元素看起来更自然。

无缝移除多余物体 :"移除"功能目前还没有上线,据官方介绍“移除”功能可智能擦除指定对象并重建背景,使AI视频工具具备了类似专业后期软件的编辑能力。

3.3个画面控制升级

打造场景外观:通过“视频配料 (Ingredients to Video)”功能,用户可以上传多张参考图像来精确定义角色、物体和整体视觉风格,模型会利用这些“配料”生成一个与用户设想完全一致的最终场景。

控制镜头:通过“起止帧生视频”功能,用户可以提供第一帧和最后一帧,能够生成一个无缝衔接两者的视频,非常适合创作艺术性和转场效果。

创建更长的无缝镜头:通过“扩展 (Extend)”功能,用户可以创作时长达到一分钟甚至更长的视频。每个新生成的视频片段都基于前一个片段的最后一秒内容,从而延续原始片段的动作,对于创建长镜头或建构镜头非常有用。

4.性能全面优化

在模型底层,Veo 3.1在提示词遵循度、画面真实感和物理模拟准确性上均有显著提升。支持720p与1080p分辨率输出,结合延伸功能可使视频长度突破一分钟。

定位与体验

谷歌 Veo 3.1:更像一个专业的视频编辑工具,提供了强大的编辑功能“素材转视频”、“起止帧转视频”和“视频延伸”这些功能现在都集成了原生音频生成。还引入了对象级的“插入”和“移除”编辑功能,能够对视频进行精细调整。非常适合对画面一致性、品牌规范有高要求的创作。

风格与能力

Veo 3.1:画面风格更加精致,偏向电影质感,视觉效果雕琢得更好,但会出现丢帧和图像与声音不匹配的情况。它支持720p和1080p分辨率的输出。同时支持上传人像创作而openai目前并不支持,

特色功能

Veo 3.1的精细编辑:Veo 3.1在编辑控制上非常突出。它支持通过多张参考图像来精准定义输出内容的视觉风格。“首尾帧图”可以实现不同场景间的自然过渡,而“场景延伸”功能则可以智能地延续原有视频的动作与逻辑,突破单次生成的时长限制,在Flow中还能对内容进行插入、删除和重新构想

API调用方法

普通用户如何使用?

Veo3.1普通用户可以通过Flow平台labs.google/fx/zh/tools/flow体验,免费用户每月可获得100积分用于生成视频。

Openaiso2目前只有邀用户才能免费体验,需要获取邀码,Pro用户可以直接使用生成25s的高分辨率视频。

企业开发者API调用方法

Veo 3.1主要通过Gemini API和Vertex AI向开发者和企业用户提供。它采用按需计费模式,Pro为每秒0.40美元,Fast版为每秒0.15美元,仅对成功生成的视频收费。而GrsAi的Veo3和Veo3.1 Fast版一条视频0.4/条,pro则2/条,Openaiso2 0.08/条。价格比官便宜,且稳定性高。

如何使用

1.打开GrsAi(grsai.com/)官网 进入控制台

2.创建一个Api key

3.在线体验/文档 查看不同模型调用方法,并且可快捷体验效果

GrsAi有一个存储库,Grsai可直接把图片与视频文件上传到存储库中,从而降低开发者与企业的服务器流量成本。

支持哪些模型?

sora-image(Gpt4o)——¥0.02/张

nano-banana——¥0.022/张

so2——¥0.08/条

flux-kontext-pro——¥0.035/张

Veo3.1/Veo3.0-fast——¥2.0/条

Veo3.1/Veo3.0-pro——¥2.0/条

Gemini-2.5-Flash——Input ¥0.3/M, Output ¥0.6/M

Gemini-2.5-Pro(满血版不截断)——Input ¥1.25/M, Output ¥6.25/M

.........更多到GrsAi(grsai.com/) 模型列表查看