===
6 月 11 日,火山引擎正式发布豆包大模型 1.6 系列,该系列由 “doubao-seed-1.6”“doubao-seed-1.6-thinking”“doubao-seed-1.6-flash” 三个模型组成。豆包大模型 1.6 具有更强的模型效果,在众多权威测评集上,得分均属于国际第一梯队。在推理能力、多模态理解能力、GUI 操作能力上具备领先优势。
目前,火山引擎边缘大模型网关已全面支持豆包大模型 1.6 系列!即日起,用户可以在边缘大模型网关使用豆包全系列模型,并享受 200 万 tokens 免费额度,只要在网关访问密钥使用了本次新增的豆包大模型,还可以申请将免费额度提升至 1000 万 tokens !
边缘大模型网关,快速、可靠调用豆包大模型 1.6 系列
火山引擎边缘大模型网关支持通过一个 API 接口访问多家大模型提供商的模型与智能体,在端侧基于遍布全球的边缘计算节点就近调用。利用边缘云基础架构优势,提高模型访问速度,为终端用户提供更快速、可靠的 AI 服务体验。
在边缘大模型网关,用户可以通过两种方式调用豆包****大模型1.6系列:
-
一是通过平台预置模型,边缘大模型网关预置模型中,新增豆包****大模型 1.6 系列,您可直接使用并对其创建网关访问密钥;
-
二是通过**自有三方模型,**您可以将您在第三方模型平台的密钥纳管至边缘大模型网关,通过边缘大模型网关签发的网关访问密钥,进行对应模型的访问与调用。
据了解,豆包大模型 1.6 系列由三个模型组成:
-
**doubao-seed-1.6:**All-in-One 的综合模型,是国内首个支持 256K 上下文的思考模型,支持深度思考、多模态理解、图形界面操作等多项能力。支持选择开启或关闭深度思考、自适应思考三种方式,其中自适应思考模式可根据提示词难度自动决定是否开启思考,提升效果的同时大幅减少 tokens 消耗。
-
**doubao-seed-1.6-thinking:**豆包大模型 1.6 系列在深度思考方面的强化版本;在代码、数学、逻辑推理等基础能力上进一步提升;支持 256K 上下文。
-
**doubao-seed-1.6-flash:**豆包大模型 1.6 系列的极速版本,支持深度思考、多模态理解、256K 上下文;延迟极低,TOPT 仅需 10ms;视觉理解能力比肩友商旗舰模型。
通过边缘大模型网关调用豆包大模型 1.6 系列,还具备以下优势:
-
**加速调用:**基于端侧请求发起位置,边缘大模型网关将请求就近路由到网络延时最低的节点,加速豆包大模型 1.6 系列的响应速度,提升服务质量。
-
**控制成本:**边缘大模型网关利用边缘缓存机制对请求就近存储,并在相同请求发出时就近调用,减少豆包大模型 1.6 系列调用请求的回源次数,降低模型调用成本,实现成本管控。
-
**自动重试:**当请求调用超时或失败时,配置请求重试次数,即可通过边缘大模型网关实现模型调用自动重试,降低手动运维成本。
-
**故障转移:**当单个模型故障时,通过边缘大模型网关的一个 API 配置多个模型,就可以自动切换同类型下的备用模型,确保服务的连续性和可靠性。
豆包大模型特惠,扩容免费提升至 1000 万 tokens
当前,火山引擎边缘大模型网关已适配 100+ 种主流大模型及智能体,首次创建每个网关访问密钥可用额度为 200 万 tokens !
针对豆包大模型 1.6 系列,边缘大模型网关推出特惠活动,只要在**边缘大模型网关创建网关访问密钥,并关联本次最新的豆包大模型,**即可提交扩容申请,免费额度提升至 1000 万 tokens !
免费额度获取方式:
-
登录边缘大模型网关控制台(console.volcengine.com/vei/aigatew… 200 万免费 tokens 额度
-
在已经完成创建的网关访问密钥中,关联带有 NEW 标识的最新豆包模型,即可申请获取更多额度,最高可达 1000 万免费 tokens!
扩容****申请指导:
-
登录火山配额中心:console.volcengine.com/quota/produ…
-
选择“ai-gateway-token-limit”提交申请:申请中需要说明需要配置免费额度的网关访问密钥 ID,额度可以选择至 1000 万,选择更高额度,以 1000 万进行生效
-
详细指导说明请见:www.volcengine.com/docs/6893/1…