“今天用户通过豆包大模型,1块钱就能获得125万个Token。也就是说,只需要1块钱就能处理3本篇幅为75万字的《三国演义》的文字量。”5月15日,在2024春季火山引擎FORCE原动力大会上,火山引擎总裁谭待表示。
图丨谭待(来源:资料图)
会上,火山引擎正式推出豆包大模型家族、火山方舟2.0等新一代全栈AI服务。
发布豆包大模型家族,让AI价格进入“厘”时代
模型效果,是AI落地的关键一环。
为将最好的模型带给企业,火山引擎推出豆包大模型家族,以满足用户对于不同场景的关键需求。
具体来看:
- 豆包通用模型Pro,是豆包大模型家族的最强代表,在理解、生成、逻辑等多个维度均具备出色性能,不仅支持128K上下文,还具有可精调特性,能帮助企业在问答、总结、创作等诸多场景下全方位地应用AI。
- 豆包通用模型Lite,属于轻量版模型,在确保基础性能的前提下,比Pro版的延时降低超过50%、成本降低84%。
- 豆包·角色扮演模型,具备个性化的角色创作能力,能在上下文长对话中保持设定的一致性,满足用户个性化的角色扮演需求。
- 豆包·语音识别模型,可根据上下文给出准确的语音识别效果,善于处理口音、噪音等复杂语音识别。
- 豆包·语音合成模型,既可合成语音,又能表达多种情绪。
- 豆包·声音复刻模型,5秒实现声音一比一克隆,高度还原音色相似度和声音自然度。
- 豆包·文生图模型,具备精准文生图能力。
- 豆包·Function Call模型,能根据不同输入指令和情景,选择不同函数和算法执行相关任务。
- 豆包·向量化模型,聚焦向量检索的使用需求,为大模型知识库提供核心理解能力。
(来源:资料图)
在定价方面,豆包Pro 32K模型价格为0.8厘/千Tokens,比行业同规格模型降低99.3%;豆包Pro 128K模型价格为5厘/千Tokens,比行业更小窗口模型还便宜95.8%。
“大的使用量,才能打磨出好模型,也能大幅降低模型推理的单位成本。豆包主力模型在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%”谭待表示。
由此可见,豆包大模型的定价,让AI使用成本从以1分钱为单位进入到以1厘钱为单位。
那么,为何价格如此之低?谭待表示,主要取决于以下两方面。
首先,在技术上,诸多优化手段让大模型在保证效果的同时降低成本。例如,对模型结构进行优化调整;在工程上采用分布式推理;将不同负载进行混合调度等。
其次,在市场需求上,只有将应用成本降得非常低,才能帮助企业和开发者广泛应用大模型。
另外,谈及模型降价是否在用亏损换收入,谭待也表示:“我们作为toB的业务,追求的是长期理念,用亏损换收入的路子不可持续,我们也不会采用。之所以可以这样降价,是因为我们在技术上的优势。”
对于豆包大模型而言,其在过去一年已经发展出丰富的应用场景。不仅字节跳动旗下多款产品在利用该模型开展AI创新,如抖音、头条等,包括电商导购、编程助手等在内的50余个字节业务应用也在应用该模型。
另外,火山引擎还以邀测的方式,联合汽车、金融等不同行业的头部客户开展基于该模型的深度共创。
基于豆包大模型打造的AI原生应用豆包APP,也非常值得一用。据字节跳动产品与战略副总裁朱骏介绍,在打造该产品之初就定下三大设计原则,即拟人化、近距离接触用户和个性化。由此发展来的APP,才能作为一个更有温度的个性化存在,帮助用户解决在生活和工作中遇到的广泛问题。
发布新一代AI应用搭建平台,降低模型落地难度
除了模型效果和成本,应用落地也十分重要。
为辅助企业用好大模型,火山引擎发布大模型服务平台火山方舟2.0。该平台提供模型训练、推理、评测等全方位功能与服务。目前,2.0版本的三大插件和三大核心能力均迎来升级。
在插件方面,联网插件提供抖音头条搜索技术,能够实时连接海量优质互联网数据和抖音独有数据,为用户提供准确全面的回答;内容插件提供抖音海量视频和图文内容,丰富大模型和用户的交互过程;RAG知识库插件不仅内置字节跳动自研大规模高性能向量检索引擎,可实现百亿级别数据的毫秒级检索,也内置豆包·向量化模型,为用户提供良好的搜索相关性。
另据悉,火山方舟2.0本次也对系统承载能力、安全保护能力和算法服务这三大能力进行了升级。
为进一步连接大模型和用户场景,火山引擎发布新一代AI应用搭建平台扣子专业版。无论用户是否具备编程基础,都可以在上面快速搭建基于大模型的各类Bot,并将其发布到社交平台或网站。
并且,由于扣子专业版是火山引擎根据企业需求,以扣子平台为基础的进一步封装,因此还会额外提供企业级SLA保障,以及自定义精调模型等高级特性。
推出三款“开箱即用”AI应用,帮助SaaS企业实现AI升级
虽然大模型和插件能解决诸多应用落地问题,但对于许多企业来说,还需要“开箱即用”的AI应用,才能更好地满足一线人员的需求。
基于此,在AI应用层面,火山引擎围绕“数据+AI”“营销+AI”“销售+AI”三大方向,发布三款新产品。
其一,发布智能数据洞察产品DataWind的全新AI助手ChatBI,让用户以自然语言方式轻松实现数据洞察。
其二,发布搭载豆包大模型的智能创作云2.0版,用户只需输入简单的营销描述,就能一站式解决营销素材的创作难题。
其三,发布搭载豆包大模型的销售AI助手,能够辅助销售完成客户需求跟进、产品动态掌握、优秀话术总结等多方面工作。
除了自研AI应用,火山引擎还发布“万有计划”——豆包企服联盟。“万有计划”,是该公司面向SaaS企业的生态合作计划。豆包企服联盟,则是该计划针对大模型应用的专项计划,将提供一揽子支持措施,帮助SaaS企业实现AI升级,并联合他们为客户提供更多“开箱即用”的AI应用。
针对大规模AI场景推出混合云产品,解决云服务在大模型时代的痛点
从基础设施上看,大模型的发展让云基础的计算密度更高、计算负载变为单任务多计算并行,而这些会给云服务的管理复杂度、网络性能和稳定性带来很多挑战。
对此,火山引擎推出veStack智算版。作为一款针对大规模AI场景的混合云产品,它提供从IaaS到机器学习平台全栈的智算解决方案,支持万卡集群、3.2T高性能无损网络;提供端到端工程优化的97.78%训练加速比,实现分钟级故障发现和自愈恢复;支持十余种主流GPU卡的主流型号,可兼容各种异构算力。
与此同时,火山引擎还联合NVIDIA Omniverse推出veOmniverse,为企业和开发者提供稳定可靠、性能卓越的可扩展平台,帮助他们创作OpenUSD的3D工作流程和应用程序。
成立大模型生态联盟,让更多人从中受益
共建大模型生态,必不可少地要携手行业伙伴。
本次发布会上,火山引擎还与OPPO、vivo、荣耀、小米、三星、华硕等企业成立智能终端大模型联盟,共同探索下一代AI应用,驱动AI终端增长,与全球消费者共同打造智能未来。
例如,OPPO通过豆包大模型打造产品“小布助手”,已在OPPO、一加和realme三大手机品牌及IoT智能设备上搭载,用户可通过语音、电源键等方式唤醒这款全局智能助理并获得对应服务。
同时,火山引擎也携手吉利汽车、长城汽车等20余家汽车厂商成立汽车大模型生态联盟,探索新一代人车交互形态,围绕座舱、营销等多维度提升汽车全场景AI体验。
例如,捷途汽车通过豆包大模型打造捷途智能客服“AI小捷”,不但能做到24小时人性化回复,也能作为客服人员的智慧助手,帮助他们快速整理用户问题背后的技术信息。
迄今为止,除了在智能终端和汽车方面的合作,该公司还与金融、乳业、消费等行业的众多企业展开AI合作。会上,包括招商银行、蒙牛等在内的企业代表,也分享了其在大模型落地行业过程中的思考与实践。
如上可以看出,火山引擎致力于通过推出的各项新产品,为更多企业提供新一代全栈AI服务。
显然,未来大模型将拥有广阔的发展空间。据麦肯锡提供的报告,到2030年由大模型推动的全球经济增量将达到49万亿人民币,中国部分将达到14万亿人民币。而面对目前刚刚起步的大模型市场,火山引擎计划联合生态伙伴共同做好大模型技术和应用落地,让更多的人和企业从中受益。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.