利用人工智能构建人工智能的深度学习公司Deci宣布推出创新的生成式人工智能基础模型DeciDiffusion 1.0和DeciLM 6B,以及其推理软件开发工具包(SDK)——Infery LLM。这些突破性的产品发布为生成式人工智能领域的性能和成本效率树立了新的基准。
生成式人工智能模型的训练和推理所需的密集计算门槛阻碍了许多团队以经济的方式推出和扩展生成式人工智能应用程序。Deci的创新直接解决了这一问题,使扩展推理高效、经济高效,并为企业级集成做好了准备。
通过使用Deci的开源生成式模型和Infery LLM,人工智能团队可以将推理计算成本降低80%,并使用NVIDIA A10等广泛可用且成本友好的GPU,同时提高产品质量。Deci推出的模型适用于各种应用程序,从内容和代码生成到图像创建和聊天应用程序等。
Deci推出的模型包括“DeciDiffusion 1.0”,这是一种快速的文本到图像模型,在不到一秒钟的时间内生成高质量的图像,比著名的Stable Diffusion 1.5模型快3倍。DeciLM 6B是一个57亿参数的模型,虽然它的准确度与LLaMA 2 7B、Falcon-7B和MPT-7B等行业巨头不相上下,但真正让它与众不同的是惊人的推理速度——比Meta LLaMA2 7B快15倍。排在最后的是几周前发布的10亿参数代码生成LLM“DeciCoder”。这些模型不仅提供了无与伦比的推理速度,而且还提供了同等或更好的准确性。
Deci首席执行官兼联合创始人Yonatan Geifman表示:“为了让生成式人工智能真正彻底改变行业,团队需要掌握模型质量、推理过程和始终至关重要的成本因素。”“在Deci,我们的历程以及与世界人工智能精英的广泛合作使我们能够为采用生成式人工智能的企业制定一个变革性的解决方案。凭借我们强大的开源模型和尖端工具,我们正在为生成式人工智能企业的卓越性奠定基础。”
这些模型是使用Deci专有的神经结构搜索(AutoNAC™) 技术,是当今市场上最高效、最有效的生成式人工智能模型之一。除了基础模型外,Deci还引入了Infery LLM——一种推理SDK,使开发人员能够在保持所需准确性的同时,显著提高现有LLM的性能。将Deci的开源模型与Infery LLM相结合,可以获得前所未有的推理效率。这种卓越性能得益于独特的功能,如连续批处理、高级选择性量化和超高效波束搜索等。
Deci产品的另一个关键特色是可访问性。与闭源API模型不同,Deci提供对模型的无限制访问,这些模型可以在任何地方自托管。这不仅确保了性能,并在扩展时显著降低了推理成本,还为用户提供了更多的定制选项,减少了对数据隐私和合规性的担忧。
Deci首席科学家兼联合创始人Ran El Yaniv教授表示:“在当前人工智能重要性不断扩大的形势下,‘进化’还是‘灭绝’的区别在于人工智能工具的快速、成本效益高。”“凭借Deci开创性的解决方案,公司既可以获得企业级的质量和控制,也可以根据其精确要求灵活定制模型和推理过程。从而确保卓越性和持久的竞争优势。”
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.