![]()
专注于开发者的AI云服务提供商RunPod今日宣布推出Flash——一款软件开发工具包及平台,旨在彻底消除部署AI时繁琐的基础设施配置负担。
借助Flash,开发者可以直接从本地Python代码跳转至云端AI推理,无需配置容器、无需管理镜像、无需搭建基础设施,一切都在自动弹性伸缩中完成。
"我们开发Flash是因为一直收到相同的反馈:无服务器架构很强大,但配置过程太繁琐了,"创始人兼首席执行官Zhen Lu表示,"Docker是个好工具,但配置它并不是开发者真正想做的事。Flash把时间还给了开发者。"
Lu介绍,开发者只需编写Python代码,选择所需的计算配置,就能在几分钟内开始处理请求。
RunPod选择Python,是因为它是AI开发领域最主流的编程语言之一,在2025年依然占据主导地位。根据软件开发工具商JetBrains于2025年进行的一项调查,超过57%的受访者表示使用Python,其中逾三分之一(37%)将其作为主要开发语言,使用率远超JavaScript、Java和TypeScript。
"我们还注意到AI应用的构建方式正在发生转变,"Lu补充道,"智能体并不适合被限定在单一容器或单一端点内,它们需要调用不同的模型、在不同计算类型之间路由,并按需弹性扩展。"
将基础设施交还给开发者
AI基础设施的形态,以及开发者对测试、原型验证和快速开发部署的需求,都在加速演变。AI的第一个时代以训练为核心——让生成式AI系统所依赖的模型达到可用状态。而如今,我们正步入智能体AI时代,推理开始成为主角,并已成为AI云支出中增速最快的部分。
推理运行在一套截然不同的范式之上:工作负载动态变化、需求波动不定、响应时间至关重要,能否快速扩展往往决定一个项目能否从原型阶段顺利迈入生产。
RunPod表示,公司正努力打破以训练为中心的旧有模式,扫清开发者面临的基础设施障碍,让他们专注于自己最擅长的事:应用逻辑与代码编写。
Flash允许开发者按照自己习惯的方式构建应用,并在单一服务中将其接入具有不同计算配置的多个AI云端点。开发者只需指定所需的计算类型,后端即可自动完成负载均衡、资源调度与流量管理。
各端点支持自动弹性伸缩:需求增加时自动扩容至预设上限,空闲时则缩减至零,真正做到按需使用、零浪费。
此外,Flash还内置了命令行控制面板,方便习惯本地开发环境的工程师进行开发、测试和部署。RunPod表示,Flash的设计初衷是为软件工程师提供覆盖开发到生产全流程的完整工具集,支持从实验探索到正式上线的整个软件生命周期。
Q&A
Q1:RunPod Flash是什么?主要解决什么问题?
A:RunPod Flash是一款面向开发者的AI推理软件开发工具包及平台,核心目标是消除部署AI时繁琐的基础设施配置工作。开发者无需设置Docker容器、管理镜像或配置基础设施,只需编写Python代码并选择计算配置,即可在几分钟内完成云端AI推理部署,大幅降低上手门槛并提升开发效率。
Q2:Flash支持哪些功能?适合哪类开发场景?
A:Flash支持将本地Python应用直接接入多个具有不同计算配置的AI云端点,后端自动处理负载均衡和流量管理。端点可自动弹性伸缩,按需扩容或缩减至零。此外还提供命令行控制面板,适合本地开发习惯的工程师使用。整体适用于原型验证、快速迭代和生产部署等全流程场景,尤其适合构建需要调用多模型的智能体应用。
Q3:RunPod为什么选择Python作为Flash的核心语言?
A:Python是目前AI开发领域最主流的编程语言。根据JetBrains 2025年的调查,超过57%的开发者使用Python,37%将其作为主要语言,使用率超过JavaScript、Java和TypeScript。RunPod选择Python,是为了最大程度降低开发者的学习成本,让更多人能够快速上手并使用Flash进行AI推理开发。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.