智猩猩AI整理
编辑:没方
Hugging Face 是当下最领先的开源 AI 平台之一,凭借其标志性的 Transformers 库和汇聚了数百万模型、数据集以及 Spaces 应用的 Hub,它彻底改变了 AI 开发的生态。开发者不再需要从零开始训练模型,只需几行代码或一次点击,就能调用最前沿的 SOTA 大模型、微调自己的 LLM、快速部署视觉、语音或多模态应用。
今天要给大家介绍的开源项目是Hugging Face官方亲手打造的skills。目前,该项目在Github上已收获8.3k Stars。
![]()
- 项目地址:
https://github.com/huggingface/skills
之前,如果我们想用 GRPO 方法在HF云上训练一个70B模型,来提升模型的数学推理能力。需要手动编写 TRL (Transformer Reinforcement Learning)脚本、配置环境、管理硬件资源、提交训练任务,流程繁琐且容易出错。
现在有了 Hugging Face skills,只需一句自然语言指令,Claude Code 就能根据 skills 提供的标准化任务定义与脚本,快速完成 TRL + GRPO 训练流程、实时跟踪实验,训练完成后自动转换格式并推送到 Hugging Face Hub,全程高效流畅。
01
项目介绍
Hugging Face Skills 旨在通过编程智能体简化 AI/ML 工作流程。这些技能封装了专业知识以及常见操作的最佳实践,例如数据集创建、模型训练、评估以及在 Hugging Face Hub 上发布研究论文。每个技能都遵循标准化的Agent Skills 格式,能够无缝适配Codex、Claude Code、Cursor。
该存储库目前包含 10 个生产就绪的 skills:
![]()
(1)hugging-face-cli
当用户需要下载模型/数据集/Spaces、向 Hub 仓库上传文件、创建仓库、管理本地缓存,或在 Hugging Face 云基础设施上运行计算任务时使用该技能。 覆盖的功能包括:身份验证、文件传输、仓库创建、本地缓存操作以及云端计算任务的启动与管理。
(2)hugging-face-dataset-viewer
使用此技能处理 Hugging Face Dataset Viewer API 的相关工作流,可用于获取子集 / 划分元数据、分页读取数据行、文本检索、应用过滤器、获取 Parquet 文件下载链接,以及读取数据规模与统计信息。
(3)hugging-face-datasets
在 Hugging Face Hub 上创建和管理数据集。支持初始化仓库、定义配置(configs)和系统提示(system prompts)、流式逐行更新数据,以及基于 SQL 的数据集查询与转换。可与 HF MCP 服务端配合使用,以实现完整的数据集工作流。
(4)hugging-face-evaluation
在 Hugging Face 模型卡(model cards)中添加和管理评估结果。支持从 README 内容中提取评估表格、从 Artificial Analysis API 导入指标分数,以及使用 vLLM或lighteval 执行自定义模型评估。兼容 model-index 元数据格式。
(5)hugging-face-jobs
当用户希望在 Hugging Face Jobs 云端基础设施上运行任意计算任务时使用此技能。涵盖 UV 脚本、基于 Docker 的任务、硬件选型、成本估算、使用 token 的身份验证、密钥管理、超时配置及结果持久化。
专为通用计算工作负载设计,包括数据处理、推理、实验、批处理任务及各类基于 Python 的任务。特别适用于涉及云端计算、GPU 工作负载的场景,或当用户提到在 Hugging Face 基础设施上运行任务而无需本地环境搭建时调用。
(6)hugging-face-model-trainer
当用户希望在 Hugging Face Jobs 基础设施上,通过 TRL 训练或微调语言模型时,使用此技能。涵盖SFT、DPO、GRPO及奖励模型训练方法。此外还支持将训练后的模型转换为 GGUF 格式,以便在本地部署(如使用 llama.cpp、Ollama 等)。该技能包括:TRL Jobs 包使用指南、符合 PEP 723 格式的 UV 脚本、数据集准备与校验、硬件选型、云端训练成本估算、通过 Trackio 进行实时实验监控、模型训练完成后自动持久化推送到 Hub。
特别适用于涉及云端 GPU 训练、GGUF 格式转换的场景,或当用户提到“在 Hugging Face Jobs 上训练模型” 而无需本地 GPU 环境时调用。
(7)hugging-face-paper-publisher
在 Hugging Face Hub 上发布与管理学术论文。支持创建论文页面、将论文与模型 / 数据集关联、声明作者身份,以及生成专业级别的基于 Markdown 的研究文章。
(8)hugging-face-tool-builder
该技能让编程智能体能够根据用户描述自动生成结构清晰、可维护的脚本模板,在需要链式调用 / 组合多个 API,或任务需重复执行 / 自动化时尤为适用。
(9)hugging-face-trackio
通过 Trackio 对机器学习训练实验进行追踪与可视化。适用于训练过程中的指标日志记录(Python API)、训练诊断触发警报,以及日志指标的检索与分析(通过 CLI)。支持实时仪表板可视化、警报机制(alerts with webhooks)、Hugging Face Space 同步,以及用于自动化流程的 JSON 格式输出。
(10)gradio
使用 Python 构建 Gradio Web 用户界面和演示应用。适用于创建或编辑 Gradio 应用、组件、事件监听器、布局以及聊天机器人。
02
使用方法
(1)在 Claude Code 中安装
先注册插件市场:
/plugin marketplace add huggingface/skills然后从该市场安装插件:
/plugin install @huggingface/skills例如:
/plugin install hugging-face-cli@huggingface/skills(2)在 Codex 中安装
从仓库的 skills/ 目录下复制或创建符号链接,放到Codex标准的.agents/skills路径( $REPO_ROOT/.agents/skills 或 $HOME/.agents/skills),具体可参考:
https://developers.openai.com/codex/skills/
一旦技能文件夹出现在上述路径,Codex 会自动按照 Agent Skills 标准发现它,并在需要时加载 SKILL.md 中的指令(或被明确调用时)。
如果 Codex 环境仍依赖旧的 AGENTS.md 格式,可以使用仓库中生成的 agents/AGENTS.md 文件作为备用指令集合。
(3)在 Gemini CLI 中安装
仓库包含 gemini-extension.json 文件,用于直接集成。本地安装:
gemini extensions install . --consent或者使用 GitHub URL:
gemini extensions install https://github.com/huggingface/skills.git --consent更多帮助可参考:
https://geminicli.com/docs/extensions/#installing-an-extension
(4)在 Cursor 中安装
本仓库包含 Cursor 插件清单文件:
.cursor-plugin/plugin.json
.mcp.json(已配置 Hugging Face MCP 服务器 URL)
通过 Cursor 的插件安装流程,从仓库 URL 或本地克隆目录安装即可。
03
总结
Hugging Face Skills 的出现,不止是为编程助手提供一套标准化工具,更是在重新定义AI 工程的生产关系。它将训练、微调、评估、部署、论文发布等环节从孤立的步骤逐步整合,让人们以自然语言的方式调用专业操作,减少在文档、配置和环境间的频繁切换。
它让 AI 开发从 “手工作坊” 走向 “智能流水线”,让每一位开发者都能站在 HF 生态的肩膀上,专注创意与创新,而非环境与配置。从学生、独立开发者到研究者和团队,都能以相对较低的成本和更高的效率,将想法转化为实际的 AI 成果。
随着 MCP 协议的逐步普及、智能体能力的持续提升,以及 Skills 生态的不断扩展,未来的 AI 开发有望变得更加流畅、自动化和普惠。我们将看到更多人能够快速完成从数据准备到模型部署的全链路实验,开源 AI 社区的创新节奏也会因此得到进一步加速。
这不仅是 Hugging Face 生态的一次实用扩展,更是 AI 开发工具链向更友好、更协作方向演进的重要一步。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.