给应用接大模型,大多数人都在重复造轮子——写JSON定义工具、调度调用、驱动智能体循环、接向量库、管嵌入、维护会话状态。等你把这些 plumbing 搭完,核心业务逻辑早被埋没了。
Daimon是个Go写的边车程序,思路很直接:把二进制文件丢到应用旁边,写个YAML配置,你就拥有一个完整可用的LLM端点——向量搜索、图查询、会话记忆、完整的智能体循环——这些 wiring 不用自己写一行。
![]()
核心机制在于:当你在配置里声明一个向量库或图数据库,Daimon会自动生成对应的LLM工具({name}_search、{name}_cypher等),并注入到每次LLM调用里。模型拿到就能用。你命名了组件,就获得了工具。
![]()
我们用一个实际场景验证这个设计:医疗病历的ICD-10编码管道。输入一段医疗转录文本,系统会——语义搜索46,000条ICD-10代码的向量库找出候选;用Neo4j的层级图谱验证每个候选;只返回经图谱确认的编码,置信度基于图结构而非模型幻觉。
整个LLM+工具的配置塞进一个YAML文件,Python客户端约60行。
需要准备的:Docker、Python 3.11+、Anthropic API key(末尾会讲如何换纯本地模型)、Daimon二进制文件。
![]()
第一步,克隆仓库:git clone https://github.com/sonicboom15/medchart,进入目录。仓库里包含Daimon配置、ICD-10加载器、编码管道。关键文件:daimon-config/config.yaml是整个LLM+工具配置;docker-compose.yml起Neo4j、Qdrant、Ollama;icd10/loader.py把CMS XML解析进Qdrant和Neo4j;pipeline/coder.py是Daimon客户端;pipeline/ingest.py批量处理MTSamples CSV。
第二步装Daimon,按平台选:macOS/Linux用Homebrew,brew tap sonicboom15/tap && brew install daimon;Windows用winget或Scoop;Debian/Ubuntu下.deb包;RHEL/Fedora下.rpm包;有Go 1.23+也可以源码编译。装完跑daimon --version验证。
第三步起基础设施:docker compose up -d。这会拉起——Qdrant在6333端口,存ICD-10代码的向量嵌入;Neo4j在7474(浏览器)和7687(Bolt)端口,存层级图谱;Ollama在11434端口,跑本地嵌入模型。没有NVIDIA GPU的话,删掉docker-compose.yml里的deploy: GPU块。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.