日志 retention 只有15天,但问题发生在三周前——这种场景运维都不陌生。传统解法要么等几小时做 Rehydration 重建索引,要么切到 Athena 牺牲体验,要么干脆加钱延长 retention。Datadog 新上线的 Archive Search 给了第四种选择:直接流式查询归档日志,结果实时返回。
核心变化是计费逻辑和查询方式。Rehydration 按索引数据量收费,且必须等批处理完成;Archive Search 按扫描数据量计费,不需要预先索引。每次查询最多保留10万条结果24小时,免费。如果后续需要聚合分析或可视化,可以在此基础上再跑 Rehydration,两条路径不互斥。
![]()
实际用起来有几个控制点。查询前可以先预览,系统从归档日志里抽1000条样本验证过滤条件,避免扫完全部数据才发现语法写错。扫描范围可以缩到具体时间段或属性,进一步压减费用。但流式查询本身不支持聚合、可视化,也不能被 Dashboard 或 Notebook 引用——这些能力仍然依赖索引后的数据。
架构上,日志从 Forwarder 进入 Datadog 后,按 Archive 配置过滤进 S3。以前是 S3 里躺着冷数据,要用必须拉回重建;现在 Archive Search 直接对接 S3 做即时扫描,省掉中间的索引环节。对于"偶尔查历史、但不想为低频查询付索引费"的场景,这个设计比较对味。
定价细节官方没给具体数字,但模式清晰:扫描越多越贵,扫得准则省。配合预览功能和属性过滤,实际账单可控。对于已经在用 Datadog 做日志归档的团队,这是纯增量能力,不需要迁移数据或改配置。
一个局限是 AWS only,其他云厂商归档存储还没支持。另外10万条结果上限对大规模故障排查可能不够,需要分时段查询或切回 Rehydration。但相比以前"要么等、要么换工具"的二选一,现在至少有了中间态。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.