网易首页 > 网易号 > 正文 申请入驻

TimeMOE: 使用稀疏模型实现更大更好的时间序列预测

0
分享至

传统上,预测这些趋势涉及针对每种情况的专门模型。最近的进展指向了可以处理广泛预测问题的"基础模型"。

这是9月份刚刚发布的论文TimeMOE。它是一种新型的时间序列预测基础模型,"专家混合"(Mixture of Experts, MOE)在大语言模型中已经有了很大的发展,现在它已经来到了时间序列。

想象一下有一个专家团队,每个专家都有自己的专长。TimeMOE的工作原理与此类似。它不是为每个预测使用整个模型,而是只激活最适合特定任务的一小部分"专家"。这使得TimeMOE可以扩展到数十亿个参数,同时保持效率。

TimeMOE的研究目的主要包括:

  1. 开发一种可扩展的、统一的时间序列预测基础模型架构。
  2. 通过利用稀疏混合专家(MOE)设计,在提高模型能力的同时降低计算成本。
  3. 探索时间序列领域的缩放定律,验证增加模型规模和训练数据量是否能持续改善性能。
  4. 创建一个大规模、高质量的时间序列数据集(Time-300B),用于预训练更强大的预测模型。
  5. 在零样本和微调场景下评估模型的通用预测能力。

关键概念

  1. 逐点标记化(Point-wise tokenization):TimeMOE将时间序列数据分解为单个点,确保它可以处理任何长度的序列。
  2. 混合专家Transformer(Mixture-of-Experts Transformer):这是TimeMOE的核心。它是一种专门为时间序列数据设计的人工神经网络。TimeMOE不是为每个预测使用整个网络,而是只激活网络内的一小部分"专家",从而提高效率。
  3. 多分辨率预测(Multi-resolution forecasting):TimeMOE可以在各种时间尺度上预测未来值(如预测明天或下周的天气)。这种灵活性使其适用于更广泛的预测任务。

TimeMOE的优势

  1. 可扩展性:TimeMOE可以扩展到数十亿个参数,而不会牺牲推理效率。
  2. 效率:MOE架构允许TimeMOE仅为每个预测激活网络的一个子集,从而减少计算负载。
  3. 灵活性:TimeMOE可以处理任何长度的序列,并在各种时间尺度上预测未来值。
  4. 准确性:考虑到模型的效率,TimeMOE在预测准确性方面始终优于现有模型。
  5. 泛化能力:TimeMOE在Time-300B数据集上的训练使其能够在未见过的数据上表现良好(零样本学习)。

通过结合这些优势,TimeMOE为广泛的时间序列预测应用提供了一个有前景的解决方案。

详细改进描述

TimeMOE的主要改进集中在以下几个方面:

  1. 稀疏混合专家(MOE)架构:
  • TimeMOE采用了一种稀疏的MOE设计,每个输入时间序列标记只激活一小部分专家网络。
  • 这种设计显著提高了计算效率,同时保持了高模型容量。
  • MOE层取代了传统Transformer中的前馈网络(FFN),引入了动态路由机制。
  1. 多分辨率预测头:
  • TimeMOE引入了一种新颖的多分辨率预测头,能够同时在多个尺度上进行预测。
  • 这种设计增强了模型的灵活性,使其能够生成跨越各种时间范围的预测。
  • 通过多分辨率集成学习,提高了预测的鲁棒性。
  1. 大规模预训练:
  • 研究者构建了Time-300B数据集,包含超过3000亿个时间点,跨越9个领域。
  • TimeMOE在这个大规模数据集上进行预训练,显著提升了模型的泛化能力。
  1. 灵活的输入处理:
  • 采用逐点标记化,确保模型可以处理任意长度的输入序列。
  • 使用旋转位置编码(RoPE),提高了模型对序列长度的适应性和外推能力。
  1. 优化的损失函数:
  • 使用Huber损失函数,提高了模型对异常值的鲁棒性。
  • 引入辅助平衡损失,解决MOE架构中的负载不平衡问题。
  1. 可扩展性设计:
  • TimeMOE首次将时间序列基础模型扩展到24亿参数,其中11亿参数被激活。
  • 验证了时间序列领域的缩放定律,证明增加模型规模和训练数据量能持续改善性能。

性能指标介绍

研究者使用了多个指标来评估TimeMOE的性能:

  1. 平均平方误差(MSE)和平均绝对误差(MAE):
  • 这两个指标用于衡量预测值与实际值之间的差异。
  • 在零样本和微调场景下,TimeMOE在这些指标上都显著优于基线模型。
  1. 计算效率:
  • 与同等规模的密集模型相比,TimeMOE在训练成本上平均降低了78%,推理成本降低了39%。
  1. 零样本性能:
  • 在六个基准数据集上的零样本预测任务中,TimeMOE平均减少了23%的预测误差。
  1. 微调性能:
  • 在下游任务的微调场景中,TimeMOE平均减少了25%的预测误差。
  1. 模型规模缩放:
  • 研究者展示了随着模型规模从5000万参数扩展到24亿参数,性能持续提升。
  1. 多分辨率预测:
  • TimeMOE能够在{96, 192, 336, 720}等多个预测范围内保持优秀性能。
  1. 跨领域泛化能力:
  • 在能源、天气、交通等多个领域的数据集上,TimeMOE都展现出强大的泛化能力。

这些性能指标全面展示了TimeMOE在准确性、效率和泛化能力方面的优势,证明了它作为一个通用时间序列预测基础模型的潜力。

代码实现

以下是使用TimeMOE进行预测的基本代码示例:

import torch
from transformers import AutoModelForCausalLM
context_length = 12
seqs = torch.randn(2, context_length) # tensor shape is [batch_size, context_length]
model = AutoModelForCausalLM.from_pretrained(
'Maple728/TimeMoE-50M',
device_map="cpu", # use "cpu" for CPU inference, and "cuda" for GPU inference.
trust_remote_code=True,
)
# normalize seqs
mean, std = seqs.mean(dim=-1, keepdim=True), seqs.std(dim=-1, keepdim=True)
normed_seqs = (seqs - mean) / std
# forecast
prediction_length = 6
output = model.generate(normed_seqs, max_new_tokens=prediction_length) # shape is [batch_size, 12 + 6]
normed_predictions = output[:, -prediction_length:] # shape is [batch_size, 6]
# inverse normalize
predictions = normed_predictions * std + mean

这段代码展示了如何加载预训练的TimeMOE模型,对输入序列进行标准化,生成预测,然后将预测结果反标准化。

总结

TimeMOE把MOE扩展到了时间序列预测的领域

通过引入稀疏混合专家设计,TimeMOE成功平衡了模型规模和计算效率。利用Time-300B数据集,TimeMOE验证了大规模预训练在时间序列领域的有效性。多分辨率预测能力使TimeMOE适用于各种预测任务和时间尺度。在多个基准测试中,TimeMOE显著超越了现有模型,尤其是在零样本学习场景下。

https://avoid.overfit.cn/post/6edf19076ad7460291afb38be5dd687d

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
女老板介绍她妹妹给我,我回“不如娶你”,第二天她叫我进办公室

女老板介绍她妹妹给我,我回“不如娶你”,第二天她叫我进办公室

那年秋天
2026-05-08 21:30:07
美因茨总监:我们不是廉价超市,2500万欧甚至买不到佐野海舟一条腿

美因茨总监:我们不是廉价超市,2500万欧甚至买不到佐野海舟一条腿

懂球帝
2026-05-08 13:52:13
中吉乌铁路突生变数!俄想空手套白狼?乌国不干了,总理火速赴华

中吉乌铁路突生变数!俄想空手套白狼?乌国不干了,总理火速赴华

轩逸阿II
2026-05-08 18:17:06
施工员:我妈过寿只能吃咸菜,你妈过寿花20万,太不公平了,离婚

施工员:我妈过寿只能吃咸菜,你妈过寿花20万,太不公平了,离婚

施工员小天哥
2026-05-09 09:19:16
中方动真格,西班牙跟进,阻断令一波接一波,27国联手围剿美国

中方动真格,西班牙跟进,阻断令一波接一波,27国联手围剿美国

小莜读史
2026-05-07 23:38:56
涨疯了 下周爆发 周末消息解读

涨疯了 下周爆发 周末消息解读

趋势巡航
2026-05-09 06:55:08
再打9年!!你真敢说!詹姆斯要疯了!

再打9年!!你真敢说!詹姆斯要疯了!

柚子说球
2026-05-08 10:30:48
玄学真相:生死只是换地方,离世的亲人在另一个维度悄悄为你铺路

玄学真相:生死只是换地方,离世的亲人在另一个维度悄悄为你铺路

糖逗在娱乐
2026-05-08 14:52:29
女演员起诉卡梅隆:我的容颜成了阿凡达女主

女演员起诉卡梅隆:我的容颜成了阿凡达女主

全栈遛狗员
2026-05-07 18:30:49
真不管黄晓明死活?李晨baby热恋,十年友情变爱情,男方深情告白

真不管黄晓明死活?李晨baby热恋,十年友情变爱情,男方深情告白

八卦王者
2026-05-06 14:20:06
奥迪 A6L 价格再下探!优惠最高给出 15.79 万,网友:够诚意

奥迪 A6L 价格再下探!优惠最高给出 15.79 万,网友:够诚意

汽车网评
2026-05-08 21:42:56
马上评|脱口秀里的“地狱笑话”并不好笑

马上评|脱口秀里的“地狱笑话”并不好笑

澎湃新闻
2026-05-07 15:16:26
苏东坡:凡是一遇到事情就烦躁焦虑、总不快乐的人,是没做到这些

苏东坡:凡是一遇到事情就烦躁焦虑、总不快乐的人,是没做到这些

富书
2026-05-03 11:45:16
山东vs上海G2前瞻:山东回主场殊死一搏,豪横上海仍需调整状态

山东vs上海G2前瞻:山东回主场殊死一搏,豪横上海仍需调整状态

体坛野秀才
2026-05-09 08:51:01
WTA罗马站:32强出炉,11号23号种子爆冷,莱巴金娜晋级

WTA罗马站:32强出炉,11号23号种子爆冷,莱巴金娜晋级

郭揦包工头
2026-05-09 06:54:02
打什么电话比12345更管用?这些电话比它管用100倍,建议收藏好

打什么电话比12345更管用?这些电话比它管用100倍,建议收藏好

细说职场
2026-04-28 10:39:02
“孕妇泰国坠崖案”当事人王暖暖回应被送医抢救:压力大强度高

“孕妇泰国坠崖案”当事人王暖暖回应被送医抢救:压力大强度高

韩小娱
2026-05-09 09:10:02
女环卫工被殴再升级!警方出手,施暴者老底被扒,势力大也得坐牢

女环卫工被殴再升级!警方出手,施暴者老底被扒,势力大也得坐牢

阿凫爱吐槽
2026-05-08 16:06:49
社保局提醒:退休证不算啥!这三张“保命纸”不办,晚年亏大了

社保局提醒:退休证不算啥!这三张“保命纸”不办,晚年亏大了

笑熬浆糊111
2026-05-09 04:46:27
男子爷爷向天津美院捐赠唐伯虎、苏轼等名家书画40件作品,说好了“永久性收藏”,下落岂能成谜?

男子爷爷向天津美院捐赠唐伯虎、苏轼等名家书画40件作品,说好了“永久性收藏”,下落岂能成谜?

极目新闻
2026-05-07 11:49:25
2026-05-09 10:19:00
deephub incentive-icons
deephub
CV NLP和数据挖掘知识
1988文章数 1461关注度
往期回顾 全部

科技要闻

美国政府强力下场 苹果英特尔达成代工协议

头条要闻

媒体:沙特被美国激怒 海湾国家或将深化与中国关系

头条要闻

媒体:沙特被美国激怒 海湾国家或将深化与中国关系

体育要闻

他把首胜让给队友,然后用一年时间还清账单

娱乐要闻

古天乐被曝隐婚生子,新娘竟是她

财经要闻

白宫:特朗普计划5月14日至15日访问中国

汽车要闻

MG 4X实车亮相 将于5月11日开启盲订

态度原创

亲子
时尚
本地
旅游
房产

亲子要闻

看完这个视频,你真的会笑~ 把好运都藏在笑容里

卢昱晓真的要被审判到这种程度吗?

本地新闻

用苏绣的方式,打开江西婺源

旅游要闻

花香漫冰城

房产要闻

豪掷6.8亿拿地!何猷君大手笔投资三亚!

无障碍浏览 进入关怀版