网易首页 > 网易号 > 正文 申请入驻

华盛顿大学:如何让AI语音模型像播放流媒体一样快速流畅地工作

0
分享至


在这个AI语音技术飞速发展的时代,一个看似简单却困扰着许多开发者的问题一直存在:当你使用AI来生成语音时,为什么响应速度总是很慢,而且很难像流媒体视频一样连贯地播放呢?这不仅仅是用户体验的问题,更涉及到整个系统的设计架构。由华盛顿大学和斯坦福大学的研究团队合作完成的最新研究——VOXSERVE系统,就针对这个问题提供了一个全新的解决方案。这项研究发表于2026年1月,论文编号为arXiv:2602.00269,代表了语音AI服务技术的一个重要突破。

要理解这个研究为什么重要,我们先来看看现实中的一个场景。想象你正在使用一个AI语音助手,你说出一个要求,系统需要生成一段语音回应。理想情况下,用户应该在不到半秒的时间内听到第一个音频片段,就像看流媒体视频一样——先缓冲一小段,然后开始播放,之后源源不断地输出新的内容。但现实中,许多现有的系统做不到这一点。为什么呢?因为语音AI系统和文本AI系统完全不同,它不仅要处理生成文字这么简单,还要经历多个复杂的处理阶段,每个阶段都对系统性能产生独特的影响。

这里就是VOXSERVE研究的核心所在。研究团队发现,现在大多数企业和开发者在部署语音AI模型时,都采用了各种各样的临时拼凑方案——有的用这个框架来处理语言,用那个框架来处理音频生成,各个系统之间没有任何协调,就像在演奏一个乐队,每个乐手都在看自己的乐谱,没人指挥。这导致系统效率低下,延迟高,而且当开发者想换用一个新的语音模型时,整个工程都得重新来过。

VOXSERVE的使命就是改变这种现状。它不是修修补补,而是从根本上重新设计了如何组织和运行语音AI系统。这个新系统就像给一个混乱的厨房配备了一位经验丰富的主厨,这位主厨知道如何协调各个工作站,确保食材在恰当的时刻以恰当的方式处理,最终产出高效又美味的餐品。

一、语音AI时代的新挑战

在深入理解VOXSERVE如何工作之前,我们需要先了解语音AI系统为什么这么复杂。现代语音AI模型,研究团队称之为"语音语言模型",本质上是一个多步骤的处理流程。首先,如果你给系统一段语音输入,它需要用一个"耳朵"来听——这就是语音编码器的作用,它把声波转换成计算机能理解的数字表示。然后,这些数字信息被送进一个强大的大型语言模型(你可能听说过ChatGPT之类的东西),这个模型根据你的输入进行思考和决策,生成一系列的"音频令牌"——简单说,就是一种代表声音的编码。最后,这些令牌需要被转换回真实的声波,这个工作由"语音解码器"完成。

听起来步骤不多,但问题在于这三个部分——编码器、大型语言模型和解码器——它们的工作方式和对计算资源的需求完全不同。这就像一条生产线上有三个工作站,第一个站处理得很快,第二个站处理得慢,第三个站又很快,结果就是整个生产线的效率被最慢的那个拖累。而且,不同的语音AI模型制造商设计这三个部分的方式都不一样。有些模型使用多个平行的编码路径(称为"多码本"),有些使用单一路径,有些甚至在语言模型内部嵌入了额外的小型模型来处理特殊任务。

这种多样性本身不是坏事,它代表了这个领域的活跃创新。但它造成的后果是,每一个新模型的发布,服务它的系统就不能重用之前的代码。就像每次餐厅推出新菜,厨房的流程都要完全重新设计一样。

除了架构多样性的挑战,还有另一个同样重要的问题:性能指标的不同。在文字AI系统中,人们关心的是"首字延迟"(有多快收到第一个字)和"每字生成时间"(生成每个字需要多长时间)。但对于语音,情况更复杂。用户关心的首先是"首音频延迟"——也就是从说出要求到听到第一个音频片段需要多长时间。这不仅取决于语言模型的速度,还取决于生成足够的音频令牌(通常需要10到50个),然后通过解码器转换的时间。一旦用户开始听,就引入了另一个完全不同的指标:连续性。音频播放不能有中断,否则听起来会很奇怪,就像视频卡顿一样不舒适。这意味着系统不仅要快,还要能以稳定的速度持续输出内容。

二、现状的破碎与困境

如果你今天在某个公司工作,被要求部署一个新的语音AI系统,你会发现一个令人沮丧的现实:没有一个统一的、成熟的框架可以用。你能找到的是各种零散的工具。有些语音模型的开发者附带了简单的推理代码,但这些代码通常只支持一个请求一个时间地处理,根本无法在实际的生产环境中承载多个用户同时提出请求。

一个常见的变通方案是自己动手——使用现有的文字AI服务框架(比如专门为ChatGPT优化的系统)来处理语言模型部分,然后用另一个完全独立的系统来处理音频解码。但这就像在公路上拼接两条轨道,转换点总是会出问题。两个独立的系统各自为政,没有人在中间协调。语言模型可能产生了足够的令牌,但解码器还没准备好接收。或者解码器空闲着等待数据,但语言模型还在计算。更糟的是,这两个系统对计算资源的管理完全不协调,可能导致GPU(图形处理器,这里用来高速计算)的内存被浪费,效率大打折扣。

而且,这种拼凑方案对于那些使用非标准架构的新模型来说根本不适用。比如,如果一个模型需要同时处理多个编码流,或者使用持续存储状态的解码器(需要记住之前的计算结果来影响新的输出),现有的框架就派不上用场了。开发者只能从头再来。

三、VOXSERVE的核心设计哲学

面对这些挑战,VOXSERVE的设计团队采取了一个聪明的策略。与其试图预测未来的所有可能的语音模型架构(这是不可能的),不如设计一个灵活到足够支持现在所有不同架构,以及未来大多数可能架构的系统。这就像建筑师不是试图设计一个能容纳所有可能形状的房间,而是设计一个模块化的框架,可以根据不同的需求灵活调整。

VOXSERVE的核心思想是创造一个抽象层——一个介于系统优化和具体模型实现之间的中间层。这个抽象层定义了每个语音AI系统必须能够做的基本操作,不管它的具体架构如何。想象这就像定义了一个"语音处理合约":任何语音模型只要能提供这些基本操作,VOXSERVE就能运行它,并自动应用各种系统级别的优化。

这个抽象层包含几个关键的操作步骤。首先是"预处理",这是在真正的计算开始前做的准备工作,包括格式化用户的输入和加载任何需要的前期信息。接着是"语言模型前向传播",这是真正的思考过程。然后是"采样",从模型的输出中随机选择下一个令牌(就像掷骰子一样,有一定的概率选择不同的选项,这增加了生成内容的多样性)。最后是"后处理",也就是把语言模型生成的令牌转换成真实的音频。

巧妙的地方在于,虽然这些步骤的顺序是固定的,但每一步的具体实现可以完全不同。一个模型的采样过程可能很简单,只是选择概率最高的令牌。另一个模型可能有复杂的采样逻辑,需要追踪之前选择过的令牌来避免重复。VOXSERVE的系统既不关心这些细节,也让每个模型保持自己的特性。

这个设计的妙处还在于它如何处理数据的多样性。不同的语音模型用不同的方式表示音频和文字数据。VOXSERVE的接口能够接受多维度的令牌ID(用来表示时间维度和编码路径维度),浮点数特征(用来表示连续的音频特性),和布尔掩码(用来标记哪些数据有效)。但它不强制任何特定的使用方式,而是让每个模型子类自己定义这些元素的含义。系统只是确保这些数据以一致的格式流动。

四、聪明的调度与流水线设计

即使有了统一的接口,VOXSERVE还需要解决另一个重要问题:如何最有效地执行这一切。在多个用户同时提出请求的情况下,系统需要决定在每一个计算周期内应该做什么。这就是"调度"的问题——就像一个医院的导诊护士需要决定医生的工作顺序一样。

VOXSERVE采用了一个针对语音流媒体特别优化的调度策略。它的关键洞察是:对于语音流媒体,用户的需求分为两个完全不同的阶段。在第一阶段(启动阶段),用户刚提出请求,还没听到任何音频。在这个阶段,系统应该尽快生成第一个音频片段——每一毫秒都算。这时系统应该优先处理这个新请求,就像医院在重症监护室一样,新的紧急患者要优先看。

但一旦用户听到了第一个音频,我们进入了第二阶段(稳定阶段)。在这个阶段,关键不再是最小化延迟,而是保证不间断。只要音频片段足够快地连续送出,进一步加快就没有意义了。这就像一条流水线,只要生产速度足以满足下游的消费速度,加快生产没有回报,反而浪费能源。在这个阶段,系统可以稍微放慢某些请求,用省下的计算能力去加速其他刚进入启动阶段的请求。

为了实现这一点,VOXSERVE的调度器持续监视所有活跃请求。对于处于稳定阶段的请求,它计算一个"软截止时间"——基于音频的回放速率,下一个片段最晚什么时候必须准备好。只要还有时间裕度,这些请求就可以被暂时延后。但当某个请求接近截止时间(比如还剩不到一秒),系统会立即优先处理它,确保音频播放不会中断。

这种调度方式的优雅之处在于它认识到了一个基本的真理:不是所有的延迟都同等有害。第一个音频片段的延迟用户能直观感受到,但第10个片段比计划晚100毫秒到达,只要比音频实际回放速率快就没问题。这让系统能够在保证用户体验的前提下,大幅提高整体吞吐量。

除了聪明的调度,VOXSERVE还采用了一个技术手段来减少系统开销——异步流水线。在传统的同步执行中,系统会这样工作:计算出一批令牌,停下来,采样确定下一个操作,停下来,调用解码器,停下来,等待结果,再继续。所有这些停顿和等待累积起来会造成显著的延迟。

VOXSERVE采取了不同的做法。它把语言模型的计算和解码器的计算安排在GPU的不同计算流中运行。简单来说,GPU有多个可以独立运行的"轨道"。语言模型可以在一条轨道上运行,同时解码器在另一条轨道上处理前面生成的令牌。这些轨道上的操作是相互依赖的——解码器需要等待语言模型的输出——但GPU可以自动管理这种依赖关系,同时让两条轨道的计算高度重叠,就像一个管弦乐团中的不同声部可以部分重叠一样。

与此同时,CPU上的一些任务——比如采样、追踪请求状态、管理各种缓存——可以在GPU忙着计算时进行。这创造了真正的并行工作,系统的不同部分不再是一个接着一个地等待,而是在互相配合中高效运转。

五、支撑多样性的架构之道

VOXSERVE当前支持七个现代语音AI模型,这些模型代表了该领域的设计多样性。有些是纯文本转语音的系统,有些是语音转语音的(接收语音输入,输出不同风格或语言的语音)。这些模型的解码器从相对简单的卷积层结构到复杂的基于Transformer的生成模型都有。它们的音频编码方式也各不相同:有的使用单一的编码路径,有的使用多达9个平行的编码路径。

VOXSERVE能够统一支持这些模型,是因为它的抽象层足够宽泛。对于使用多编码路径的模型,VOXSERVE接受多维的令牌ID张量,每个维度对应一个路径。对于需要连续特性输入的模型(比如声音的音调或能量),系统接受浮点特性张量。对于某些需要在语言模型内部使用小型深度方向模型的架构(这些模型生成一次多个令牌),VOXSERVE提供了可选的深度方向采样方法。

这种灵活性需要精心的工程设计。比如,对于那些解码器需要保持状态的模型(比如某些包含因果卷积的解码器,需要记住前面的输出来影响当前的生成),VOXSERVE提供了一个机制来初始化和维护这些状态,确保即使多个请求被批处理在一起,每个请求的状态也保持独立且正确。

在优化方面,VOXSERVE将主要计算路径——语言模型和解码器——编译成CUDA图,这是一种GPU编程技术,可以大幅减少调用GPU的开销。这就像把一个复杂的食谱简化成一个自动化程序一样,重复的操作不再需要一个个地指令,而是一次性编译好,批量执行。

六、性能与真实世界的验证

理论再漂亮也要经得起实践的考验。VOXSERVE的研究团队对三个主流语音AI模型进行了详细的性能测试。这些测试在单个高端NVIDIA H100 GPU上运行,模拟了真实的多用户场景,请求以泊松分布到达(这模拟了现实中用户随机到达的情况)。

结果令人印象深刻。对于CosyVoice 2.0模型,现有的优化实现在0.4请求/秒的速率下可以达到500毫秒的首音频延迟。VOXSERVE在相同的延迟下支持4.0请求/秒,吞吐量提高了10倍,且保持了100%的音频连续性。对于Orpheus模型,VOXSERVE可以在每秒10个请求的速率下维持低于500毫秒的首音频延迟,比现有实现快10倍以上。即使对于最大的Step-Audio 2模型(有90亿个参数),VOXSERVE也显示出了显著的优势。

更重要的是,这些不仅仅是原始数字的胜利。VOXSERVE保持了用户能够感知的质量——首音频延迟保持短促(少于500毫秒,用户不会觉得系统反应慢),而且音频播放的连续性得到了严格保证(数据显示94%-100%的音频片段按时到达,完全中断的情况基本不存在)。

为了更好地理解性能改进来自何处,研究团队进行了详细的消融研究,逐一移除优化。结果表明,针对流媒体的调度算法单独就能带来2.5倍的性能改进,而异步流水线设计又额外提供了15%的收益。这两项创新加在一起,与基础系统的组合,解释了为什么VOXSERVE能获得如此大的性能提升。

研究团队还展示了VOXSERVE的灵活性。当用多个GPU运行时,它能实现接近线性的扩展——用4个GPU时,吞吐量接近4倍增长。当语言模型和解码器分布在不同GPU上时,系统仍然保持高性能,即使增加了GPU间通信的开销。而且,当调整调度策略以优化吞吐量而非延迟时(对于离线应用如批量生成音频书或合成训练数据),VOXSERVE可以达到134倍实时因子的速度——也就是说,生成一小时的音频只需27秒。

七、为什么这一切重要

站在普通人的角度看,VOXSERVE的贡献是什么呢?简单来说,它让语音AI应用成为可能并经济可行。想象你正在构建一个虚拟助手,需要实时与多个用户进行语音对话。在VOXSERVE之前,你需要为每个并发用户购买昂贵的GPU资源。现在,同样的硬件能服务十倍的用户。这不仅降低了成本,还让许多原本不可能的应用成为可能——比如廉价的本地化多语言语音服务,或者为每个人提供个性化的AI语音教练。

从技术生态的角度看,VOXSERVE消除了一个重大障碍。在它出现之前,每个新的语音AI模型的发布者都必须花费大量工程资源来构建和优化一个专用的服务系统,这减缓了创新的步伐。现在,模型开发者可以专注于改进模型本身,而不用担心系统问题。这就像在一个城市里统一建设道路基础设施,这样卡车司机就可以专注于提高运输效率,而不用自己修路。

对于使用语音AI的企业来说,VOXSERVE意味着他们可以灵活地在不同的模型之间切换,选择最适合他们需求的,而不是被特定的系统束缚。这推动了竞争和创新。

八、技术细节的深入理解

如果你想更深入地理解VOXSERVE为什么这么有效,值得花时间理解几个关键的技术决策。首先是关于缓存管理的。在语言模型中,每一次生成新令牌时,系统需要重新计算之前的令牌对新令牌的影响。这很昂贵。通常的做法是存储这些中间计算结果(称为"KV缓存"),这样就不用重新计算。但当多个用户的请求被批处理在一起时,管理这些缓存变得复杂——你需要追踪每个用户各自的缓存。

VOXSERVE解决这个问题的方式是在预处理阶段为每个请求分配专用的缓存空间。在批处理多个请求时,系统保证了每个请求的缓存操作都是独立的,避免了缓冲区溢出或交叉污染。这听起来很技术性,但它的实际结果是系统可以安全地批处理更多请求,而不会出现错误。

第二个值得理解的细节是关于CUDA图的使用。GPU编程中有很多开销来自于CPU告诉GPU要做什么——这个通信过程本身是缓慢的。CUDA图是一种预先录制GPU指令序列的方式,然后可以以极低的开销多次重放。VOXSERVE对语言模型和解码器的计算部分使用了这一技术,但故意没有包含采样和其他控制流操作。为什么呢?因为采样涉及随机性,每次都会不同,不适合预编译。但更重要的是,为了提高CUDA图的覆盖率(让更多的计算走这个快速路径),VOXSERVE使用了固定的张量形状。比如,对于流媒体应用,它总是以相同大小的块处理数据。这个设计体现了"80%的性能来自20%的优化"的原则。

九、生态和可用性

VOXSERVE已经开源,代码可以在GitHub上找到,这意味着任何想要部署语音AI系统的团队都可以直接使用,或者修改以适应他们的特定需求。这对于一个服务系统来说很重要,因为部署环境千差万别。

研究团队已经证明VOXSERVE可以支持多个具有不同特性的模型。它不仅仅是在论文中证明了这一点,而是通过实际实现七个不同的模型来证明。这包括纯TTS系统、语音到语音系统、使用不同大小的语言模型(从10亿到90亿参数)、使用不同架构的解码器(从简单的卷积到基于Transformer的流匹配模型)。

对于没有GPU硬件的开发者,VOXSERVE也能支持分布式推理,在多个设备上运行模型的不同部分。这打开了在更便宜或更可用的硬件上运行大型模型的可能性。

十、现实世界的应用前景

这项研究最终的意义在于它为现实世界的应用打开了大门。虚拟助手、呼叫中心的AI座席、个人教育系统中的AI导师、多语言翻译服务——所有这些应用现在都可以用更少的成本、更高的效率来实现。

对于应用在语音应用领域的开发者来说,VOXSERVE提供的统一接口意味着他们可以停止学习十几个不同的系统框架,而是投资学习一个足够通用的工具。对于AI模型的研究者来说,VOXSERVE意味着他们可以将注意力集中在改进模型的质量、速度和能力,而不用担心如何让系统在生产环境中高效运行。

研究团队的另一个有趣的发现是,VOXSERVE对于非流媒体应用也很有用。当有大量的音频需要批量生成时(比如为一个有声读物生成音频,或者为机器学习生成合成数据),简单地改变调度器的优化目标,VOXSERVE就可以以惊人的速度运行——超过100倍的实时因子。这表明VOXSERVE不是一个只针对一个特定场景的狭隘解决方案,而是一个足够灵活的基础设施。

从更宽广的视角看,VOXSERVE代表了一个良好的系统设计的典范。面对多样化和持续变化的需求,不是试图预测所有可能的未来,而是设计一个足够灵活和强大的抽象层,让无数个具体实现都能受益于统一的系统优化。这个原则在计算机科学中一次次被证明是有效的——从操作系统的驱动程序接口到数据库的查询优化器,所有成功的系统都遵循这一原则。

**Q&A**

**Q1:VOXSERVE是什么?它解决了什么问题?**

**A:** VOXSERVE是由华盛顿大学和斯坦福大学研究团队开发的一个统一的语音AI服务系统。它解决的核心问题是,现有的语音AI部署都是零散的、缺乏协调的,导致系统响应慢、效率低。VOXSERVE通过设计一个统一的抽象层,让多种不同架构的语音AI模型都能在同一个框架内高效运行。

**Q2:VOXSERVE相比现有系统快了多少?**

**A:** 根据测试,VOXSERVE的吞吐量提高了10-20倍。比如对于CosyVoice 2.0模型,在保持相同首音频延迟的情况下,VOXSERVE可以服务10倍的并发用户。同时,它保证了音频流的连续性,用户听不到任何卡顿。

**Q3:VOXSERVE是否只能用于实时语音应用?**

**A:** 不仅仅。虽然VOXSERVE针对流媒体应用进行了特殊优化,但通过改变调度策略,它也能用于批量生成音频的场景,比如生成有声读物或合成训练数据,速度可以达到100倍实时因子以上。这展示了系统的灵活性。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
抗联部队舍命打鬼子,为何没得到民众支持?真实原因引人深思

抗联部队舍命打鬼子,为何没得到民众支持?真实原因引人深思

小豫讲故事
2026-02-06 06:00:20
25名女子在香港卖淫:每次时长不限,价格曝光,多张私密画面流出

25名女子在香港卖淫:每次时长不限,价格曝光,多张私密画面流出

博士观察
2026-02-07 18:06:23
1954年,毛泽东在家中设宴招待郑洞国,郑洞国迟到片刻,毛泽东见状问道:你今年51岁?

1954年,毛泽东在家中设宴招待郑洞国,郑洞国迟到片刻,毛泽东见状问道:你今年51岁?

源溯历史
2026-01-05 16:46:20
巴萨官宣退出欧超联赛!成立5年后名存实亡 创始12队仅剩皇马坚守

巴萨官宣退出欧超联赛!成立5年后名存实亡 创始12队仅剩皇马坚守

我爱英超
2026-02-07 19:30:52
再见贝林厄姆!皇马令他心寒,英超豪门送邀请,围绕建队冲金球

再见贝林厄姆!皇马令他心寒,英超豪门送邀请,围绕建队冲金球

阿泰希特
2026-02-07 10:52:30
用“野路子”掀桌,汽水音乐威胁到谁?

用“野路子”掀桌,汽水音乐威胁到谁?

青橙财经
2026-01-25 22:29:30
善恶到头终有报!68岁瘫在轮椅上的张铁林,如今的下场怪不了别人

善恶到头终有报!68岁瘫在轮椅上的张铁林,如今的下场怪不了别人

林轻吟
2026-02-02 11:39:55
清算终于开始了!一个要求,震动东京:中国要求日本限期内归还

清算终于开始了!一个要求,震动东京:中国要求日本限期内归还

壹知眠羊
2026-01-28 22:03:28
特朗普刚对印度减税,不到24小时,莫迪突然变脸,5000亿交易落空

特朗普刚对印度减税,不到24小时,莫迪突然变脸,5000亿交易落空

蛙斯基娱乐中
2026-02-08 08:32:09
两性关系:70岁后想多活20年,牢记这5句话,健康长寿少烦恼

两性关系:70岁后想多活20年,牢记这5句话,健康长寿少烦恼

匹夫来搞笑
2026-01-22 12:05:40
被央视怒批、洋相百出、腹中空空,这几位“绝望的文盲”凭啥能火

被央视怒批、洋相百出、腹中空空,这几位“绝望的文盲”凭啥能火

娱说瑜悦
2025-12-13 12:24:22
乌拉圭足协主席:我们有信心,中国2030年一定要进世界杯

乌拉圭足协主席:我们有信心,中国2030年一定要进世界杯

懂球帝
2026-02-07 22:25:10
没有萨卡 阿森纳真流畅 约克雷斯双响近6场5球 3-0桑德兰9分领跑

没有萨卡 阿森纳真流畅 约克雷斯双响近6场5球 3-0桑德兰9分领跑

智道足球
2026-02-08 08:41:40
央视春晚第三次联排!近十年最强阵容,网友:今年春晚总算有救了

央视春晚第三次联排!近十年最强阵容,网友:今年春晚总算有救了

杨仔述
2026-01-31 18:16:31
躺不平了,取消5年期存款的信号和考量

躺不平了,取消5年期存款的信号和考量

中产先生
2026-01-28 21:21:11
2-0!卡里克神了:疯狂4连胜,曼联掀翻克星,只落后曼城3分

2-0!卡里克神了:疯狂4连胜,曼联掀翻克星,只落后曼城3分

足球狗说
2026-02-07 22:26:38
抗议美国ICE!冬奥亚军雪地用尿写“F*** ICE”,国际奥委会回应

抗议美国ICE!冬奥亚军雪地用尿写“F*** ICE”,国际奥委会回应

全景体育V
2026-02-07 10:48:57
日本演员吃23年中国饭,娶中国妻子却发出辱华言论,如今怎么样了

日本演员吃23年中国饭,娶中国妻子却发出辱华言论,如今怎么样了

不写散文诗
2026-01-14 11:52:15
一手好牌打得稀烂?央视《太平年》高开低走,三大原因劝退观众

一手好牌打得稀烂?央视《太平年》高开低走,三大原因劝退观众

往史过眼云烟
2026-01-25 14:13:20
大心脏!谷爱凌首轮失误后次轮高分晋级 俏皮自拍:抱歉吓到大家

大心脏!谷爱凌首轮失误后次轮高分晋级 俏皮自拍:抱歉吓到大家

我爱英超
2026-02-07 19:47:34
2026-02-08 10:11:00
至顶AI实验室 incentive-icons
至顶AI实验室
一个专注于探索生成式AI前沿技术及其应用的实验室。
1714文章数 160关注度
往期回顾 全部

科技要闻

惨遭“兄弟”封禁的腾讯元宝,干得过豆包千问吗?

头条要闻

牛弹琴:美又创造历史 一些美国人感叹"沦落到和俄一样"

头条要闻

牛弹琴:美又创造历史 一些美国人感叹"沦落到和俄一样"

体育要闻

铜牌与苏翊鸣的这四年,他说:我对得起自己

娱乐要闻

金晨处罚结果曝光!肇事逃逸被罚款

财经要闻

金银震荡144小时 大爷大妈排队「抄底」

汽车要闻

工信部公告落地 全新腾势Z9GT焕新升级

态度原创

游戏
亲子
教育
公开课
军事航空

从07年运营到现在,为什么《穿越火线》还能保持不错的热度?

亲子要闻

汤淼艰难的育女经历:为要孩子游走各大医院,感叹生育实在不容易

教育要闻

聚焦“四个关键” 扎实推进中小学校党组织领导的校长负责制落地生效

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

重大转变 特朗普签令调整军售排序

无障碍浏览 进入关怀版