12月12日,蚂蚁技术研究院正式推出LLaDA2.0系列离散扩散大语言模型(dLLM),并同步公开技术报告。此前开源的LLaDA2.0包含MoE架构的16B(mini)和100B(flash)两个版本,蚂蚁将Diffusion模型的参数规模首次扩展到了100B量级。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.