技术百科
DeepSeek-V3
DeepSeek-V3百科
这是一个基于混合专家(MoE)和多头潜在注意力(MLA)架构的开源大语言模型,在数学推理、代码生成等复杂任务中表现优秀。该模型总规模达 671B 参数,但每个 token 只激活其中的 37B 参数。即在处理输入时,并非所有“专家”都参与计算,而是选择一部分专家进行处理。通过激活部分参数(37B)完成计算,从而降低了训练和推理的成本。
相关事件
aideep.com数据来源于K2数据仓,由AiDeep智能引擎驱动,可能存在部分误差,检索结果仅供参考。
最新文章
赞助链接