DeepSeek开源具有671B个参数的新型 AI 模型
人工智能开发商DeepSeek今天开源了具有6710亿个参数的全新大型语言模型DeepSeek-V3。
LLM 可以生成文本、编写软件代码并执行相关任务。DeepSeek 表示,它在六项基准测试中的表现优于市场上最先进的两款开源 LLM。
DeepSeek-V3 基于所谓的混合专家 (MoE) 架构。它由多个神经网络组成,每个神经网络都针对不同的任务集进行了优化。当 DeepSeek-V3 收到提示时,一个称为路由器的组件会将请求发送到最适合回答该请求的神经网络。
MoE 架构的主要优势在于它降低了硬件成本。向 DeepSeek-V3 发送提示不会激活整个 LLM,而只会激活请求路由到的特定神经网络。每个这样的神经网络都有 340 亿个参数,这意味着它只需要相对有限的基础设施即可运行。
除了其优点之外,MoE 架构也带来了一些挑战。在训练过程中,MoE 模型的某些神经网络会比其他神经网络接收更多的训练数据,这可能会导致 LLM 的输出质量不一致。DeepSeek 表示,它已经开发出一种缓解这一挑战的新方法,并将其应用于 DeepSeek-V3。
LLM 的训练使用了 14.8 万亿个 token 的信息。一个 token 对应几个字母或数字。训练过程耗时 278.8 万个图形处理单元小时,这意味着它使用的基础设施相对较少。业界最先进的 AI 集群拥有数万个或更多的 GPU,可以在几天内完成这样的训练项目。
除了 MoE 架构外,DeepSeek-V3 还配备了多种优化功能,旨在提高其输出质量。
LLM 使用一种称为注意力的技术来识别句子中最重要的细节。DeepSeek-3 实现了多头潜在注意力,这是该技术的改进版本,允许它从文本片段中提取多次关键细节,而不是仅提取一次。这使得 LLM 不太可能忽略重要信息。
DeepSeek-V 还具有所谓的多标记预测功能。语言模型通常一次生成一个标记。相比之下,DeepSeek-V3 一次生成多个标记,从而加快了推理速度。
DeepSeek 通过将其算法与其他三款开源 LLM(上一代 DeepSeek-V2、Llama 3.1 405B 和 Qwen2.5 72B)进行比较来测试其算法。DeepSeek-V3 在评估中使用的所有九项编码和数学基准测试中都取得了更高的分数。它在一系列文本处理任务中也表现得更好。
DeepSeek-V3 的代码可以在Hugging Face上找到。
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩
- 1 民营企业和民营企业家勇担重任 7951949
- 2 U20国足遭沙特绝杀 无缘世青赛 7923885
- 3 替身女演员受伤 《漂白》剧组致歉 7858832
- 4 中国家电的出海秘诀在这里 7726606
- 5 马库斯:我要把真相还给无数中国人民 7600195
- 6 DeepSeek给出周末不虚度指南 7574766
- 7 少女花150元文身 清洗需76.9万元 7413516
- 8 U20国足点球被扑出 7313241
- 9 哪吒很火 但我们离影史第一还有多远 7238525
- 10 价值108亿元加密货币被盗 7168871