百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 分类导航 > 工具导航 > 正文

Grok-1-马斯克旗下xAI开源的混合专家大模型,参数量达到3140亿

  • 网站名称:Grok-1-马斯克旗下xAI开源的混合专家大模型,参数量达到3140亿
  • 网站分类:工具导航
  • 收录时间:2024-12-02 18:44
  • 浏览人数:3

网址已失效

“Grok-1-马斯克旗下xAI开源的混合专家大模型,参数量达到3140亿” 网站介绍

Grok-1是马斯克旗下AI创企xAI发布的一款开源AI大模型。它是一个混合专家(Mixture-of-Experts,MOE)大模型,其参数量达到了3140亿,远超OpenAI GPT-3.5的1750亿,是迄今参数量最大的开源大语言模型。旨在用作聊天机器人背后的引擎,用于包括问答、信息检索、创意写作和编码辅助在内的自然语言处理任务。

取消回复欢迎 发表评论: