在人工智能(AI)的领域中,当我们提到“XXB”(例如6B、34B)这样的术语时,它通常指的是模型的参数量,其中“B”代表“Billion”,即“十亿”

与 Llama 2 和 Mistral 7B 等热门模型相比,Gemma 在尺寸方面的优越性能设定了新标准。

LLaMA 2 (7B) LLaMA 2 (13B) Mistral (7B) Gemma (7B) Qwen(1.5)

Gemma总体表现很强,在众多场景下均有出色发挥。

领先Llama-2是没有疑问的,与Qwen1.5和Mistral则互有胜负。

 

在人工智能(AI)的领域中,当我们提到“XXB”(例如6B、34B)这样的术语时,它通常指的是模型的参数量,其中“B”代表“Billion”,即“十亿”。因此,6B表示模型有6十亿(即6亿)个参数,而34B表示模型有34十亿(即34亿)个参数。

英文和中文的量词不一样,中文的量词更加细化,个十百千万十万百万千万亿都有。

但是英文没有万这个单独的量词,一万用10个一千来表示,一千万用10个百万来表示,以此类推。

不同的参数量比较难以理解,其实我们可以用人工智能模型中的参数量与生物的神经元数量进行粗略的对比。

就比如拿人类和虫子的神经元数量相比,人类的远远多于虫子,我们的观察结果也比较匹配,那就是人类的智慧在现行的评价体系中远高于虫子。

扫码领红包

微信赞赏支付宝扫码领红包

发表回复

后才能评论