大家好,又是我小K。
荒废了好久,感觉 #Python三分钟 系列,越来越难写了(江郎才尽了)。
因为平时都是在造轮子,很难再精进。
平时用20%Python知识就能开发80%的场景,所以……

当然 #Python三分钟 以后还会继续更(我有收获了就更)。
现在介绍下麦叔编程的新系列 — AI三分钟
这个系列,我们争取用最少的语言去解释AI的词汇和技术。
接下来进入正题
我们刚接触到大模型的时候,是不是先研究的是他的参数?
就是显示多少多少B,(越大越厉害)

其实这个B的意思是十亿(B,billion)
如果这个模型上写了8B,那么它的参数量就是80亿!

问题又来了:这个参数是个啥?为啥参数越多就越厉害?
举个例子:

图中的雷达图就是能表明一个球员能力的特征数值,尽管只有6个。
但是教练们平时根据这些特征去选择一个球员(当然特征越多越好,教练就知道球员更多的隐藏能力)。
如果我们要训练一个“球员”模型,就需要把这6个特征作为参数扔进去训练。
训练好了之后,我们就得到一个球员:6这个模型。
再次回到正题
参数数量的影响
-
模型能力:参数越多,模型通常能捕获更复杂的模式,处理更广泛的任务,生成更高质量的输出。 -
计算需求:参数量越大,训练和推理所需的计算资源(GPU/TPU、内存等)越多,成本也越高。 -
效率权衡:较小模型(如6B)在特定任务上可能效率更高,适合资源受限的场景;超大模型(如140B)更适合需要极高泛化能力的复杂任务。
最后
我试过把这个0.6B的模型部到手表,你们也可以试试!!

如果你想加速Python学习,获得专业的指导,30天学会一门技能!
欢迎参加麦叔Python实战训练营,入门营,机器学习营,办公自动化营同步开放。
详情点这里:麦叔Python训练营
原文链接:https://www.zsiss.com/9362.html,转载请注明出处。
