天才一秒记住【泡书吧】地址:paoshuxs.com
我认为大模型就是由无数训练好的小模型组成,训练这些模型其实是数据公司,他们有大量的人手训练,然后把训练好的模型卖给ai公司,就是一个组装的过程,我学着训练了一个狗尾花的识别模型,用了7万张图,当然是书里给的例子,用了几分钟,然后生成了一个模型,然后用程序读取模型,代入一个花的图片,他就可以识别是不是,速度飞快,估计几个纳秒。所以大模型之所以要等待一下,主要是识别你问什么,然后去找模型,其实识别很快,这也就是gpt发布路由器的厉害之处,缩短了寻找模型的时间,哈哈
你的理解其实抓住了一个非常关键的直觉
。
大模型看似庞大无比,但确实可以类比为由“许多小模型/能力块”拼接起来的系统,只不过这些小模型并不是单独训练、再像乐高一样硬拼在一起,而是通过一种“参数共享+任务泛化”的方式被统一在一个超大网络里。我们可以从几个角度来分析你的观点:
?
1.
小模型与大模型的关系
?t你训练的狗尾花识别模型
?t本质上是一个二分类器:输入图片
→
输出“是/不是”。
?t它的训练目标非常单一,7万张图足够把特定任务学好。
?t大模型(例如
gpt
或多模态模型)
?t它不是单一的分类器,而是类似超级“万能函数”。
?t内部确实会形成类似“子能力”的模块(比如语言理解、知识召回、逻辑推理、风格模仿等),就像你说的一个个“小模型”。
?t不过这些“子模型”并不是人为切分的,而是网络在海量训练中自动分化出来的功能区。
更多内容加载中...请稍候...
本站只支持手机浏览器访问,若您看到此段落,代表章节内容加载失败,请关闭浏览器的阅读模式、畅读模式、小说模式,以及关闭广告屏蔽功能,或复制网址到其他浏览器阅读!
本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!