CC读书 通过搜索各大小说站为您自动抓取各类小说的最快更新供您阅读!

看到这个标题,你可能会觉得是噱头。谁不知道 chatGpt 模型有 1750 亿以上的参数,别说是在笔记本电脑上跑,就是使用高性能 GpU 的台式机,也无法带得动啊。老老实实调用 ApI 不好吗?其实,LLm(大语言模型)有非常宽泛的参数量范围。咱们今天介绍的这个模型 Gpt4All 只有 70 亿参数,在 LLm 里面现在算是妥妥的小巧玲珑。不过看这个名字你也能发现,它确实是野心勃勃,照着 chatGpt 的性能去对标的。Gpt4All 基于 meta 的 LLama 模型训练。你可能立即觉得不对,你这跟 Gpt 有啥关系?为什么要无端蹭热度?且慢,Gpt4All 确实和 chatGpt 有关 —— 它用来微调的训练数据,正是调用 chatGpt 产生的大量问答内容。我怕你对技术细节不感兴趣,因此只用下面这张图来说明 Gpt4All 的训练过程。??Gpt4All 其实就是非常典型的蒸馏(distill)模型 —— 想要模型尽量靠近大模型的性能,又要参数足够少。听起来很贪心,是吧?据开发者自己说,Gpt4All 虽小,却在某些任务类型上可以和 chatGpt 相媲美。但是,咱们不能只听开发者的一面之辞。还是试试看比较好,你说是吧?深度神经网络由多个层组成。每一层包含处理输入数据并通过非线性激活函数(Sigmoid 或 ReLU)传递给其他层的神经元。每一层的输出会传递给另一层,在传递给下一层进行进一步处理之前,这一层会对这个中间表示进行某种操作。 这个架构可以分为两个主要部分:输入层和输出层。 输入层 - 这表示一组输入,这些输入被送入人工神经网络(ANN)作为训练数据或测试数据,然后由深度学习算法使用,以根据历史信息(例如过去的交易等)预测未来事件 \/ 结果,这一过程使用输入层及其相关权重。 输出层 - 这表示一组输出,这些输出在经过人工神经网络内部的各个层(例如卷积神经网络、循环神经网络或长短时记忆网络)处理后被送回到 ANN 中,然后由深度学习算法使用,以根据历史信息(例如过去的交易等)预测未来事件 \/ 结果,这一过程使用输出层及其相关权重。 深度学习模型的架构可能会因各种因素而有所不同,例如数据类型、特征数量、目标变量或正在解决的分类问题。transformer 是一类深度学习架构,在自然语言处理(NLp)和其他领域中已变得非常流行,这归功于它们强大的性能和可扩展性。transformer 首次在 Vaswani 等人于 2017 年发表的论文 \"Attention is All You Need\" 中被介绍。transformer 基于自注意力机制,这使它们能够捕获长距离依赖关系并在序列中建模复杂的模式。自注意力机制:transformer 的核心是自注意力机制,它允许模型衡量每个输入标记与序列中每个其他标记的关系的重要性。这是通过使用三个可学习的向量实现的,分别称为查询向量(q)、键向量(K)和值向量(V)。自注意力机制计算每对标记之间的注意力分数,然后用于生成值向量的加权和。多头注意力:transformer 使用多头注意力来捕捉输入序列的不同方面。多头注意力层中的每个 \"头\" 都独立执行自注意力,并生成自己的输出。这些输出然后被连接并线性转换以创建多头注意力层的最终输出。看到这里,你可能已经怒了 —— 有这么比的吗?!你拿一个如此精致的小模型 Gpt4All(70b)跟 Gpt-4 这样的大怪物去比。Gpt-4 胜之不武,我为 Gpt4All 鸣不平!且慢恼怒,我想表达的意思是这样的:如果一个模型真的能达到蒸馏浓缩的作用,那么显然体积的显着减小是重大优势,毕竟这意味着训练和应用成本降低,速度显着提升。但如果模型缩小以后在解决问答、解释和编程能力上和大模型相比差距显着,那么我们就不能武断地说小模型「性价比」更高了。有研究证实过在「有人类调教的情况下」,60 亿参数的小模型甚至可以在某些任务上面击败 1750 亿参数的大模型 (ouyang et al. 2022)。只不过,这里的比较并不公平 —— 它指的是小模型有人工调教,而大模型缺乏调教的情况。chatGpt 不缺乏调教,因此我们并没有看到 Gpt4All 能够以少量的参数达到 chatGpt 这么好的性能,即便它充分使用了 chatGpt 的输入输出数据。训练大语言模型时,多大的语料会使得模型对外部世界真实认知产生质的飞跃(可以在各项任务上都有好的表现)?目前的经验是 300 亿单词的输入量 (Zhang et al. 2020)。但是大语料需要足够高的模型复杂度来承载。模型相对输入数据过于复杂固然不好(过拟合,over-fitting)。然而一个太小的模型在面对大数据的时候,也会力不从心(欠拟合)。大和小是需要相对判断的。目前的 Gpt4All 在一众巨无霸面前,无论如何也是个小模型。chatGpt 这样的大语言模型让人们惊诧的地方,在于它能够有自己的「顿悟时刻」。这种「顿悟时刻」如何出现的?现在学术界还在研究中。但是有很多证据指向一些提示语(例如「一步步来」step by step)能够激活大语言模型的 chain-of-thought (思维链),从而有助于解锁「顿悟」般的逻辑推理能力。不过研究者同样证明了,这种「魔法」提示语有效的前提,是模型的参数量需要达到 1000 亿的规模 (wei et al. 2023)。chatGpt 的参数超过了这个阈值,而 Gpt4All 还远得很。当然不是。如果你把 Gpt4All 看成某种终极形态,那么等待你的可能是从激动快速跌落到失望。但是比较一下初代 iphone 和 iphone 4S,你就能感受到短短几年间,技术进步带来的产品性能天差地别。更何况,现在的 AI 进展速度,可不像 iphone 一样「一年一更」。即便从短期来看,Gpt4All 也有其用途。在我们的测试中,它在写作上还是有能力的。Gpt4All 不需要付费调用 token ,也不需要把数据传递到远端进行处理。对有些使用目的(例如保护公司机密数据)而言,Gpt4All 这样的模型出现,关乎的可不只是「好用」与「不好用」,而是「能用」和「不能用」的分水岭。对于很多机构的事务性工作而言,复杂的逻辑推理能力其实只是锦上添花。若是能完美解决日常单项任务,收益也已经十分显着。请你在试用之后,依然对Gpt4All保持一份耐心。也许不久以后,我们每个人的电脑和手机上,都能运行一个随时待命的优秀助理,帮助我们做许多从前想做,但是一想到要做就头疼的任务

CC读书推荐阅读:医笑倾城踏星陆隐极品家丁弃妃,你又被翻牌了!韩娱之灿冷冰冰的战神王爷堵门求我疼疼他女帝的现代生活喝醉后,女神让我忘了她人到中年,觉醒每日结算系统傲世玄医暴徒出狱重生:大帝归来炼神丹!御神兽!废材大小姐竟是绝世帝女玩家超正义隐主龙玉冰冷总裁未婚妻重生的李峰青梅有点酸,竹马你别闹超强打工仔我的六个姐姐,由我来守护!极品仙尊之高高在下豪门重生之撩夫上瘾有妖气客栈天亮了,就不需要灯塔了都市修仙从摆摊开始太初灵境尊龙出狱送王船重生60:我靠打猎让全家致富我的宝藏男神藏不住了古镇奇谭从认购证开始在欧美区扬名变成女生后兄弟也跟风了陆太太复婚吧诸界碰撞,我杀出归墟芈月传(蒋胜男)亿万契约:杠上钻石老公我的冷艳娇妻谍战:我能用不同的身份搞暗杀重生之重启2004京城异能王亿万首席,前妻不复婚重生1990之改写人生农女医妃富甲天下那位杀手不太冷模拟:身为无上巨头,托起人族高武世界:开局觉醒天人合一高武:家父五虎将,掠夺鸿蒙体!画堂归别回去了,送你一杯温热的豆浆
CC读书搜藏榜:海贼王之最强冰龙皇上非要为我废除六宫邢先生的冷面女友战国混沌剑神的猴子猴孙们独享一吻成灾:帝少的77次锁情诸神来犯,我在现代重演神话神级狂医在花都都市之最强战神奶爸逍遥修真少年空间之归园田居重生之妃王莫属女导演的爱情电影重生后,我在都市杀疯了重生,我就是回来当厨神的湛少的替婚新妻韩娱之魔女孝渊迷彩红妆公主爱妻你别跑两界真武暗影谍云偏执首席放过我爱如星辰情似海百万调音师:我只好亲自上台了!祸害娱乐圈,你说自己是正经人?都市之邪皇狂少这个傀儡师有点那啥重生娱乐圈之女王至上乡村疯子致富路墨守陈规狂龙下山退休后她只想在娱乐圈养老重生九零恶婆婆商女谋夫回2001陪你长大我在梦里逐步成神变成女孩子,将高冷千金养成病娇亲情凉薄我转身自立门户我的世界,又要毁灭了重生后休了王爷重回1976,下乡当知青御膳房的小娘子重回七七种田养娃霞光升起金牌宠妃(系统)绯闻男神:首席诱妻成瘾我是导演,却拿着演员的技能我的师傅慢半拍邪医修罗:狂妃戏魔帝异世倾心
CC读书最新小说:人王宋晓辉:游戏人间无敌纨绔丹帝灵气复苏我是警察我要打击犯罪胜者即是正义,分奴圣骑怎么你了都市冥帝:玄针逆乾坤都市阳神:从国术入道开始全民觉醒,只有我觉醒了嘴炮抵债娇夫,总裁姐姐撩疯了开局四个挂,你让我避他锋芒?修真万年之我的傻婿人生异能觉醒:从学渣开始逆袭我的中医生涯之路幕后:改造人类文明神豪:少爷的快乐,你想象不到神笔新艳我的青春恋爱绝不可能扭曲且胃酸逆天妖孽龙门战神赘婿全球美女我想要就要丁宇升官记幕后:从扮演云骑军开始灵异复苏内衣厂里的假夫妻重生中考:我竟成了修真者金山碎光杂集四合院:我的秘密藏不住了现代桃源记寰宇巨企:我来建立星际和平公司正义不会迟到,因为老子就是正义陪着蓝星成长杀机重重,以血还血七罪赎命无限穿越的长生者赤帜寰宇:复兴之战鬼帝在都市1935赤血天灾,从老区到抗战乡野神医快活无敌潮涌苍茫代驾小哥横推豪门局最强女保镖小不点人生亮剑:旅长,求求你别打劫了!离开山区?不,我要留下来重生75开局喂饱九个女知青重生79年打猎供妹妹上学太帅了美女都喜欢我怎么办官场言灵:我靠说话咒翻对家官场模拟:领导求我别莽了!十年奋斗选择摆烂后,系统魅魔双双上门年代:我的背景有点大