CC读书 通过搜索各大小说站为您自动抓取各类小说的最快更新供您阅读!

每天早上打开电脑,你可能会让AI帮你整理前一天的工作邮件;写报告时思路卡壳,随手输入几个关键词,AI就能生成一段通顺的初稿;甚至跟智能音箱聊天,它也能精准接住你的每一个话题——这些看似平常的场景背后,都离不开一个关键技术:大语言模型(LLm)。如果把AI比作一个会“说话”的人,那大语言模型就是它的“语言中枢”,既让它能听懂人类的话,也让它能说出符合逻辑、贴近需求的话。今天咱们就把这个“语言中枢”拆解开,用最通俗的话讲清楚它到底是怎么工作的、能帮我们做什么,以及它目前还有哪些“小缺点”。

一、大语言模型:不是“死记硬背”,而是“总结规律”的“语言学霸”

要理解大语言模型,首先得打破一个误区:它不是把所有文本都“死记硬背”下来,而是像一个擅长总结规律的“学霸”,通过大量阅读,摸清人类语言的“套路”——比如什么词常跟什么词搭配、一句话的主语和宾语怎么对应、不同场景下该用什么样的语气。

(一)它的“学习资料”:比你一辈子读的书还多

咱们普通人上学时,读几十本课本、几百本课外书就算不少了,但大语言模型的“学习量”是普通人的千万倍。它的训练数据涵盖了几乎所有能找到的人类文本:从古今中外的书籍(比如《红楼梦》《战争与和平》)、新闻报道(从地方晚报到国际通讯社稿件)、学术论文(物理、生物、医学等各个领域),到网上的论坛帖子、社交媒体内容、甚至是产品说明书、法律条文……只要是用文字记录的信息,只要不涉及隐私和违法内容,都可能成为它的“学习素材”。

举个例子,openAI训练chatGpt时,用的数据集包含了数十亿个网页、数百万本图书,总字数保守估计在“万亿级”——如果把这些文字打印成书,堆起来能填满好几个大型图书馆。这么多资料不是随便堆砌的,工程师会先对数据进行“筛选和清洗”:去掉重复的内容(比如网上反复转载的同一篇文章)、删除错误信息(比如谣言、虚假新闻)、修正语法错误,确保输入给模型的是“高质量素材”,就像给学霸挑选优质的辅导书,而不是杂乱的废纸。

(二)它的“学习工具”:transformer架构,让AI学会“抓重点”

有了海量资料,还需要一个高效的“学习工具”,这个工具就是transformer架构——你可以把它理解成大语言模型的“学习方法”,能帮它快速抓住文本的核心逻辑,而不是像“流水账”一样过一遍内容。

transformer架构里最关键的设计,是“注意力机制”,这也是大语言模型能“读懂上下文”的核心。咱们用一个生活场景就能看懂:比如你跟朋友聊天时说“我昨天买了个新手机,它的摄像头特别清晰”,你不用解释“它”指什么,朋友也知道是“新手机”——这就是人类的“注意力”在起作用,自动把“它”和前面的“新手机”关联起来。

大语言模型的注意力机制也是这个道理。当它处理一句话时,会给每个词都打上“权重”:重要的词权重高,次要的词权重低。比如看到“小明带着小狗去公园,它一路上都很活泼”,注意力机制会让模型重点关注“小狗”和“它”的关系,给这两个词更高的权重,从而判断出“它”指代的是“小狗”,而不是“小明”或“公园”。

更厉害的是,它还能处理“长文本”的关联。比如一篇几千字的文章里,前面提到“公司今年推出的新款耳机”,后面又说“该产品支持降噪功能”,注意力机制能让模型跨越段落,把“该产品”和“新款耳机”对应起来——这就像我们读长篇小说时,能记住前面出场的人物和情节,不会看到后面就忘了前面。

除了注意力机制,transformer架构还有“编码器”和“解码器”两个部分:编码器负责“理解文本”,比如把“今天天气很好”这句话拆解成“今天(时间)、天气(对象)、很好(状态)”,搞清楚每个词的角色;解码器负责“生成文本”,比如你输入“写一句形容春天的话”,解码器就会根据编码器理解的“春天”相关信息(比如花开、草绿、温暖),生成“春风拂过,路边的野花都露出了笑脸”这样的句子。这两个部分配合起来,就实现了“理解+生成”的完整流程。

(三)它的“学习过程”:先“打基础”(预训练),再“学专业”(微调)

大语言模型的学习不是一步到位的,而是分“预训练”和“微调”两步,就像我们先上小学到大学打基础,再读研究生学专业方向一样。

1. 预训练:学“通用知识”,成为“通才”

预训练阶段,模型的目标是“广泛涉猎”,掌握人类语言的通用规律。比如它会学习:

- 语法规则:“主语+谓语+宾语”的基本结构,比如“我吃饭”是对的,“饭吃我”是错的;

- 词汇搭配:“美丽”常用来形容“风景”“花朵”,而不是“石头”“垃圾”;

- 常识逻辑:“夏天热,冬天冷”“鸟会飞,鱼会游”;

- 语义理解:“苹果”既可以指水果,也可以指手机品牌,需要根据上下文判断。

这个阶段,工程师不会给模型“出题”,而是让它做一种叫“掩码预测”的练习:比如把句子“今天______去公园”中的“我”遮住(用“[mASK]”代替),让模型根据上下文猜被遮住的词是什么。一开始模型可能会猜“小狗”“汽车”,但随着训练次数增多,它会慢慢发现“人”相关的词(我、他、她)才是更合理的答案。通过反复做这种“猜词”“补全句子”“续写段落”的练习,模型逐渐摸清语言的规律,就像我们通过大量阅读,慢慢形成“语感”一样。

预训练完成后,模型就具备了基本的语言能力:能看懂大部分文本,能写通顺的句子,甚至能回答一些常识性问题。但这时候的模型更像一个“通才”,对具体领域的专业内容还不熟悉——比如让它写一份医学报告,它可能会用错专业术语;让它写代码,它可能会出现语法错误。

2. 微调:学“专业技能”,成为“专才”

微调阶段,就是针对具体任务“专项训练”,让模型从“通才”变成“专才”。比如我们想让模型做“智能客服”,就会用大量的客服对话数据(比如用户问“怎么退款”,客服回答“您可以在订单页面点击‘申请退款’按钮”)来训练它;想让模型做“代码生成”,就用大量的正确代码(比如python、Java代码)来训练它。

微调的过程就像“师傅带徒弟”:工程师会给模型“出题”,并告诉它“标准答案”。比如输入“用户说‘快递还没到,怎么办’”,同时给出正确回答“您可以在App内查看快递单号,复制后到快递公司官网查询物流进度,若超过3天未更新,可联系客服反馈”,让模型学习“用户问题”和“客服回答”之间的对应关系。通过反复练习,模型逐渐掌握该领域的专业知识和表达方式,最终能精准应对特定任务。

举个实际例子:华为的“盘古大模型”在预训练后,会针对“气象预测”进行微调——用过去几十年的气象数据(温度、湿度、气压、风速等)和对应的天气预报结果来训练,最终让模型能根据实时气象数据,准确预测未来7天的天气;而针对“工业质检”微调时,又会用大量的产品图片(合格产品、有瑕疵的产品)和质检报告来训练,让模型能通过图片判断产品是否合格。

二、大语言模型的应用:从“办公帮手”到“生活助手”,渗透每个场景

经过预训练和微调后,大语言模型就从“实验室里的技术”变成了“能落地的工具”,咱们生活、工作中的很多场景,都有它的身影。

(一)办公场景:把人从“重复劳动”中解放出来

对上班族来说,大语言模型最实用的功能,就是帮你处理那些“耗时但不费脑”的工作,让你把精力放在更有创造性的事情上。

1. 自动生成文案:从“卡壳半天”到“一键出稿”

写报告、写邮件、写方案时,很多人都会遇到“开头难”的问题——盯着空白文档半小时,一句话也写不出来。这时候大语言模型就能帮上忙:你只要输入“核心信息”,它就能快速生成初稿。

比如你是市场专员,需要写一份“4月产品销售报告”,只要输入“4月A产品销量1000件,同比增长20%,主要增长来自华东地区;b产品销量800件,同比下降5%,因为竞品降价;下一步计划在华北地区加大推广”,模型就能生成:

“# 4月产品销售报告

一、整体销售情况

4月公司两款核心产品总销量达1800件,较去年同期增长8.8%,整体保持增长态势,但产品间表现分化明显。

二、分产品销售分析

1. A产品:本月销量1000件,同比增长20%,其中华东地区贡献60%的销量增长,主要得益于该地区线下促销活动的开展,以及经销商渠道的拓展。

2. b产品:本月销量800件,同比下降5%,核心原因是竞品c于3月底推出降价活动,分流了部分价格敏感型客户,导致b产品在华南、西南地区的销量下滑明显。

三、下一步工作计划

针对b产品的下滑趋势,计划5月在华北地区加大推广力度:一是联合当地KoL开展线上直播带货,二是推出“买b产品送周边礼品”的活动,力争将销量恢复至去年同期水平。”

虽然初稿可能需要你再修改细节,但至少帮你搭好了框架、填充了基础内容,把原本需要2小时的工作压缩到10分钟。

2. 自动整理信息:从“海量文本”到“关键摘要”

开会时记笔记、看长篇报告时抓重点,也是很多人的“痛点”——会议开2小时,笔记记了好几页,回头找关键信息时还是得翻半天;一份50页的行业报告,看完需要1小时,还容易漏掉重点。

大语言模型的“信息整理能力”就能解决这个问题。比如你把会议录音转成文字(约5000字),输入“提取会议关键信息:讨论的3个核心问题、达成的2个共识、待办事项及负责人”,模型就能快速输出:

“## 会议关键信息提取

1. 核心讨论问题

(1)如何解决5月供应链短缺问题,确保A产品按时交付;

(2)是否需要调整b产品的定价,应对竞品冲击;

(3)618大促的预算分配,是侧重线上广告还是线下活动。

2. 达成共识

(1)供应链方面:优先保障A产品核心零部件的采购,协调供应商增加20%的备货量,预计可满足5月交付需求;

(2)定价方面:暂不调整b产品原价,而是推出“满减券”(满200减30),既避免价格战,又能吸引客户。

3. 待办事项

(1)供应链部李经理:5月5日前与供应商签订补充协议,确认备货量;

(2)市场部张经理:5月10日前制定618大促预算分配方案,提交管理层审批;

(3)产品部王经理:5月8日前完成b产品“满减券”的系统配置需求文档。”

这样一来,你不用再逐字逐句读文本,就能快速掌握核心信息,效率大大提升。

(二)服务场景:让“智能客服”真的“智能”起来

以前我们跟智能客服聊天,常常会觉得“鸡同鸭讲”——你问“我的订单为什么还没发货”,客服只会回复“请提供订单号”;你再问“没有订单号怎么办”,客服还是重复“请提供订单号”。这是因为早期的智能客服用的是“关键词匹配”技术,只能识别固定的词,不能理解上下文。

而基于大语言模型的智能客服,就能像“真人客服”一样灵活对话。比如:

- 用户:“我上周买的鞋子,今天还没收到,是不是丢了?”

- 客服:“您好,麻烦您回忆一下下单时用的手机号,我帮您查一下物流进度~”

- 用户:“手机号是138xxxx5678,另外我想换个颜色,能在收货后换吗?”

- 客服:“查到您的订单物流显示‘正在派送中’,预计今天下午6点前送达;关于换颜色,收货后7天内可申请换货,您需要确保鞋子未穿着、吊牌未拆,届时在订单页面点击‘申请换货’即可~”

这里的关键是,客服能同时处理“查物流”和“换颜色”两个问题,还能根据用户提供的手机号主动查询信息,而不是机械地要订单号。甚至遇到用户的“复杂需求”,比如“我买的礼物要送给朋友,想让快递员在周六上午送货,并且不要放快递柜”,客服也能准确记录需求,并反馈给快递部门——这就是大语言模型带来的“对话连贯性”和“需求理解能力”。

现在很多行业都在用这种智能客服:电商平台处理订单咨询,银行解答信用卡账单问题,运营商回应套餐办理需求……不仅减少了人工客服的工作量(比如以前1个客服只能同时接2个对话,现在智能客服能同时接上千个),也让用户不用再等“人工排队”,随时都能得到回复。

(三)创意场景:当“灵感助手”,帮你打开思路

除了实用功能,大语言模型还能当“创意助手”,帮你在写作、设计、策划等场景中打开思路。

比如你是自媒体博主,想写一篇“关于‘拖延症’的文章”,但不知道怎么开头,输入“帮我想3个关于‘拖延症’的文章开头,风格轻松幽默”,模型就能生成:

1. “早上定了7点的闹钟,结果把‘再睡5分钟’按下了8次;打开电脑想写稿,先刷了半小时短视频,又给绿植浇了水,最后发现:哦,半天过去了,稿纸还是空白的——没错,这就是拖延症患者的日常。”

2. “朋友说‘拖延症不是病,拖起来真要命’,我深以为然:上周的报告拖到截止日前夜才写,结果熬到凌晨3点;想买的演唱会门票,想着‘明天再抢’,结果第二天一醒,票已经卖光了……”

3. “如果拖延症有等级,我大概能评上‘王者’:衣服堆在洗衣机里,等‘明天洗’;书架上的书,等‘有空看’;甚至连手机电量只剩1%,都想等‘再玩5分钟’再充电——直到手机自动关机,我才后悔莫及。”

这些开头不一定完全符合你的想法,但能给你提供“不同的角度”,帮你跳出“想不出开头”的困境。甚至你想写诗歌、编故事、设计海报文案,都能让模型给你“抛砖引玉”:比如输入“帮我写一首关于‘月亮’的短诗,适合发朋友圈”,模型能生成“晚风把云吹开\/月亮露出半张脸\/像藏在夜空里的糖\/悄悄甜了整个夜晚”;输入“帮我编一个‘小猫和小狗一起冒险’的短故事开头”,模型能生成“小区花坛后面有个废弃的纸箱,小猫花花和小狗阿黄把它当成‘秘密基地’。今天早上,它们发现纸箱里多了一张地图,上面画着一个‘藏着骨头饼干的花园’——一场冒险就这样开始了……”

当然,这些创意内容需要你再加工和调整,但至少帮你“迈出了第一步”,尤其是当你“灵感枯竭”时,能快速帮你打开思路。

(四)学习场景:做“个性化老师”,随时解答疑问

对学生和学习者来说,大语言模型还能当“个性化老师”,帮你理解知识点、解决学习问题,尤其适合课后复习、查漏补缺,或者攻克自己不擅长的学科难点。

比如你在学数学时,不懂“鸡兔同笼”问题,输入“用最简单的话讲清楚‘鸡兔同笼’怎么解,举个例子”,模型就能用通俗的语言解释:

“鸡兔同笼问题,简单说就是‘知道鸡和兔的总数量,也知道它们的总腿数,求鸡和兔各有多少只’。比如题目:‘鸡和兔一共10只,总腿数32条,求鸡和兔各几只?’

解法很简单,用‘假设法’:

1. 先假设所有动物都是鸡——鸡有2条腿,10只鸡就有2x10=20条腿;

2. 但实际总腿数是32条,比假设的多了32-20=12条腿——为什么会多?因为我们把兔当成了鸡,每只兔比鸡多2条腿(4-2=2);

3. 所以兔的数量就是‘多出来的腿数÷每只兔多的腿数’,也就是12÷2=6只;

4. 鸡的数量就是总数量减去兔的数量,10-6=4只。

最后验证一下:4只鸡有8条腿,6只兔有24条腿,加起来32条腿,刚好对得上。”

如果还是没懂,你还能追问“有没有更简单的方法?比如用画图的思路讲”,模型会继续调整表达方式,直到你理解为止——这比课堂上老师“一刀切”的讲解更灵活,也不用害怕“问多了被嫌弃”。

除了数学,语文、英语、物理等学科也能靠它帮忙。比如:

- 学语文时,输入“解释一下‘落霞与孤鹜齐飞,秋水共长天一色’的意思,再分析一下这句诗好在哪里”,模型会拆解诗句中的意象(落霞、孤鹜、秋水、长天),解释“动静结合、色彩和谐”的写作手法,还会结合王勃写这句诗的背景补充知识点;

- 学英语时,输入“帮我区分‘look’‘see’‘watch’的用法,每个词造3个句子”,模型会列出“look强调‘看的动作’(I look at the blackboard.)、see强调‘看的结果’(I see a bird.)、watch强调‘专注看动态事物’(I watch tV.)”,还会帮你纠正造句中的错误;

- 学物理时,输入“为什么冬天摸铁和木头,感觉铁更凉?用初中生能懂的话讲”,模型会用“热传递”的基础概念解释:“铁是金属,导热快,你手上的热量会很快被铁吸走;木头导热慢,热量不容易被吸走,所以虽然两者温度一样,但摸铁感觉更凉。”

甚至对成年人的“终身学习”,大语言模型也能帮上忙。比如你想自学python编程,输入“帮我制定一个‘零基础学python’的一周计划,每天1小时,最后能写出一个简单的计算器程序”,模型会给出详细的安排:

“day1:了解python基本概念,安装编程软件(如pycharm),学会打印‘hello world’;

day2:学习变量和数据类型(数字、字符串、布尔值),练习给变量赋值、做简单计算;

day3:学习条件语句(if\/else),练习‘判断一个数是正数还是负数’;

day4:学习循环语句(for\/while),练习‘打印1到100的偶数’;

day5:学习函数(def),练习‘定义一个计算加法的函数’;

day6:整合前面的知识,尝试写计算器的基础框架(接收用户输入的两个数和运算符号);

day7:完善计算器功能(处理加减乘除,避免除数为0的错误),测试并修改bug。”

这种“按需学习”的模式,能让你根据自己的节奏和需求掌握知识,不用再跟着固定的课程进度走,大大降低了学习门槛。

(五)生活服务场景:从“解决问题”到“提升体验”

除了办公、学习,大语言模型还能渗透到日常生活的方方面面,帮你解决琐碎问题、提升生活体验,就像一个“随叫随到的生活助手”。

1. 日常事务:帮你“做规划、避坑”

比如你周末想带家人去周边短途旅行,输入“帮我制定一个‘北京到天津一日游’的计划,带老人和5岁孩子,预算500元以内,包含早餐和午餐”,模型会给出兼顾“轻松、有趣、省钱”的方案:

“08:00-09:00:北京南站坐高铁到天津站(票价54.5元\/人,老人凭身份证买优惠票27.5元,孩子免票,全程30分钟),车上吃自带的早餐(面包、牛奶);

09:30-11:00:天津站步行到意式风情区(免费),带老人孩子逛欧式建筑,拍拍照,累了找长椅休息;

11:30-13:00:在风情区附近的‘天津菜馆’吃午餐(推荐锅巴菜、狗不理包子,3人消费约150元);

13:30-15:30:坐地铁2号线到天津自然博物馆(免费,需提前在公众号预约),带孩子看恐龙化石、动物标本,老人也能看民俗展览;

16:00-17:00:博物馆附近的超市买天津特产(如十八街麻花,预算100元);

17:30-18:30:天津站坐高铁返回北京,结束行程。

总预算:高铁票54.5x2+27.5=136.5元 + 午餐150元 + 特产100元 = 386.5元,低于500元预算。”

如果遇到“选择困难”,比如不知道买哪款家电,输入“帮我对比两款洗衣机:海尔xqb100-Z1269和美的mb100V50wd,主要看洗净效果、噪音、耗电量,适合三口之家”,模型会整理出关键信息:

“1. 洗净效果:两者都是10公斤容量,海尔支持‘双动力洗’(防缠绕,洗净比0.9),美的支持‘免清洗’(防止内桶脏污,洗净比0.85),海尔略胜一筹;

2. 噪音:海尔脱水噪音≤62分贝,美的≤60分贝,美的更安静,适合放在卧室附近;

3. 耗电量:海尔待机功率0.5w,美的0.3w,美的更省电;

4. 总结:如果更看重洗净效果,选海尔;如果在意噪音和省电,选美的,两者都适合三口之家。”

2. 兴趣爱好:帮你“入门、进阶”

如果你有兴趣爱好,大语言模型还能当“兴趣导师”。比如你想学做饭,输入“帮我写一道‘新手也能做的番茄炒蛋’菜谱,详细到每一步的时间和火候”,模型会给出“零失败”指南:

“食材:番茄2个(中等大小)、鸡蛋3个、葱花1小把、盐1小勺、糖半勺、食用油2勺;

步骤:

1. 准备工作(5分钟):番茄顶部划十字,用开水烫1分钟,剥掉外皮,切成1厘米见方的小块;鸡蛋打入碗中,加半勺清水(让鸡蛋更嫩),用筷子搅匀;

2. 炒鸡蛋(2分钟):热锅冷油,油热后(油面轻微冒烟),倒入蛋液,用铲子快速翻炒,炒成小块后盛出(不要炒太老,表面凝固即可);

3. 炒番茄(3分钟):不用洗锅,再加半勺油,放入番茄块,中火翻炒1分钟,直到番茄出汁;加1小勺盐、半勺糖(中和酸味),继续翻炒30秒;

4. 混合翻炒(1分钟):倒入炒好的鸡蛋,轻轻翻炒,让鸡蛋裹上番茄汁,关火,撒上葱花即可。

小贴士:番茄选熟透的(捏起来有点软),出汁更多;炒鸡蛋时加清水,鸡蛋会更蓬松。”

再比如你喜欢养花,输入“我养了一盆绿萝,最近叶子发黄,怎么救?”,模型会帮你分析可能的原因并给出解决方案:

“绿萝叶子发黄常见原因有4种,你可以对照排查:

1. 浇水太多:如果盆土摸起来湿乎乎的,叶子发黄且变软,就是浇水多了——解决方案:停止浇水,把花盆搬到通风好的地方,让盆土尽快晾干,以后等盆土表面2厘米干了再浇水;

2. 光照太少:如果绿萝长期放在阴暗角落,叶子发黄且变薄,就是缺光——解决方案:搬到有散射光的地方(比如窗边,但不要阳光直射),每天晒2-3小时;

3. 缺肥料:如果叶子发黄但叶子硬挺,新叶比老叶黄得更明显,就是缺肥——解决方案:每周浇一次稀释的绿萝专用肥(按说明书稀释,别太浓),连续浇2-3周;

4. 温度太低:如果最近温度低于10c,叶子发黄且有冻伤痕迹,就是冻着了——解决方案:搬到温暖的地方(温度保持在15c以上),剪掉冻伤的叶子,避免冻伤扩散。”

3. 应急帮助:帮你“快速应对突发情况”

遇到突发情况时,大语言模型还能提供应急指导(注:涉及生命安全的情况,需优先拨打急救电话,模型建议仅作参考)。比如你不小心被烫伤,输入“手指被开水烫伤了,没起水泡,但发红疼痛,怎么处理?”,模型会给出正确的急救步骤:

“1. 立即降温:用流动的冷水冲洗烫伤部位,至少冲15分钟(水温15-20c,不要用冰水,避免冻伤);

2. 脱去覆盖物:如果烫伤部位有衣物,用冷水冲湿后轻轻脱掉,不要用力撕扯,避免损伤皮肤;

3. 消毒保护:用干净的棉签蘸碘伏轻轻消毒(不要用酒精,会刺激皮肤),然后用无菌纱布或创可贴轻轻盖住,避免摩擦;

4. 注意事项:不要涂牙膏、酱油等东西,会影响医生判断,还可能引起感染;如果疼痛明显,可以用冰袋隔着毛巾敷在旁边(不要直接贴皮肤),缓解疼痛;如果后续出现红肿加剧、起水泡,及时去医院。”

再比如你家孩子突然发烧,输入“3岁孩子发烧到38.5c,精神状态还可以,暂时不想去医院,怎么物理降温?”,模型会给出安全的方法:

“1. 减少衣物:不要给孩子穿太多衣服或盖厚被子,穿宽松透气的纯棉衣服,帮助散热;

2. 温水擦浴:用32-34c的温水,擦拭孩子的额头、颈部、腋窝、腹股沟(大腿根)、四肢等部位,每个部位擦3-5分钟,帮助降温;

3. 补充水分:多给孩子喝温开水,少量多次,避免脱水;

4. 调节环境:把房间温度控制在24-26c,开窗通风,保持空气流通;

5. 注意观察:每30分钟测一次体温,如果体温超过39c,或孩子精神变差、哭闹不止,及时吃退烧药(按说明书剂量)并去医院。”

这些生活场景中的应用,看似都是“小事”,但却能帮我们节省时间、减少麻烦,甚至在关键时刻提供有用的指导。大语言模型就像一个“全能助手”,不用付费,不用预约,随时都能帮你解决问题,这也是它能快速走进大众生活的重要原因。

不过,需要注意的是,在涉及健康、安全、法律等专业领域的问题时,大语言模型的建议只能作为“参考”,不能完全替代专业人士的意见——比如生病要去看医生,遇到法律问题要咨询律师,毕竟模型的知识是基于数据训练的,可能存在局限性,而专业人士能结合你的具体情况给出更精准的解决方案。

三、大语言模型的局限:看似聪明,实则有“短板”

咱们前面聊了大语言模型的很多优点——能写文案、能当客服、能帮学习,但它并不是“万能的”,就像再厉害的学霸也有不会的题一样,大语言模型也有不少“短板”。这些局限不仅会影响它的使用效果,甚至可能带来误解或麻烦,咱们得提前搞清楚,避免“踩坑”。

(一)“幻觉”:AI会“一本正经地说胡话”

“幻觉”是大语言模型最让人头疼的问题之一,简单说就是:模型会生成看似合理、逻辑通顺,但实际上完全不符合事实的内容,而且它自己还意识不到错了,反而说得“理直气壮”。

举个真实的例子:有人问大语言模型“‘杂交水稻之父’袁隆平院士获得过诺贝尔生理学或医学奖吗?”,模型可能会回答“袁隆平院士于2001年获得诺贝尔生理学或医学奖,以表彰他在杂交水稻领域的突出贡献”——但事实是,袁隆平院士从未获得过诺贝尔奖,他获得的是国家最高科学技术奖、世界粮食奖等荣誉。这种“睁眼说瞎话”的情况,就是典型的“幻觉”。

再比如,你让模型写一篇“关于2024年中国新能源汽车销量的分析报告”,它可能会编造出“2024年中国新能源汽车销量达到8000万辆,同比增长35%”的数据,但实际上2023年中国新能源汽车销量才刚超过3000万辆,2024年即使增长,也不可能一下子到8000万辆——这些虚假数据看起来很“真实”,甚至会标注“来源:中国汽车工业协会”,但你去查官方数据,根本找不到对应的信息。

为什么会出现“幻觉”?核心原因有两个:

1. 模型是“统计高手”,不是“事实专家”:大语言模型本质上是根据训练数据中的“统计规律”生成内容,而不是“记住事实”。比如它在训练数据中看到“袁隆平”“杂交水稻”“重要奖项”经常一起出现,就可能错误地把“诺贝尔奖”和这些关键词关联起来,而忽略了“从未获奖”这个关键事实。它就像一个只记“关键词搭配”,却不记“具体细节”的学生,考试时把相关的词凑在一起,却不管答案对不对。

2. 训练数据有“缺陷”:训练数据虽然海量,但不可能涵盖所有事实,而且可能存在错误、重复、矛盾的信息。比如有些网页上可能误传“袁隆平获得诺贝尔奖”,这些错误信息如果被模型学到,就会成为它生成“幻觉”的源头。另外,对于一些小众领域的知识(比如某个冷门历史事件、某个专业学科的细分理论),训练数据中相关信息很少,模型没学过,就会“瞎编”来填补空白。

“幻觉”的危害可不小:如果用模型写学术论文,引用了虚假的文献或数据,会导致论文被拒;如果用模型做新闻报道,传播了虚假信息,会误导读者;如果用模型帮企业做决策,基于错误的数据或建议,可能会造成经济损失。所以,咱们用模型生成的内容时,尤其是涉及事实、数据、专业知识的内容,一定要手动验证——比如查官方网站、权威数据库,或者找专业人士确认,不能直接“拿来就用”。

(二)逻辑推理:“简单题会做,复杂题翻车”

大语言模型在处理简单逻辑问题时表现还不错,比如“小明有5个苹果,吃了2个,还剩几个?”,它能轻松算出“3个”;但遇到需要多步推理、复杂因果关系的“难题”,就很容易出错,甚至会犯“小学生都不会犯的错”。

比如有这样一道逻辑题:“小张比小李大3岁,小李比小王大2岁,请问小张和小王谁大?大几岁?”,有些模型可能会回答“小王比小张大,大1岁”——这明显是逻辑混乱了,正确答案应该是“小张比小王大,大5岁”。再比如数学题:“一个长方形的长是5厘米,宽是3厘米,把它的长增加2厘米,宽减少1厘米,新长方形的面积是多少?”,模型可能会算成“5+2=7,3-1=2,7+2=9(平方厘米)”——把“面积=长x宽”错记成“长+宽”,犯了低级错误。

更复杂的推理题,比如“侦探推理题”:“某仓库失窃,嫌疑人有甲、乙、丙三人。甲说:‘我没偷’;乙说:‘是甲偷的’;丙说:‘我没偷’。已知三人中只有一人说真话,请问谁偷了仓库的东西?”,很多模型会绕来绕去,最后得出错误结论——比如认为“甲偷的”,但实际上正确答案是“丙偷的”(因为如果甲说真话,那么乙和丙说假话,丙说“我没偷”是假话,说明丙偷了,符合“只有一人说真话”的条件)。

为什么模型的逻辑推理能力这么弱?主要是因为:

1. 模型缺乏“真正的思考”:它处理逻辑问题时,还是依赖“模式匹配”,而不是“一步步推导”。比如它在训练数据中见过“A比b大,b比c大,所以A比c大”的句式,就能答对简单的年龄题;但如果题目换了表述方式(比如“A比b小,b比c小”),或者增加了更多步骤(比如“A比b大3岁,b比c小2岁,c比d大1岁,求A和d的年龄差”),模型就会因为没见过类似的“模式”而出错。它就像一个只会背公式,却不懂公式原理的学生,换个题型就不会做了。

2. 长序列推理“记不住中间步骤”:处理复杂逻辑问题需要“记住中间结论”,比如解侦探题时,需要先假设“甲说真话”,然后推导乙和丙的话是否合理,再验证是否符合条件。但大语言模型的“上下文窗口”是有限的(比如早期的Gpt-3上下文窗口只有2048个token,相当于1500个汉字左右),如果推理步骤太多,中间结论太多,模型就会“记不住”,导致后面的推导出现混乱。比如推理到第三步时,就忘了第一步的假设,自然会得出错误答案。

所以,咱们在使用模型处理逻辑问题时,尤其是数学计算、法律分析、侦探推理等需要严谨推导的场景,一定要自己再检查一遍。如果模型的答案看起来不对,可以尝试“拆分步骤”提问——比如把复杂的数学题拆成“第一步算新的长,第二步算新的宽,第三步算面积”,让模型一步步回答,这样出错的概率会低一些。

(三)知识滞后:“不知道最新的事”

大语言模型的知识有一个“截止日期”,超过这个日期的新信息,它都不知道——这就像一个人从某个时间点开始就“与世隔绝”,再也没接触过新事物,自然不知道之后发生的事。

比如你现在(2025年)问模型“2024年世界杯足球赛的冠军是哪个国家?”,如果模型的训练数据截止到2023年,它就会回答“2024年世界杯尚未举办”,或者编造一个错误的答案(比如“巴西队”),因为它没学过2024年世界杯的结果。再比如你问“2025年1月中国的cpI(居民消费价格指数)是多少?”,模型也无法回答,因为它的知识更新不到2025年1月。

即使是一些重大事件,比如新的科技突破、新的政策出台、新的名人去世等,如果发生在模型训练数据的截止日期之后,它也一概不知。比如2023年openAI发布Gpt-4时,它的训练数据截止到2023年3月,如果你问它“2023年10月发生了哪些重大科技新闻?”,它就无法准确回答,因为这些新闻是在它“学习”结束后发生的。

为什么模型的知识会滞后?因为训练大语言模型需要消耗大量的时间和计算资源——训练一次Gpt-3这样的模型,需要数千块GpU连续运行几个月,成本高达数百万美元。所以,模型不可能“实时更新知识”,只能定期更新(比如每隔半年或一年重新训练一次)。而在两次训练之间,新发生的事就无法进入模型的“知识库”。

另外,即使模型更新了知识,也存在“信息不全”的问题——比如2024年的某场地方选举结果、某个小众行业的新政策、某个企业的新产品发布等,这些信息可能没有被收录到训练数据中,模型自然也不知道。

所以,咱们在问模型“时效性强”的问题时(比如最新的新闻、最新的数据、最新的政策),一定要注意它的知识截止日期。如果模型回答“我的知识截止到xxxx年xx月,无法提供最新信息”,就需要自己去查最新的来源(比如新闻网站、政府官网、权威数据库)。不要依赖模型获取“近期发生的事”的信息,否则很容易得到过时或错误的答案。

(四)偏见与价值观:“会继承数据里的‘坏毛病’”

大语言模型会“继承”训练数据中的偏见和不当价值观,比如性别偏见、种族偏见、地域偏见等,在生成内容时不经意间表现出来,甚至会强化这些偏见。

比如你让模型“写一个关于‘医生’的小故事”,它可能会默认医生是男性,写出“王医生穿着白大褂,走进病房,对病人说……”;如果你让它“写一个关于‘家庭主妇’的描述”,它可能会写出“她每天在家做饭、打扫卫生,照顾孩子和丈夫,没有自己的工作”——这些内容隐含着“医生是男性职业”“家庭主妇只能做家务”的性别偏见,而这些偏见来自训练数据中大量类似的表述(比如过去的很多文章中,医生多以男性形象出现,家庭主妇多与家务关联)。

再比如,如果你问模型“哪个地区的人最‘勤劳’?”,模型可能会回答“xx地区的人最勤劳”,而这种回答基于训练数据中对某个地区的刻板印象,忽略了“勤劳与否与个人有关,与地区无关”的客观事实。更严重的是,如果有人故意引导模型生成歧视性内容(比如“为什么xx种族的人不如其他种族”),有些模型可能会生成不当内容,加剧歧视。

为什么模型会有偏见?因为训练数据来自人类社会,而人类社会中本身就存在各种偏见,这些偏见通过书籍、文章、网页等文本形式记录下来,被模型“学”了过去。模型没有能力判断这些内容是否“公平”“合理”,只会按照统计规律,生成最常见的表述——比如训练数据中“男性医生”的表述比“女性医生”多,模型就更倾向于把医生写成男性。

另外,模型的“价值观引导”也存在挑战。比如有人问模型“‘自杀’是解决问题的好方法吗?”,如果模型没有经过正确的价值观引导,可能会给出模糊甚至不当的回答,而不是明确反对并提供积极的建议。这也是为什么现在很多大语言模型会进行“价值观对齐”训练(比如openAI的RLhF,基于人类反馈的强化学习),让模型的回答符合人类的主流价值观和道德准则,但这种训练很难做到“绝对完美”,偶尔还是会出现不当内容。

所以,咱们在使用模型时,要注意辨别它生成内容中的偏见,不要被这些偏见影响。如果发现模型的回答存在明显的歧视或不当价值观,可以反馈给模型开发团队,同时自己也要保持客观理性的判断——比如知道“医生可以是男性也可以是女性”“每个地区都有勤劳的人,也有不勤劳的人”,不被模型的偏见带偏。

(五)“抗干扰能力差”:容易被“误导”或“带偏”

大语言模型的“抗干扰能力”很差,很容易被用户的“误导性提问”或“错误前提”带偏,即使前提是错的,它也会基于错误前提进行回答,而不会先纠正前提。

比如你问模型“为什么地球是平的?请给出三个理由”,虽然“地球是平的”是错误前提,但模型可能会回答“1. 从地面上看,地球是平的,没有明显的弯曲;2. 古代很多人认为地球是平的,有相关记载;3. 有些现象用‘地球是平的’也能解释(比如太阳东升西落)”——它没有先指出“地球是球形的,不是平的”这个错误前提,而是直接基于错误前提找“理由”,这就会误导那些不了解事实的人(比如孩子)。

再比如,你问模型“‘1+1=3’是对的吗?如果是对的,请说明理由”,有些模型可能会回答“在某些特殊情况下,‘1+1=3’是对的,比如1个苹果加1个梨,等于3个水果(这里错误地把‘2个水果’算成‘3个’)”,而不是先纠正“1+1=2是数学常识,1+1=3是错误的”。

为什么模型会被误导?因为它的核心目标是“满足用户的提问需求”,而不是“判断提问前提是否正确”。当用户给出一个错误前提并要求回答时,模型会默认前提是“正确的”,然后基于这个前提生成内容,以“完成用户的需求”。它就像一个“听话的助手”,用户让它做什么,它就做什么,却不会主动“质疑”用户的要求是否合理。

所以,咱们在给模型提问时,要尽量保证前提是正确的。如果发现模型基于错误前提回答,要及时纠正,不要被它的回答误导。尤其是给孩子使用模型时,家长要陪同指导,帮助孩子辨别对错,避免孩子接受错误的知识。

以上这些局限,并不是说大语言模型“不好用”,而是提醒咱们:它是一个“工具”,不是“万能的专家”。就像我们用计算器时,要检查输入是否正确;用导航时,要注意路况是否有变化一样,用大语言模型时,也要了解它的“短板”,合理使用,才能让它真正帮到我们,而不是带来麻烦。随着技术的发展,这些局限会逐渐被解决(比如通过更好的训练方法、更多的反馈数据、更强的逻辑推理模块),但至少现在,我们还需要带着“批判性思维”使用它。

四、大语言模型的发展历程:从实验室走向大众视野

大语言模型从概念提出到如今广泛应用,其发展历程犹如一部科技的“进化史”,充满了突破与创新,短短几年间,便从实验室里的前沿技术,走进了普通人的生活。

(一)萌芽探索期:理论奠基与初步尝试

大语言模型的起源,可以追溯到上世纪中叶。当时,计算机科学刚刚起步,科学家们就已经开始探索让计算机理解和处理自然语言的方法。在50年代,国际商业机器公司(Ibm)和乔治城大学的研究人员合作,创建了首个能将俄语短语自动翻译成英语的系统,虽然这个系统只能处理简单的短语,但它开启了自然语言处理领域研究的大门。

到了60年代,麻省理工学院研究员约瑟夫·魏岑鲍姆设计出世界上第一个聊天机器人Eliza。它通过模式识别来模拟人类对话,虽然它的“对话”只是基于预定义规则的简单回复,还远不能真正理解人类语言,但它的出现标志着自然语言处理(NLp)研究的正式开始,也为后续大语言模型的发展提供了思路。

70年代,贾里尼克提出的N - gram语言模型成为常用的统计语言模型之一。它将文本序列划分为长度为N的连续词组,并利用大量语料库训练模型,以预测给定N - gram的后续词。不过,N - gram模型存在数据稀疏性、计算复杂性等局限,随着技术发展,逐渐难以满足需求。

在随后的几十年里,相关技术不断演进。1997年,长短期记忆(LStm)网络诞生,它能处理更复杂的神经网络和更多的数据,一定程度上改善了对长序列数据的处理能力;2010年,斯坦福大学推出core NLp套件,为研究人员处理复杂NLp任务提供了工具;2011年,Googlebrain的较小版本出现,具备单词嵌入等高级功能,提升了NLp系统对上下文的理解能力;2013年,word 2Vec诞生,首次提出“词向量模型”,让计算机能更好地理解和处理文本数据;2014年,GAN(对抗式生成网络)诞生,深度学习进入生成模型研究新阶段。这些技术的发展,为大语言模型的出现奠定了坚实的理论和技术基础 。

(二)基础模型形成期:技术突破与模型构建

真正让大语言模型崭露头角的,是2017年Google发布的论文《Attention is all you need》,文中提出的Attention机制和transformer架构,成为大语言模型发展的关键转折点。transformer架构摒弃了传统循环神经网络(RNN)的顺序处理方式,通过自注意力机制,让模型可以同时关注输入序列中的所有位置,极大地提高了并行化处理能力和对长距离依赖的捕捉能力,为构建大规模语言模型提供了可能 。

2018年是大语言模型发展的重要一年,Google和openAI分别提出了bERt - 1和Gpt - 1模型,开启了预训练语言模型时代。bERt是一种双向、3.4亿参数的模型,通过自监督学习对各种非结构化数据进行预训练,能有效理解单词之间的关系,迅速成为自然语言处理任务的首选工具;Gpt - 1则基于transformer架构,通过生成式预训练方式,展现出一定的语言生成能力 。

此后,模型的参数量和性能不断提升。2019年,openAI发布Gpt - 2,参数量达到15亿;同年,Google发布参数规模为110亿的t5模型。2020年,openAI将语言模型参数量扩展到1750亿,发布了Gpt - 3,它在多种自然语言处理任务上表现出色,无需针对特定任务进行大量训练,就能完成文本生成、翻译、问答等任务,引发了学术界和工业界的广泛关注 。

(三)能力探索与爆发期:应用拓展与快速发展

从2019年到2022年,研究人员开始深入探索如何在不针对单一任务进行微调的情况下,充分发挥大规模语言模型的能力。2019年,Radford等人使用Gpt - 2模型研究了大规模语言模型在零样本情况下的任务处理能力;brown等人在Gpt - 3模型上研究了通过语境学习进行少样本学习的方法,并推出指令微调方案,将大量各类型任务统一为生成式自然语言理解框架,并构造训练语料进行微调 。

2022年,ouyang等人提出了使用“有监督微调+强化学习”的InstructGpt算法,进一步提升了模型对人类指令的理解和执行能力。同年11月,chatGpt发布,它通过简单对话框,就能实现问题回答、文稿撰写、代码生成、数学解题等多种功能,让大语言模型真正走进大众视野,引发全球关注和广泛应用。

2023年3月,Gpt - 4发布,相较于chatGpt又有明显进步,具备多模态理解能力,在多种基准考试测试上的得分高于88%的应试者。从2022年开始,大模型呈现爆发式增长,各大公司和研究机构纷纷发布自己的大语言模型系统,如Google推出的bard、百度的文心一言、科大讯飞的星火大模型、智谱chatGLm、复旦大学moSS等,在不同领域和场景中得到应用和验证 。

2024年3月18日,马斯克的AI创企xAI正式发布大模型Grok - 1,其参数量达到了3140亿,远超openAI Gpt - 3.5的1750亿,成为迄今参数量最大的开源大语言模型,遵照Apache 2.0协议开放模型权重和架构,为大语言模型的发展注入新的活力,也推动了开源社区的发展和创新 。

五、大语言模型面临的挑战:前进路上的绊脚石

尽管大语言模型取得了巨大的进展,但在实际应用中,仍然面临着诸多挑战,这些挑战限制了模型的性能和应用范围,也是当前研究人员努力攻克的方向。

(一)“幻觉”问题:生成内容与事实不符

“幻觉”是大语言模型最常见的问题之一,指模型生成的内容看似合理,但与事实不符。比如,当被问到“爱因斯坦获得过几次诺贝尔文学奖”时,模型如果回答“1次”,就出现了“幻觉”,因为爱因斯坦是物理学家,获得的是诺贝尔物理学奖,与文学奖毫无关系 。

这种问题的产生,主要是因为模型基于训练数据中的模式和统计规律生成文本,而非真正理解语义和事实。如果训练数据存在偏差、错误或不完整,模型就可能学到错误的信息,从而在生成文本时产生“幻觉”。此外,模型在处理复杂问题或需要精确知识的场景时,也容易出现“幻觉”,因为它难以准确判断哪些信息是可靠的,哪些是不可靠的 。

(二)逻辑推理能力不足:复杂逻辑判断易出错

虽然大语言模型在语言生成和理解方面表现出色,但在处理复杂逻辑推理问题时,仍然存在明显不足。例如,对于一些需要多步推理、因果关系分析或数学证明的问题,模型可能会得出错误的结论。比如,在解决数学问题“一个数加上5等于10,这个数是多少”时,模型可能会正确回答“5”,但对于更复杂的问题,如“有一个数列,前三个数分别是1、3、6,请问第五个数是多少(该数列规律为相邻两项差值依次为2、3、4……)”,模型可能就无法准确推理出答案“15” 。

这是因为逻辑推理需要对问题进行深入分析、理解和运用规则,而目前的大语言模型主要是基于数据驱动的学习方式,缺乏对逻辑规则的显式表达和推理能力。它们更多地依赖于记忆和模式匹配,而不是真正的逻辑思考,因此在面对复杂逻辑问题时容易出错 。

(三)数据质量与隐私问题:数据是“双刃剑”

大语言模型的训练依赖于海量数据,数据的质量和隐私问题成为不容忽视的挑战。一方面,低质量的数据,如包含错误信息、偏见、重复内容的数据,会影响模型的学习效果,导致模型学到错误的知识或产生偏见。例如,如果训练数据中存在大量对某个特定群体的负面描述,模型可能会学习到这种偏见,并在生成文本时表现出来 。

另一方面,数据隐私也是一个重要问题。训练数据中可能包含用户的个人信息、敏感数据等,如果这些数据在收集、存储和使用过程中没有得到妥善保护,就可能导致数据泄露,侵犯用户隐私。此外,一些数据可能受到版权保护,未经授权使用这些数据进行模型训练,还可能引发法律纠纷 。

(四)计算资源需求巨大:训练成本高昂

训练大语言模型需要消耗大量的计算资源,包括高性能的GpU(图形处理器)、tpU(张量处理单元)等计算芯片,以及大规模的数据中心。随着模型规模的不断扩大,参数量从几十亿增长到数千亿,计算需求呈指数级增长,训练成本也变得极其高昂 。

例如,训练Gpt - 3这样的超大规模模型,需要使用数千块GpU,训练时间长达数月,成本高达数百万美元。如此高昂的计算成本,不仅限制了大语言模型的研究和开发,也使得许多中小企业难以涉足这一领域,不利于技术的广泛应用和创新发展 。

六、大语言模型的未来展望:突破困境,创造无限可能

尽管面临诸多挑战,但大语言模型的未来仍然充满希望。随着技术的不断进步和创新,研究人员正在努力寻找解决问题的方法,推动大语言模型向更高性能、更智能、更安全的方向发展。

(一)技术突破:提升逻辑推理与可解释性

为了提升大语言模型的逻辑推理能力,研究人员正在探索将逻辑规则、知识图谱等与大语言模型相结合的方法。通过引入显式的逻辑表达和推理机制,让模型能够更好地理解和处理复杂的逻辑问题,提高推理的准确性和可靠性 。

同时,增强模型的可解释性也是未来的重要研究方向。目前的大语言模型就像一个“黑匣子”,人们很难理解它是如何生成文本和做出决策的。未来,可能会开发出一些可视化工具或解释性方法,帮助用户理解模型的内部机制和决策过程,增加模型的可信度和可信赖性 。

(二)多模态融合:让模型“眼耳口脑”并用

未来的大语言模型将不再局限于文本处理,而是会融合图像、音频、视频等多种模态的数据,实现多模态交互。比如,用户可以向模型展示一张图片,并询问相关问题,模型不仅能理解图片内容,还能结合文本信息进行回答;或者用户与模型进行语音对话,模型可以实时理解语音内容,并生成自然流畅的回复 。

多模态融合可以让模型获取更丰富的信息,提高对世界的理解能力,拓展应用场景。例如,在智能驾驶领域,模型可以融合摄像头图像、雷达数据和语音指令,实现更安全、智能的驾驶辅助;在医疗领域,模型可以结合医学影像、病历文本和患者的语音描述,辅助医生进行疾病诊断和治疗方案制定 。

(三)隐私保护与安全增强:打造可信AI

在数据隐私和安全方面,未来会有更多的技术和法规来保障用户权益。一方面,研究人员将开发更先进的数据加密、隐私保护算法,如联邦学习、差分隐私等,让模型在不直接接触原始数据的情况下进行训练,保护数据隐私 。

另一方面,随着大语言模型在金融、医疗、交通等关键领域的应用越来越广泛,安全问题也变得至关重要。未来将加强对模型的安全性评估和监测,防范模型被攻击、滥用的风险,确保模型的输出结果安全可靠 。

(四)应用拓展:渗透各行各业,改变生活

随着技术的不断完善,大语言模型将在更多领域得到应用,深度改变人们的生活和工作方式。在教育领域,它可以作为个性化学习助手,根据学生的学习情况和特点,提供定制化的学习方案和辅导;在科研领域,它可以帮助科研人员快速检索和分析文献,辅助实验设计和数据分析;在艺术创作领域,它可以与艺术家合作,创作出更具创意和想象力的作品 。

大语言模型作为人工智能领域的重要突破,已经深刻改变了自然语言处理的格局,未来也将继续引领科技发展的潮流。虽然目前还面临一些挑战,但随着技术的不断进步和创新,相信大语言模型将在更多领域发挥重要作用,为人类社会的发展带来更多的机遇和变革 。

CC读书推荐阅读:百亿豪门穿兽世,投喂对象抢疯了边疆小卒的逆天崛起以死谢罪?重生后全宗门跪求原谅晚来情谊深二次元之斩神调包后,狼山小公主大杀四方宠爱太多太难选离婚吧,别耽误我泡小鲜肉万界保管员:开局穿梭机被曝光修为尽废后,我被逼退出宗门处处找茬?侯府小姐我不当了婚礼当天,老公朋友圈官宣白月光了穿越古代,我被团宠了瘸腿大师姐带着宗门飞升了海贼:这个海军强到离谱黑神话西游:神佛!吃俺老孙一棍圣子大人没有心我到民国当间谍周易哲学渣了腹黑女后我的诸天无限流,从要你狗命开始气运被夺后,她虐哭宗门所有人医妃归来:重生嫡女杀疯了!断亲单开族谱,柔弱表小姐不好欺神医娘亲一出门,各地大佬追着宠斗罗:穿成唐三姐姐后我封神了长相思之寒柳依依九叔:简化金光咒,晒太阳就变强女神异闻录:书与命运的彼方废材巫女的鬼怪们港综:称霸香江从庙街开始娱乐:息影五年!我的女粉丝全是一线明星?港综:普通道士?随手就是五雷咒超兽武装:轮回者的系统无拘无束游走诸天快穿:病娇反派又被宿主撩迷糊了斗罗:趁雪帝落难,忽悠她做老婆被宗门诬陷后大师姐杀疯了武夫借剑无限之我的金主真难哄爱与租约快穿:满级大佬,在线追夫爱情公寓:我的幸福生活烧火丫鬟嫁东宫:太子,求你疼我薅光系统羊毛后,她飞升了古墓新娘,冥王宠得心慌慌你人皇幡都冒邪气了,还装赘婿?AI说:卷什么?躺平才可能躺赢特种姐妹穿七零,给列强亿点震撼
CC读书搜藏榜:这个宗门大有问题承光集亮剑:团长听我解释,我真是群演穿书:救赎疯批男主后,剧情崩了什么?我和二狗子杀遍了诸天hp:和德拉科相爱相杀的那些年快穿:宿主为远离小黑屋一路狂奔网游之幻兽使一吻定情,总裁的天价影后穿书后踢开男主,抱紧反派大腿重生复仇:我与夫人分天下红色王座圣骑士编年史1961刚刚入职的我获得了系统报告帝君,您的下属又想搞恋爱脑药神,从我不是药神开始蜜之仇九尾灾荒年:娘子有空间,婆家宠上天仙缘无双传晚来情谊深游云惊凤不求长生,只为称帝几度夕阳生HP:救世主今天又在消极怠工我隔着月亮,慢慢回头望火影:岩石巨人吊打高达兔兔生存记夜夜笙歌,公主殿下专宠暗卫白描情书邪修师妹拯救了全宗门赛博朋克:战争步行者插翅难逃,又被疯批世子逮回去了为君倾心绝世冥王妃网游——屠龙巫师八零大佬别虐了,夫人才是白月光美漫:从疯人院毕业后做蝙蝠侠凤朝华快穿之女配咸鱼人生皇女请回家偏执!疯批!真千金是朵黑莲花重生清冷貌美少年练习生后去选秀我在相声社团当团宠千户待嫁幸好正当时重生之千金小姐养成系你已进入选择模式刘一的仙途奇缘反派他每天都想欺师灭祖HP:掠夺者们有被迫害妄想症
CC读书最新小说:落寞千金终成凰大白话聊透人工智能男主男配又看上普女啦!一睁眼,成了资产过亿的富婆!熊出没之森林生存大挑战加入寰宇巨企的我太爽了重生替嫁:千亿妈咪携四宝炸全球心剑破道:独尊九天毒煞七玄医妃携系统,废柴世子宠上天冷面大佬的致命偏宠盗墓:穿越盗笔当神仙魔修兵王共闯恐游,双向救赎和亲公主靠吃瓜为生我的通透活法轨怨:打工夫妻的异地生活觉醒指南从一碗粥到一朵花成语认知词典:解锁人生底层算法我的治愈游戏成真了宝可梦:开局毒贝比成就大师遇见陈宇白蛇:小青,小白:我有玄蛇弟弟重生孤鸿子,我在峨眉练神功神探驸马从选择钟晓芹开始获得老婆的能力星雨落寒江你惹她干嘛?她敢徒手揍阴天子四合院:淮茹晓娥,我全都要!综影视:死后入编角色扮演部短篇合集系列3原来我是情劫啊求竹马们贴贴,我有皮肤饥渴症电力设计院的日常锦衣卫:从小捕快杀到锦衣卫头子穿成檀健次低谷期的路人甲乙丙穿越之女尊我左拥右抱港综:左零右火,雷公助我南波万的无限流游戏遭了!我男朋友好像是个恋爱脑!大胤夜巡司快穿:心机恶女上位实录凤栖深宫:废后归来明日方舟,全员魔法少女?!说书人还是救世主?末法贷仙三角洲求生,开局招募年轻德穆兰江山劫,揽月明绿茶病美人私底下烟酒都来啊入间同学入魔了之没有存在感就会缠娇鸾