CC读书 通过搜索各大小说站为您自动抓取各类小说的最快更新供您阅读!

现在提起通用大模型,大家都知道它是AI领域的“香饽饽”,不管是国外的openAI、谷歌,还是国内的百度、阿里,都在这一领域卯足了劲竞争。但你知道这些大模型到底有啥不一样?它们接下来会往哪些方向发展?全球范围内谁强谁弱?这一章咱们就用大白话,从“差异化竞争”“核心优化方向”“全球竞争格局”三个方面,把通用大模型的“技术家底”和“竞争态势”讲清楚,让你一看就懂。

一、差异化竞争:参数、数据、性能,三大维度见真章

全球头部的通用大模型,看着都能聊天、写文章,但其实“内功”差别很大。这些差别主要体现在三个维度:参数规模、训练数据、性能表现。这三个维度就像大模型的“身高、学历、能力”,直接决定了它能做啥、不能做啥,也决定了它在不同场景里的“用武之地”。

1. 参数规模:不是越大越好,“性价比”很重要

首先说“参数规模”,这是衡量大模型“记忆力”和“处理复杂问题能力”的重要指标——参数越多,大模型能存储的知识越多,处理逻辑复杂的任务(比如写学术论文、解数学难题)时表现越好。现在主流的通用大模型,参数已经从以前的“百亿级”升级到了“千亿级”,有些顶尖模型甚至突破了“万亿级”,咱们可以看一组具体数据:

- openAI的Gpt-4:参数规模超1.8万亿,是目前参数最多的通用大模型之一;

- 谷歌的paLm 2:参数规模约5400亿,比Gpt-4少,但也是千亿级的“大块头”;

- 百度的文心一言:参数规模超2600亿,在国内通用大模型里属于第一梯队;

- 阿里的通义千问:参数规模约1000亿,虽然比前面几个少,但也达到了千亿级门槛。

不过,大家千万别觉得“参数越大,模型就一定越好”——这里面有两个关键问题。第一是“成本太高”:参数规模增长,训练成本会呈“指数级上升”,简单说就是参数翻一倍,成本可能翻好几倍。比如训练一个万亿参数的模型,成本要超过1亿美元,这可不是一般企业能承受的;第二是“边际递减效应”:当参数规模达到一定程度后,再增加参数,模型性能提升会越来越慢。比如参数从1000亿增加到2000亿,性能可能只提升10%-15%,但成本却增加了一倍,性价比越来越低。所以现在行业里不盲目追求“参数竞赛”,而是更看重“参数效率”——怎么用更少的参数,实现更好的性能。

2. 训练数据:“喂什么料,长什么本事”,数据质量是关键

如果说参数规模是大模型的“骨架”,那训练数据就是大模型的“粮食”——“喂什么料,长什么本事”,数据的规模、质量、类型,直接决定了大模型的能力方向。现在头部大模型的数据源,基本都涵盖了互联网文本、书籍、论文、图像等多种类型,但在“规模”和“质量”上差别很大。

咱们拿几个代表模型举例:

- Gpt-4:训练数据量超10万亿tokens(tokens是数据的基本单位,1个token约等于0.75个英文单词,或者0.5个中文汉字),相当于把全球大部分互联网文本、书籍、论文都“读”了一遍。而且它的数据源覆盖多语言,中文、英文、日语、法语都有,还会严格筛选数据——把低质量的垃圾信息(比如网上的谣言、重复内容)剔除掉,保证“粮食”的优质;

- 文心一言:训练数据更侧重中文场景,整合了百度搜索、百度百科、百度文库里的中文数据,相当于“把中文互联网的知识吃了个遍”。所以它在中文语言理解和生成上有优势,比如写中文散文、理解中文成语典故,比国外模型做得好;

- 通义千问:融入了阿里自己的电商、支付场景数据,比如淘宝的商品描述、支付宝的交易记录、用户的购物评价等。这些数据让它在商业场景里更“接地气”,比如写电商营销文案、分析用户消费习惯,比其他模型表现更突出。

简单说,训练数据的“多样性”和“专业性”很重要:多语言数据能让模型“会说多国话”,场景化数据能让模型“懂某一行的规矩”。比如要做一个面向中国用户的聊天机器人,用中文数据训练的文心一言,肯定比用多语言数据训练的Gpt-4更贴合需求;要做一个电商领域的AI工具,通义千问的表现大概率会更好。

3. 性能表现:“实战见真章”,不同场景各有胜负

参数和数据是“内功”,性能表现就是“实战能力”——大模型到底好不好用,最终要看它在实际任务中的表现。行业里通常用两种方式评估性能:“通用能力测评”和“场景化测试”。

“通用能力测评”就像“期末考试”,考的是大模型的“综合实力”,涵盖三个核心维度:

- 语言理解:比如中文能力测评集cLUE,考的是模型能不能读懂中文文章、理解成语、分析句子逻辑;

- 逻辑推理:比如数学推理测评集GSm8K,考的是模型能不能解数学题、做逻辑判断;

- 多模态交互:比如文本生成图像测评集mS-coco,考的是模型能不能根据文字描述生成对应的图像。

“场景化测试”就像“职业技能考试”,考的是大模型在具体场景里的“专业能力”,比如:

- 代码生成:用测评集humanEval评估模型能不能写代码、找bug;

- 文案创作:评估模型生成的营销文案、广告脚本,能不能提高产品转化率。

从测评结果来看,不同模型各有胜负,没有“全能冠军”:

- Gpt-4:在多模态交互和复杂逻辑推理上领先,比如在GSm8K数学推理测评中,准确率超过92%,能解很多高中甚至大学的数学题;根据文字生成图像时,也能更精准地还原描述(比如“一只穿着红色外套的兔子在雪地里堆雪人”,生成的图像细节更到位);

- 文心一言:在中文文本生成和知识问答上表现优异,在cLUE测评中,中文理解准确率超过88%,比如写中文古诗、解读中文历史文献,比国外模型更准确;

- 通义千问:在商业场景应用中更有优势,比如生成电商营销文案时,转化率比其他模型高15%-20%——同样是写“连衣裙”的文案,它写的文案能让更多用户下单。

所以,选通用大模型不能只看“排名”,还要看“场景匹配度”:做数学推理、多模态创作,选Gpt-4可能更好;做中文内容、知识问答,选文心一言更合适;做电商、商业文案,通义千问可能是更优解。

二、核心优化方向:效率、多模态、轻量化,让大模型“好用又便宜”

现在的通用大模型虽然能力强,但有两个大问题:一是“太贵”,训练一次要花几千万甚至几亿美元,普通企业用不起;二是“太笨重”,只能在云端的超级计算机上运行,手机、工业设备这些终端用不了。为了解决这些问题,行业把“效率提升”“多模态融合”“轻量化”定为三大核心优化方向——目标就是让大模型“成本更低、能力更强、应用更广”,从“高成本研发”走向“低成本落地”。

1. 效率提升:“又快又省”,训练和推理双管齐下

效率提升主要针对两个环节:“训练效率”和“推理效率”。“训练效率”是指“怎么用更少的时间、更少的算力,把大模型训练出来”;“推理效率”是指“怎么让训练好的模型,更快地响应用户需求”。

先看“训练效率”,现在主要靠两种技术优化:

- 并行计算:比如“模型并行”“数据并行”——简单说就是把大模型拆成多个部分,让多台计算机一起训练;或者把训练数据分成多份,让多台计算机同时处理。比如某团队通过优化训练框架,把千亿参数模型的训练时间从30天缩短到15天,直接省了一半时间;

- 混合精度训练:以前训练模型用的是Fp32精度(32位浮点数),数据存储和计算量都很大。现在改用Fp16、bF16精度(16位浮点数),在不影响模型性能的前提下,把算力消耗减少一半,训练成本也跟着降下来。

再看“推理效率”,核心是让模型“响应更快”——比如用户输入“写一篇关于春天的散文”,模型能更快地生成内容,而不是让用户等半天。现在主要靠两种技术:

- 算子优化:“算子”是模型计算的基本单元,就像“积木”。通过优化算子的计算逻辑,让每一步计算更快。比如把复杂的算子拆成简单的算子,或者用更高效的算法替代旧算法;

- 计算图简化:模型的计算过程就像一张“图”,里面有很多冗余的计算步骤。通过简化这张图,删掉没用的步骤,让计算更直接。比如某通用大模型通过推理优化,把文本生成速度从每秒50字提升到每秒150字,用户基本感觉不到延迟,能实现“实时聊天”。

效率提升的意义很大:一方面,企业训练大模型的成本降低了,以前只有巨头能玩得起,现在中型企业也能参与;另一方面,模型响应速度变快了,用户体验更好,比如用AI写文案时,不用等几十秒,几秒就能出初稿。

2. 多模态融合:“打破边界”,让模型像人一样“多感官感知世界”

以前的通用大模型,大多只能处理“文本”——比如只能聊天、写文章,没法看图片、听音频。但人类感知世界是“多感官”的:我们能看图片、听声音、看视频,还能把这些信息结合起来(比如看到“猫咪”的图片,能联想到“猫咪叫”的声音)。多模态融合就是让大模型也具备这种能力,打破文本、图像、音频、视频的“单一边界”,实现“跨模态理解与生成”。

要实现多模态融合,主要靠两种核心技术:

- 模态对齐技术:简单说就是让模型“知道不同模态的信息是对应的”。比如一张“猫咪在晒太阳”的图片,和文字“一只白色猫咪在晒太阳”,模型要能理解“这两个信息说的是同一件事”。技术上,会构建一个“统一的特征空间”,把图片、文字都转化成“特征向量”(就像给不同信息贴标签),然后通过算法让对应的特征向量靠得更近,让模型建立关联;

- 跨模态生成技术:就是让模型“从一种模态生成另一种模态”。比如根据文字描述生成图像(输入“夕阳下的海边小镇,海浪拍打着礁石”,生成对应的图片);根据音频生成文本(输入一段钢琴声,生成对应的乐谱);根据图片生成文字(输入一张风景照,生成一段风景描写)。

现在多模态大模型已经在很多场景落地,带来了实实在在的便利:

- 内容创作领域:设计师不用再从零开始画图,输入文字需求(比如“简约风格的产品宣传海报,主色调为蓝色,突出手机拍照功能”),模型就能生成海报初稿,把设计周期从几天缩短到几小时;

- 智能教育领域:老师不用再费力解释抽象概念,比如讲“自由落体运动”,模型能把物理公式(文本)转化成动态演示视频(比如小球从不同高度落下的画面),学生一看就懂;

- 辅助医疗领域:医生不用再分别分析ct影像和病历,模型能结合ct图片(图像)和病历文本(比如患者的症状、病史),生成更全面的病情分析报告,减少漏诊、误诊的可能。

不过,多模态融合还有很多问题没解决。比如不同模态的数据结构差异太大:图片是像素矩阵(一堆数字),文本是文字序列(一串字符),要让模型精准对齐这两种信息很难,偶尔会出现“张冠李戴”的情况;再比如跨模态生成容易“逻辑偏差”,输入“红色苹果”,生成的图像可能是“绿色苹果”,或者苹果的形状不对。这些问题还需要慢慢优化,但总的来说,多模态融合是大模型的重要发展方向——未来的大模型,肯定是“能看、能听、能说、能写”的“全能选手”。

3. 轻量化:“瘦身减负”,让大模型能在手机、设备上跑

现在的通用大模型都很“笨重”——一个千亿参数的模型,体积可能有几百Gb,只能在云端的超级计算机上运行。用户用的时候,得把数据传到云端,模型计算完再把结果传回来,一来一回不仅慢,还依赖网络。轻量化就是给大模型“瘦身减负”,在保证性能的前提下,让它能在手机、工业设备、边缘控制器这些“算力有限”的终端上运行。

目前轻量化主要靠三种技术路径:

- 模型压缩:就像给文件“压缩包”,通过两种方式缩小模型体积。一是“裁剪冗余参数”:把模型里没用的参数删掉(比如有些参数对性能影响很小,删了也不影响);二是“量化参数精度”:把32位浮点数参数,改成8位整数参数,数据存储量直接减少75%。比如某千亿参数的通用大模型,经压缩后体积从数百Gb降至数Gb,普通手机的内存就能装下;

- 知识蒸馏:可以理解成“老师教学生”——把大模型(老师模型)的知识,“灌”到小模型(学生模型)里,让小模型具备接近大模型的能力。比如一个千亿参数的大模型,通过蒸馏技术训练出一个百亿参数的小模型,在文本理解任务中的准确率,只比大模型低3%-5%,但算力消耗减少70%;

- 硬件适配优化:针对不同终端的硬件,定制模型的计算逻辑。比如手机有专门的NpU芯片(AI处理芯片),边缘设备有专用的AI模块,工程师会根据这些硬件的特点,调整模型的计算步骤,让模型在这些硬件上“跑得更快”。

轻量化技术已经带来了很多实用的场景:

- 手机终端:2024年某手机厂商推出的旗舰机,搭载了轻量化多模态大模型。用户不用联网,在本地就能完成“图片识别+文字生成”(比如拍一张风景照,模型直接生成一段朋友圈文案)、“语音转文字+实时翻译”(比如外国人说英语,手机实时翻译成中文文字),响应速度控制在0.5秒以内,比联网用云端模型快多了;

- 工业场景:轻量化大模型可以部署在生产设备的边缘控制器上,实时分析设备的运行声音(音频)和振动数据(传感器数据)。比如设备运行声音异常,模型能立刻判断“可能是轴承磨损”,并提醒工人维修,不用依赖云端算力,也能实现“实时故障预警”。

轻量化的核心价值,是让通用大模型从“云端专属”走向“端云协同”——普通用户在手机上就能用,企业在设备上就能部署,大大降低了使用门槛。未来,咱们可能会在更多终端设备上用到大模型,比如智能手表、智能家居、工业机器人。

三、全球竞争格局:美国领先、中国追赶、多国布局,各有各的打法

现在全球通用大模型的竞争,已经不是“单一企业比拼”,而是“国家层面的技术较量”。整体来看,呈现“美国领先、中国追赶、多国布局”的态势——不同国家和地区的技术路线、优势领域不一样,打法也各有侧重。

1. 美国:靠“技术积累+生态闭环”,占据领先地位

美国在通用大模型领域的领先,主要靠两点:一是“早期技术积累”,二是“完整的生态闭环”。

先看“技术积累”:美国的企业(比如openAI、谷歌)很早就开始布局大模型。openAI从Gpt-1到Gpt-4,用了好几年时间迭代,每一代模型都在技术上有突破(比如Gpt-3首次实现千亿参数,Gpt-4首次实现高质量多模态);谷歌也一样,从早期的bERt模型,到现在的paLm 2,在自然语言处理、多模态融合上积累了大量技术专利。这些早期积累让美国企业在模型性能、技术成熟度上占据优势。

再看“生态闭环”:美国企业不只是做“模型研发”,还构建了“模型-算力-应用”的完整生态,把技术优势转化成了市场优势。比如:

- openAI:和微软深度合作,依托微软Azure云的超强算力,支撑Gpt系列模型的训练;同时通过ApI接口,向全球开发者开放模型能力——开发者不用自己训练模型,只要调用openAI的接口,就能开发出AI应用(比如AI写作工具、智能客服)。截至2024年,接入Gpt系列模型的开发者超过500万,形成了覆盖内容创作、企业服务、智能硬件等领域的应用生态,很多用户用的AI工具,背后其实都是Gpt在支撑;

- 谷歌:把多模态大模型和自己的产品深度融合,比如把模型融入谷歌搜索(用户搜“如何做蛋糕”,搜索结果会直接生成步骤视频)、谷歌办公软件(Google workspace里的文档、表格,能自动生成内容、分析数据)。这种“技术-产品-用户”的无缝衔接,让用户在日常使用中就能感受到大模型的价值,大大提升了用户粘性。

简单说,美国的优势在于“从技术到生态的全链条掌控”——有顶尖的模型技术,有足够支撑训练的算力,还有庞大的开发者和用户群体,形成了“研发-应用-反馈-优化”的良性循环,这让它在全球竞争中占据了领先地位。

2. 中国:凭“场景驱动+政策支持”,在中文和垂直领域快速追赶

中国的通用大模型虽然起步比美国晚,但凭借“丰富的应用场景”和“有力的政策支持”,正在快速追赶,尤其在中文场景和垂直领域,已经形成了自己的竞争优势。

首先是“场景驱动”:中国有全球最大的互联网用户群体,也有丰富的本土应用场景——电商(淘宝、京东)、社交(微信、抖音)、本地生活(美团、饿了么)、支付(支付宝、微信支付)等等。国内的企业(百度、阿里、腾讯、字节跳动),大多会把通用大模型和自己的现有业务结合,让模型“接地气”,解决实际场景中的问题。

比如:

- 阿里的通义千问:融入淘宝、支付宝的场景,支持“语音购物”(用户对着手机说“买一箱牛奶”,模型直接推荐合适的商品并下单)、“智能客服升级”(以前的客服只能回答固定问题,现在的智能客服能理解用户的复杂需求,比如“我买的衣服太大了,想换小一码,还想改一下收货地址”,模型能直接处理);

- 字节跳动的通用大模型:和短视频、直播业务结合,实现“智能字幕生成”(直播时自动生成多语言字幕)、“视频内容标签自动标注”(上传一段美食视频,模型自动标注“家常菜”“红烧肉”“教程”等标签,方便用户搜索);

- 百度的文心一言:依托百度搜索、百度地图的场景,在中文知识问答、本地生活服务上表现突出(比如用户问“北京朝阳区哪家川菜馆好吃,人均不超过100元”,模型能结合搜索数据给出精准推荐)。

这种“场景驱动”的优势很明显:模型不用“空转”,能在实际场景中快速迭代——用户用得越多,反馈的数据越多,模型的性能就越好。而且,这些场景都是中国独有的,国外模型很难适配,这也让国内模型在中文场景里更有竞争力。

其次是“政策支持”:中国政府非常重视通用大模型的发展,通过一系列政策提供支持。比如发布“新一代人工智能发展规划”,明确把大模型作为重点发展方向;出台“算力基础设施建设专项政策”,建设全国一体化算力网络,为企业提供低成本的算力资源;还鼓励高校、科研机构和企业合作,推动技术研发。

在政策支持下,中国通用大模型的发展速度很快:2024年国内通用大模型相关专利申请量同比增长45%,在中文处理、多模态交互等技术方向的专利数量,已经接近美国。可以说,中国正在用“场景+政策”的双轮驱动,在通用大模型领域快速缩小和美国的差距。

3. 欧盟、日本、韩国:各有侧重,在特定领域找突破

除了美国和中国,欧盟、日本、韩国也在加速布局通用大模型,但它们没有盲目跟风“全面比拼”,而是根据自己的优势,在特定领域找突破,形成差异化竞争力。

先看欧盟:欧盟的核心思路是“伦理合规优先”。欧盟出台了《人工智能法案》,对通用大模型的研发和应用提出了严格的要求——比如模型训练用的数据必须合规,不能用侵犯隐私的数据;模型上线前必须通过“偏见检测”,不能有性别、种族歧视;还要公开模型的部分技术细节,接受监管。

这种“合规优先”的思路,虽然在一定程度上限制了技术迭代速度(企业要花更多时间做合规审核,研发周期变长),但也有好处:能保障应用安全性,避免大模型出现“生成虚假信息”“侵犯隐私”等问题。比如欧盟的企业在开发大模型时,会更注重数据隐私保护和公平性,适合在医疗、金融等对合规要求高的领域应用。

再看日本和韩国:这两个国家的思路是“技术合作+产业链整合”,依托自己的优势产业,打造“专属大模型”。

- 日本:聚焦“车载大模型”,丰田、索尼等企业联合研发,把通用大模型和汽车产业结合。比如车载大模型能实时分析路况(通过摄像头图像)、理解驾驶员的语音指令(比如“打开空调,调低温度”)、甚至预判驾驶员的需求(比如根据驾驶时间,提醒“前方有服务区,是否需要休息”)。日本希望通过这种“汽车+大模型”的结合,在智能汽车领域形成优势;

- 韩国:侧重“全产业链整合”,从芯片到终端,打通大模型的上下游。比如三星、SK海力士(韩国的芯片巨头),一方面研发适合大模型训练的AI芯片,为模型提供算力支撑;另一方面,把大模型融入自己的终端产品(比如三星手机、电视),实现“芯片-模型-终端”的闭环。韩国希望通过这种全产业链布局,在消费电子领域的大模型应用上找突破。

总的来说,欧盟、日本、韩国虽然在整体技术实力上不如美国和中国,但通过“差异化布局”,也在通用大模型领域占据了一席之地——它们的探索,也让全球大模型的竞争更加多元。

四、总结:竞争不止于技术,更在于“综合实力”

看完全球通用大模型的竞争格局,我们能发现一个趋势:现在的竞争,已经从“单一模型性能比拼”,转向了“技术+生态+合规”的综合实力较量。

美国靠“技术积累+生态闭环”领先,中国靠“场景驱动+政策支持”追赶,欧盟、日本、韩国靠“差异化布局”找突破——没有谁能“一家独大”,每个国家和地区都在发挥自己的优势,推动大模型技术迭代。

这种竞争是好事:一方面,能让大模型的技术快速进步,成本不断降低,从“高不可攀”的研发项目,变成“人人可用”的工具;另一方面,也能加速“人工智能+”的落地,比如大模型和医疗、教育、工业、农业的结合,会带来更多新应用、新业态,改变我们的生活和工作方式。

未来,通用大模型的竞争还会更激烈,但最终的赢家,一定是那些能“平衡技术、生态、合规”,并能真正解决用户需求的企业和国家。而我们作为用户,也会在这场竞争中受益——能用到更智能、更安全、更便捷的AI工具,享受科技带来的便利。

CC读书推荐阅读:百亿豪门穿兽世,投喂对象抢疯了边疆小卒的逆天崛起以死谢罪?重生后全宗门跪求原谅晚来情谊深二次元之斩神调包后,狼山小公主大杀四方宠爱太多太难选离婚吧,别耽误我泡小鲜肉万界保管员:开局穿梭机被曝光修为尽废后,我被逼退出宗门处处找茬?侯府小姐我不当了婚礼当天,老公朋友圈官宣白月光了穿越古代,我被团宠了瘸腿大师姐带着宗门飞升了海贼:这个海军强到离谱黑神话西游:神佛!吃俺老孙一棍圣子大人没有心我到民国当间谍周易哲学渣了腹黑女后我的诸天无限流,从要你狗命开始气运被夺后,她虐哭宗门所有人医妃归来:重生嫡女杀疯了!断亲单开族谱,柔弱表小姐不好欺神医娘亲一出门,各地大佬追着宠斗罗:穿成唐三姐姐后我封神了长相思之寒柳依依九叔:简化金光咒,晒太阳就变强女神异闻录:书与命运的彼方废材巫女的鬼怪们港综:称霸香江从庙街开始娱乐:息影五年!我的女粉丝全是一线明星?港综:普通道士?随手就是五雷咒超兽武装:轮回者的系统无拘无束游走诸天快穿:病娇反派又被宿主撩迷糊了斗罗:趁雪帝落难,忽悠她做老婆被宗门诬陷后大师姐杀疯了武夫借剑无限之我的金主真难哄爱与租约快穿:满级大佬,在线追夫爱情公寓:我的幸福生活烧火丫鬟嫁东宫:太子,求你疼我薅光系统羊毛后,她飞升了古墓新娘,冥王宠得心慌慌你人皇幡都冒邪气了,还装赘婿?AI说:卷什么?躺平才可能躺赢特种姐妹穿七零,给列强亿点震撼
CC读书搜藏榜:这个宗门大有问题承光集亮剑:团长听我解释,我真是群演穿书:救赎疯批男主后,剧情崩了什么?我和二狗子杀遍了诸天hp:和德拉科相爱相杀的那些年快穿:宿主为远离小黑屋一路狂奔网游之幻兽使一吻定情,总裁的天价影后穿书后踢开男主,抱紧反派大腿重生复仇:我与夫人分天下红色王座圣骑士编年史1961刚刚入职的我获得了系统报告帝君,您的下属又想搞恋爱脑药神,从我不是药神开始蜜之仇九尾灾荒年:娘子有空间,婆家宠上天仙缘无双传晚来情谊深游云惊凤不求长生,只为称帝几度夕阳生HP:救世主今天又在消极怠工我隔着月亮,慢慢回头望火影:岩石巨人吊打高达兔兔生存记夜夜笙歌,公主殿下专宠暗卫白描情书邪修师妹拯救了全宗门赛博朋克:战争步行者插翅难逃,又被疯批世子逮回去了为君倾心绝世冥王妃网游——屠龙巫师八零大佬别虐了,夫人才是白月光美漫:从疯人院毕业后做蝙蝠侠凤朝华快穿之女配咸鱼人生皇女请回家偏执!疯批!真千金是朵黑莲花重生清冷貌美少年练习生后去选秀我在相声社团当团宠千户待嫁幸好正当时重生之千金小姐养成系你已进入选择模式刘一的仙途奇缘反派他每天都想欺师灭祖HP:掠夺者们有被迫害妄想症
CC读书最新小说:落寞千金终成凰大白话聊透人工智能男主男配又看上普女啦!一睁眼,成了资产过亿的富婆!熊出没之森林生存大挑战加入寰宇巨企的我太爽了重生替嫁:千亿妈咪携四宝炸全球心剑破道:独尊九天毒煞七玄医妃携系统,废柴世子宠上天冷面大佬的致命偏宠盗墓:穿越盗笔当神仙魔修兵王共闯恐游,双向救赎和亲公主靠吃瓜为生我的通透活法轨怨:打工夫妻的异地生活觉醒指南从一碗粥到一朵花成语认知词典:解锁人生底层算法我的治愈游戏成真了宝可梦:开局毒贝比成就大师遇见陈宇白蛇:小青,小白:我有玄蛇弟弟重生孤鸿子,我在峨眉练神功神探驸马从选择钟晓芹开始获得老婆的能力星雨落寒江你惹她干嘛?她敢徒手揍阴天子四合院:淮茹晓娥,我全都要!综影视:死后入编角色扮演部短篇合集系列3原来我是情劫啊求竹马们贴贴,我有皮肤饥渴症电力设计院的日常锦衣卫:从小捕快杀到锦衣卫头子穿成檀健次低谷期的路人甲乙丙穿越之女尊我左拥右抱港综:左零右火,雷公助我南波万的无限流游戏遭了!我男朋友好像是个恋爱脑!大胤夜巡司快穿:心机恶女上位实录凤栖深宫:废后归来明日方舟,全员魔法少女?!说书人还是救世主?末法贷仙三角洲求生,开局招募年轻德穆兰江山劫,揽月明绿茶病美人私底下烟酒都来啊入间同学入魔了之没有存在感就会缠娇鸾