​我们需要怎样的大模型?

2024-07-03 05:49 来源:网络 点击:

我们需要怎样的大模型?

AI 时代,我们需要怎样的大模型?

这个问题尽管我们无法给出一个确定的答案,但显而易见的是,用户的选择正逐渐汇聚成一股趋势。

6 月 28 日,在 WAVE SUMMIT 深度学习开发者大会上,百度公布了文心一言阶段性成果:用户规模达 3 亿,日调用次数 5 亿;同时,在过去短短半年时间里,文心大模型用户日均提问量增长了 78%、提问平均长度提升了 89%。这说明用户对文心一言的使用越来越高频,也越来越深入,问的问题也越来越复杂、多样。

真实的使用场景也印证了当下文心一言的通用性。大会现场我们看到了极具代表性的案例:创作 5.9 亿篇文章、编撰百万篇专业研报、解答了 1.7 亿学习问题;在刚刚过去的高考中,高考学生使用文心一言设计全学科考卷备考方案,家长利用它辅导孩子学习和升学规划。

或许,用户用手投票选出的模型,才是真正符合时代需求的模型。

文心大模型 4.0 Turbo,速度快、效果好

在现场,百度首席技术官,深度学习技术及应用国家工程研究中心主任王海峰博士谈到了他对通用人工智能的见解:" 说起‘通用人工智能’这个词,在我看来有两点非常重要:一是技术的通用性;二是能力的全面性。"

2019 年上半年,在第一届 WAVE SUMMIT 上,百度正式发布了文心大模型 1.0,到 2023 年 3 月 16 日发布了基于文心大模型 3.0 的文心一言,2023 年 5 月更新了 3.5 版本,10 月发布了 4.0。2024 年百度发布了文心大模型 4.0 工具版,背后加入了更好的智能体技术。

在大会中,文心大模型 4.0 Turbo 版本的升级,速度更快,效果也更优。这不仅是技术的一次飞跃,更是对用户需求深刻理解的体现,谁不想要响应更快、回答更好的大模型产品?

现场演示直观地展示了文心大模型 4.0 Turbo 与 4.0 的差异:在生成速度上 Turbo 版本明显更快,而内容生成的优化也更为显著。可以说,它不仅在算法上实现了通用性,更在理解、生成、逻辑和记忆等基础能力上展现了全面性,使得 AI 能够更好地模拟和扩展人的智能。

随着技术的发展,用户对 AI 的期待已经从简单的工具使用,转变为寻求能够理解、预测甚至参与决策的智能伙伴。而大模型的普世化是一个将高级人工智能技术普及到日常生活各个角落的过程。

要实现这一点,关键在于降低甚至消除技术使用门槛,让技术的存在变得自然而不显眼,即让用户在使用过程中几乎感觉不到技术的存在,也就是所谓的 " 无感感知 "。

以 " 农民院士智能体 " 为例,这一智能体的推出,让农民也能享受到 AI 带来的便利。无论是在田间地头,还是在家中,农民都可以通过文心一言的 APP、百度 APP、网页端,甚至是小度设备,随时随地获取农业生产的智能支持。这种普及化的应用,不仅极大地拓宽了 AI 技术的受众群体,也使得技术更加接地气,更易于被接受和使用。

生态的多端布局,为文心大模型 4.0 Turbo 版本的普世化提供了强有力的支持。硬件端的多样性和软件端的多端生态,共同构建了一个全方位、多层次的智能服务体系。这种生态的构建,使得 AI 技术不再局限于单一的应用场景,而是能够渗透到人们生活的每一个角落。

文心大模型 4.0 Turbo 版的多端开放策略,进一步加速了这一进程。网页端、移动端的陆续开放,以及 API 面向开发者的开放,使得它能快速地与各种应用场景进行融合,实现更广泛的连接和更深入的交互。这种开放不仅为开发者提供了广阔的创新空间,也为用户带来了更加丰富和便捷的智能体验。

做好的大模型,需练内功

内功和外功的区别在于,内功主要是内力,外功主要是拳脚功夫,任何武功若想发挥最大的威力都离不开内功的精深。大模型的发展也是一样的。

文心大模型是百度苦练内功的产物,背后离不开飞桨,一个百度自主研发的深度学习平台。它不仅承载着模型的开发与训练,更在芯片与模型之间架起了桥梁,实现了技术的承上启下。简单地说,飞桨平台为大模型提供了一个全面、高效、可扩展的开发环境。它通过降低技术门槛,使得更多的研究者和开发者能够参与到 AI 模型的创新与实践中。

就在这场大会上,百度也发布了飞桨框架 3.0,这一版本通过训推一体化,实现了训练和推理过程的无缝衔接,提升了模型从开发到部署的效率。同时,自动化的优化,如自动并行技术,简化了分布式训练的复杂性,使得开发者能够更加专注于模型本身的创新,而非底层的计算细节。

在整个大模型行业注重成本效益和效率的今天,训推一体化更具有现实意义。同时面对整个异构多芯的算力部署环境,飞桨框架 3.0 也针对性地进行了优化设计,让更多开发者和企业用户能够通过飞桨进行大模型开发。而动静统一的自动并行技术,允许开发者使用动态图进行模型设计,同时自动转换成静态图以优化性能,这种灵活性和性能的平衡,是飞桨框架 3.0 基于开发者需求做的技术升级。

在当前大模型行业的竞争格局中,深度学习框架的重要性不言而喻。它不仅是模型训练和部署的平台,更是一个完整的生态系统,包括丰富的 API、工具库和社区支持。这表明,做好的大模型,需要的不仅是模型算法的创新,更关键的是背后的工具链和生态系统的完善。

飞桨可以说是文心大模型修炼的 " 内功 " 之一。

而于整个行业而言,强大的开发框架成为支撑应用创新的基石。

据介绍,目前飞桨平台已经凝聚了超过 1465 万开发者,服务了超过 37 万家企事业单位,与开发者共创超过 95 万个模型。

大模型,落地为王

很多公司讲大模型,但却并不会真正用大模型。而百度不同,它不仅自己做大模型,还要实实在在地把大模型用起来。可以踩坑、可以交学费,但不能不用。

在百度有一名特殊的 " 程序员 ",Comate 智能编程助手,这是一个集成在 IDE 中的智能编程插件,支持超过 100 种编程语言,覆盖了几乎所有主流的集成开发环境。它能够根据开发者的编码习惯和项目上下文,智能预测并生成代码,提升编码效率,帮助开发者进行代码自动生成,解决程序员工作过程中常常要面临的重复的工程性问题。

会上,Comate 正式更名 " 百度快码 ",这个本土的中文名字可能更加适合它。

" 快 ",是核心关键词。一是开发速度快,使用文心快码以后,工程师单位开发时间内,代码提交数量提升了 35%,这个数字背后意味着原本工程师需要 7 天才能完成的工程量,在 5 天就能够开发完成。这使得工程师们可以释放更多的生产力,发挥更多的创造力。

二是业务迭代快。目前百度内部有一半的研发需求百度快码可以在一周之内完成交付,这意味着百度的产品能够更快的响应市场和客户的需求。在刚刚发布的飞桨 3.0 版,通过知识增强后,它的代码生成准确率能够高达 80% 以上,减少修改和调试,保证快速迭代。

三是企业落地快。不只百度自身,其客户喜马拉雅在一个季度内就落地部署了文心快码,并且实现了代码采样率达到 44%,先进的技术能力也共享给更多行业。

这充分说明,好的大模型和应用一个共生的结果。

甲骨文,作为中国最古老的文字之一,记录了商朝的历史和文化。然而,甲骨文的解读和研究一直是一项艰巨的任务,因为许多甲骨碎片上的字迹难以辨认,且现存的甲骨文资料分散在世界各地。

这是一项在安阳传承了三代的历史性任务,在这一代,传承的历史重任,也落在了 AI 技术上。

利用文心一言的能力,百度与安阳师范学院甲骨文信息处理教育部重点实验室展开重点合作,进行了一系列创新性的甲骨文研究工作。人工智能技术可以实现甲骨采集、碎片缀合、字符识别、智能检索,大大提高甲骨文的研究效率。

甚至他们还通过文心大模型进行了创新,发布 " 来自甲骨文的回答 " 互动问答程序,用户可以调用文心一言的对话能力以及对甲骨文释义的能力,让古老的甲骨文重新 " 活起来 "。

在甲骨文项目中,传统文化和创新科技有了连接。在与 IFAW 野生动物保护协会合作中,AI 又让技术与生命产生羁绊。

国际爱护动物基金会(IFAW)致力于野生动物的保护工作。面对非法野生动物贸易的严峻形势,IFAW 与百度合作,利用 AI 技术打击网络渠道上的非法交易。

打击非法野生动物交易面临着一个难题:网络上海量的只有图片配合 emoji 等模糊文字的售卖,使得识图成为一项关键环节。

IFAW 与百度飞桨团队合作开发了 " 濒危物种 AI 守护官 ",通过文心大模型的识图能力识别野生动物制品图片,在 2019 年实现了 1.0 版本的开发。在这个过程中,IFAW 提供了大量的野生动物制品图片作为训练数据,帮助 AI 模型学习识别非法制品。通过飞桨平台,AI 守护官模型经过反复测试和优化,最终实现了 75% 的准确率,能够识别并标记非法制品图片。

自 2020 年 " 濒危物种 AI 守护官 " 部署以来,AI 守护官已经累计筛查了近 36 万张制品的图片,并成功标记出了超过 2 万幅目标制品图片,促成了近 8 千条非法野生动物贸易信息的删除。在更新的 2.0 版本中, 守护官物种识别范围从之前的象、虎、穿山甲三类增长为了 29 类,同时它的识别能力、模型、选型、训练方式以及模型压缩方式等等都在不断升级。

一个个数字,点亮的是大模型落地的版图和路线,也更说明了,如今大模型为代表的人工智能技术的进步,不仅仅是技术的自我超越,更对社会发展有着深远影响和积极贡献。

无论是文心飞桨的不断升级,还是它们在方方面面的实际应用,在这场浪潮中,百度不仅在技术的深度和广度上寻求突破,更在如何将这些技术转化为社会发展的动力上不停探索,以此,向 AGI 再迈进一步。