大模型“图纸”已现,火山方舟开工

多云多模型的终局里,MaaS生态应该长什么样?

大模型“图纸”已现,火山方舟开工

文丨刘雨琦

编丨王一粟

中国房子盖了2000年,直至汉朝初期,才开始出现“建筑图纸”。

有了图纸后,盖房子便不仅仅依赖于几个“老师傅”,图纸是全盘的指导,避免了曾经多次的推倒重建以及因为力学结构不合理而半途而废的情况,更能将任务合理的分配给不同的木工、瓦工,进行团队协作。

图纸的出现,使建筑史进入了快速发展期,汉朝之后,中国建筑类型开始百花齐放,也通过不同房屋类型,出现了餐厅、书房、旅馆等功能性建筑。

大模型的路,也正在经历从摸着OpenAI过河,到按图索骥的阶段。

从今年2月份开始,大模型的公司进入了井喷的状态。中国科学技术信息研究所等机构发布的《中国人工智能大模型地图研究报告》显示,截至今年5月,国内已公开披露的大模型数量达到79个,“百模大战”名副其实。

当众多巨头、明星创业者都纷纷下场“淘金”的时候,字节跳动旗下的火山引擎,选择了另一条“卖铲人”的路。6月28日,火山引擎发布大模型服务平台“火山方舟”,面向企业提供模型精调、评测、推理等全方位的平台服务。

不做通用大模型,做一个“卖铲人”,是火山引擎选择的路。

求本溯源,当下选择的路,往往在未来的目标之中。火山引擎总裁谭待在接受光锥智能等访谈时表示:“多云多模型时代将成为确定性的趋势。在未来,企业自身对于大模型的应用,将会是一个‘1 + N’的应用模式,即一个主力模型和N个模型协作的模式。”

多云多模型的时代,一定需要平台去建立生态,串联上下游。就像房子会越盖越多,需要不同公司满足多元化的住户需求,也需要建筑设计、钢筋水泥、软硬装修等一整套产业链。对应到大模型服务平台,就需要一边递图纸、锤子钉子、铲子等工具,帮大模型打造好;一边要对接模型方和需求方,通过链接完成商业闭环。

可以说,火山方舟作为一个大模型服务平台,是“模型商城+模型工具”的集合。

模型商城,让大模型用起来

MaaS(模型即服务)的概念如火如荼,但想要落地却非常不容易。

整个大模型的产业链条中,分为三个重点角色:一是模型的提供方,如OpenAI、谷歌、百度、阿里、MiniMax等打造通用大模型的厂商,他们打造的通用大模型,被称为基座模型;二是模型的使用方,不同企业将基座大模型通过精调和特殊数据的喂养为行业大模型;三是,大模型的终端客户/用户

相比海外市场在应用方面的火爆,中国市场仍然处在一个探索期。一方面,国内大模型百花齐放,但通用大模型仍然在不断训练和提升当中,追赶GPT-4的涌现能力;另一方面,想把大模型用起来的企业要么不知道如何决策,要么体验后效果并不尽如人意。

大模型“图纸”已现,火山方舟开工

基于上述痛点,火山引擎将大模型服务平台的作用分为两个大方面,一个是模型商城,一个是模型工具。

模型商城,顾名思义,就是让市面上的大模型都尽量入驻,供模型需求方挑选。

据光锥智能了解到,目前,“火山方舟”集成了百川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax、智谱AI等7家AI科技公司及科研院所的大模型,统一对外提供服务。

这种吸纳多家初创大模型的做法,和此前业界初期普遍认为的“大模型是巨头的游戏”,“行业只需要极少数通用大模型,其余都是行业大模型”的想法并不完全一致。

火山引擎智能算法负责人吴迪认为,大模型市场会形成三级火箭:第一级是大模型提供商和研究机构,提供极具竞争性的通用基座模型或行业垂直模型。第二级是大量颇具技术能力的公司,形成1+N的模型格局,1个迭代自研模型的同时,引用若干商用模型。第三级则是千行百业都从大模型中获益,通过调用接口、精调模型,打造应用。在提升自身公司经营效率的同时, 把大模型能力输送到我们生活的方方面面。

如果未来的格局是多云多模型的情况,那一定需要一个“模型商城”来聚合提供商和使用方。

比如,在火山方舟“模型广场”中会有不同的模型供应商提供不同版本、参数、擅长不同领域的模型,使用方可以直接调用API 接入使用环境,也可以使用精调工具来做二次调优,再部署使用。

光锥智能曾在4月份调研多位SaaS厂商使用大模型的情况发现,大模型接入并不是“排他性”的,SaaS厂商更愿意同时接入多个大模型。这是因为接入成本并不高,多一个模型就多一个选择、多一个能力、多一重保障。比如,万兴科技就在海外业务中接入ChatGPT,国内业务接入文心一言。

而对于有大模型能力的厂商,不仅可以成为大模型的提供方,也能同时是需求方。比如,一家自研大语言模型的厂商,也可以接入其他大模型多模态的能力,让自己的产品更加多元化。

可以说,没有全能的大模型,但可以有全能的模型商城。

为了能帮企业选择与自己更适配的基座模型,火山方舟推出“模型评估”功能,支持用户基于自身数据、系统化地感知模型表现情况,并且给出详细的测评报告,为后续做决策提供数据基础。

对很多模型需求方来讲,并不是一味追求参数。参数大、性能强的,可能性价比不高。“一个经过良好精调的中小规格模型,在特定工作上的表现可能不亚于通用的、巨大的基座模型,而推理成本可以降低到原来的十分之一。”吴迪称。

而在模型评估之后,还需要进一步做模型精调,技术门槛和成本门槛是两个最大的拦路虎。

如果没有大模型服务平台,对于很多需求方而言,模型精调首先技术门槛比较高,既需要完整的数据能力,也需要有丰富的算法实践经验;其次对算力要求也不小,公有云的弹性廉价资源可以极大地降低成本。

为了解决上述问题,火山方舟提供“模型精调”能力,由平台提供极简精调流程,客户选择基础模型,上传标注数据集后即可精调;同时对于有复杂需求的场景,客户可以设置高级参数、验证集、测试集等更丰富功能,更自由的使用模型精调功能。

总之,火山方舟希望解决模型使用方的痛点,用更少的钱、更强的算力使用“更快的推理能力”。而对模型提供方来讲,只有把大模型用起来,才能进一步迭代成长。

大模型的底座:安全和工具

仅仅完成商业逻辑上的闭环,对大模型生态来说,还远远不够。除了大模型的核心能力,还需要更深厚的内功。

“企业使用大模型,首先要解决安全与信任问题”,谭待表示。

据网络安全公司Cyberhaven的调查,至少有 4%的员工将企业敏感数据输入 ChatGPT,敏感数据占输入内容的比例高达 11%。2023 年初,三星公司在使用 ChatGPT不到20天时,就发现其半导体设备相关机密数据被泄露,并连续发生3起类似事故。

在多云多模型的时代,安全信任是所有大模型使用的底线。这里的安全,并不只是大模型内部的安全,而是模型提供方和使用方连接时的双向信任。谭待介绍到,大模型服务商会考虑到知识产权问题,不希望方案和代码被泄露;而使用者和企业更希望保障自身、Prompt和精调数据的安全。

为此,火山方舟通过安全沙箱、联邦学习、硬件支持等方式保证双方的安全连接,类似于第三方托管平台的角色。

大模型“图纸”已现,火山方舟开工

“火山方舟”已上线了基于安全沙箱的大模型安全互信计算方案,利用计算隔离、存储隔离、网络隔离、流量审计等方式,实现了模型的机密性、完整性和可用性保证,适用于对训练和推理延时要求较低的客户。

吴迪表示,“火山方舟”还在探索基于英伟达NVIDIA新一代硬件支持的可信计算环境、基于联邦学习的数据资产分离等多种方式的安全互信计算方案,更全面地满足大模型在不同业务场景的数据安全要求。

大模型“图纸”已现,火山方舟开工

在安全的基础上,大模型落地更多是一个事无巨细的工程化能力,这就需要许多工具帮助其实现。

回想ChatGPT从刚刚问世到如今,OpenAI一直在打造生态壁垒:

3月份,很快GPT-4问世,面向企业用户进行内测,与此同时,OpenAI开放了ChatGPT的API接口,一众企业和开发者蜂拥而至,据不完全统计,目前基于GPT接口打造的应用超过1000个;

6月份,OpenAI计划推出类似“APP Store”的大模型商店,将上面1000个应用能够上架在应用商店中,并可以开源垂直领域的聊天机器人和定制的模型;

如此一步步走来,OpenAI在4个月之内,从一个模型的提供方发展为了模型生态。换句话说,谷歌可以在不到一个月之内推出一个新的大模型,但无法短时间内再形成1000个应用。

火山方舟的价值也在于此,精调后的模型在具体的业务中历练,而应用端也有更加源源不断模型资源可调配。吴迪透露,后续火山方舟计划提供更多的插件,包括实时信息获取、私域文档问答召回、Prompt补全与构建等,并会为插件配套数据集。

另外,算力资源也是大模型训练和使用中最稀缺资源。

今天,仍在算力增长的第一条曲线上,主要是把基础模型训练好,让涌现能力更强、更聪明。但即将出现的,是“模型应用”的第二条增长曲线。随着大模型融入千行百业,把大模型用好,ROI慢慢会转正。通过应用再反哺训练,让营收和技术正向循环。

这个期间,模型应用所消耗的算力,会逐步超过模型训练,预计在2025年会达到一个汇合点(下图)。

大模型“图纸”已现,火山方舟开工

硬件储备只是基础,算力要想更好的被调用,离不开硬件和软件的双向打磨。NVIDA开发与技术部亚太区总经理李曦鹏指出,之前的AI训练以小模型为主,一般是单机或者单机多卡,如果训练失败重启即可。而大模型训练则需要成千上万张卡,任何一台机器出故障都可能影响整个训练过程,所以大模型的算力平台是一个大的系统工程。

除了训练稳定性和安全问题,云平台的集中算力还可以解决成本问题,只有推理成本足够低,才能让大模型被广泛使用。然而,离散型的企业推理成本无法形成规模化效应,需要有统一的平台进行和强大的算力作为支撑。

火山引擎,抓住MaaS的新赛点

MaaS,是这一轮云厂商走出新增长曲线的机会。

不止一家云厂商向光锥智能透露,这一轮AI的需求,正在拉动着企业对算力需求的提升,将云计算拉出增长疲软的泥潭,甚至能恢复到之前的高速增长期。

而站在MaaS的新起点上,所有的云厂商都在同一个起跑线上。为了抢夺这个新的蓝海,云厂商都在探索不同的商业路径。

一是如同百度文心一言、阿里通义千问、华为盘古大模型等,云厂商本身是基座模型的提供方,并在此基础上面向企业客户提供API插件,提供带养分的培育土壤。但也会和行业客户合作,共创行业大模型。

另一种则是如同火山方舟,腾讯MaaS商城等,并没发布自己的通用大模型。腾讯是发布自己的行业大模型,而火山方舟是与不同的大模型提供方深度共创,帮助企业用行业数据开发大模型,并提供后续的一站式服务,直连客户。

参考电商的模式,我们可以将这两种模式类比为: 自营大模型和平台型大模型。

自营考验的是技术能力,而平台考验的则是“攒局”能力。对于综合型云厂商来讲,多数都具备自营和平台两种能力,但侧重点却非常不同。

模式本身都有各自的优劣势,并无绝对的高下之分。作为一家“后起之秀”,火山引擎有机会抓住MaaS的新赛点,在市场中占有更多的份额。

目前,抖音集团内部已有十多个业务团队试用“火山方舟”,在代码纠错等研发提效场景,文本分类、总结摘要等知识管理场景,以及数据标注、归因分析等方面探索,利用大模型能力促进降本增效。这些内部实践在快速打磨“火山方舟”,推动平台能力的进一步完善。

经历业务的“淬炼”,火山引擎已经跑出了差异化的竞争能力。

举个简单的例子,在经过抖音长期、大规模的机器学习实践后,火山引擎在系统工程优化和超大规模分布式并行训练上积累了丰富的经验,能够从软硬协同层面进行优化,更轻松的支持一个大模型长时间稳定的高速训练。

这样的经验也沉淀在了火山方舟中。据了解,火山引擎使用抖音同源的机器学习平台对外服务,在大规模稳定训练上,尤其是自动驾驶、生物医药等“难啃”的行业,机器学习和推理能力将通过火山方舟释放给更多模型使用方。

而这也将是客户“用好”大模型的一块重要拼图,未来的大模型比拼的并不是“德智体美劳”全面发展,而是“术业有专攻”的专项比拼。

用一艘大模型方舟,火山引擎能否抓住MaaS的新赛点?

本文来自投稿,不代表增长黑客立场,如若转载,请注明出处:https://www.growthhk.cn/quan/101332.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-07-07
下一篇 2023-07-07

增长黑客Growthhk.cn荐读更多>>

发表回复

登录后才能评论
特别提示:登陆使用搜索/分类/最新内容推送等功能 >>