并非所有的战争都是非正义的靠谱的炒股杠杆平台,就像抗日战争后的解放战争,就是一场正义的革命。这场战争决定了中国的命运,决定了中国的国体,它的重要意义丝毫不逊色于抗日战争。在解放战争中的我党,有坚定的决心,有统一的思想,有精细的办法,有协作的理念,这一切都是我党能够取得胜利的基础。在解放战争著名的几大军团中,东北野战军是当时全国各大战场中唯一在兵力、装备、后勤上全面占优的军事集团,而东北解放区也是当时最稳固的解放根据地,我们今天的故事,就从这里讲起。
宁城,这样一座小城,却承载着战士们的英魂。
近日,OpenAI 发布新款轻量级大模型GPT-4o mini,引发行业对轻量级模型与端侧模型落地的讨论。
2024年是端侧模型落地应用的年份,多家企业对记者表示,今年重点放在应用落地、商业化变现方面。申万菱信基金经理廖裕舟表示, OpenAI推出的GPT-4o或标志着AI正式走向端侧,走进用户,这使得AI应用落地变得更加清晰可见。
逻辑上,轻量级模型和端侧模型都旨在降低模型的计算复杂度和存储需求,以便在资源受限的设备上高效运行。只是在实现方法上,轻量化模型通常通过模型剪枝、量化、知识蒸馏等技术来减少模型大小和提高运行效率。端侧模型侧重于将这些轻量化技术应用于终端设备上,以实现快速响应和低延迟。
在轻量级模型技术发展与端侧模型不断落地的推动下,廖裕舟认为未来端侧AI带动的创新主线有望拉动电子行业进入新的增长周期,A股硬科技公司或将迎来估值重塑阶段。
轻量级模型密集发布
2024年,多家厂商先后发布轻量级模型。2月,谷歌发布比Gemini更小、更轻的版本Gemma,包括Gemma 2B(20 亿参数)与Gemma 7B(70 亿参数)两个版本,可以在台式机或者笔记本电脑上本地运行;4月,苹果研究团队在Hugging Face模型库上发布包含四种小型语言模型的OpenELM系列,包括2.7亿参数、4.5亿参数、11亿参数及30亿参数;7月,法国AI创企Mistral AI推出面向程序员和开发人员的代码生成模型Codestral Mamba 7B,以及专为数学相关推理和科学发现而设计的AI模型Mathstral 7B。
最近的动态是OpenAI发布轻量级大模型GPT-4o mini,OpenAI官网文章称,“我们预计GPT-4o mini将扩大人工智能的应用,让人工智能变得更实惠。”GPT-4o mini输入价格为15美分(0.15美元)/百万tokens(词元),输出价格为60美分(0.6美元)/百万tokens,比GPT-3.5 Turbo便宜60%。
面壁智能联合创始人、CEO李大海猜测,GPT-4o mini可能是一个“宽 MOE”(expert的数量比较多)的模型,而非端侧模型。作为一个性价比很高的云端模型,GPT-4o mini一方面将云端API市场卷到了一个新高度,另一方面也极大降低大模型落地产业成本,令行业对大规模行业应用的兴起抱有更强信心。
李大海认为,OpenAI的轻量级模型体现出在不断提升大模型参数的方向之外,行业在更小尺寸方向上追求高效高性能,这是另一条挖掘智能潜力极限、又可降低成本的路径。他称,大模型的科学化,对底层的洞察、对模型规模能力的预测,越来越成为大模型研究的核心能力。行业认知底层达成了某种一致:知识密度是大模型另一个核心指标,且越来越重要。
在面壁智能看来,知识密度是模型能力除以参与计算的模型参数,类似芯片制程。而模型知识密度每8个月提高1倍,伴随终端算力持续增强,轻量高性能模型潜力极大。
轻量级模型的设计目标是在保持模型性能的同时减少模型的计算复杂度、参数数量和模型大小,使其更适合在资源受限的设备上运行,这使得知识密度成为其中一个关键考量因素。面壁智能的方式是在真正训练一个模型之前,在沙盒里做演练,高效寻找最优数据、超参配置,再外推到大模型上。2024年2月,面壁智能推出的MiniCPM 2.4B版本模型,具备超过Llama2-13B的能力。
如果类比芯片行业,清华大学计算机系长聘副教授、面壁智能首席科学家刘知远表示,过去80多年的时间里,芯片制程的不断增强带来终端算力的提升,进而推动算力小型化。大模型的发展也会持续提升模型制程,带动模型知识密度的增强,两者的交汇点便是未来端侧智能的潜力。
端侧承接AI落地
基座模型厂商推动轻量级AI技术发展,端侧不断开拓场景进行承接,在产业链上满足模型应用落地的需求,具体包括PC、手机、XR、汽车、物联网等。Canalys预测,兼容AI的PC有望在2027年渗透率达到60%。AI手机方面,三星、小米等厂商在大模型及操作系统等方面持续探索。
端侧AI并非新事物,2020年时任华为诺亚方舟实验室技术专家王云鹤便分享过端侧AI模型的技术发展。李大海对记者表示,过去行业没有关注端侧,或暂未出现高质量的端侧模型,便只能云端模型来做事情。当云端模型不够用,便针对性进行微调。
如今,李大海称,端侧模型在技术发展推动下,将大模型科技生态的拼图拼得更完整,所带来的好处如隐私安全,未来很多场景也会对终端推理可靠性提出要求,这也是端侧非常好的落地方向。
赛迪顾问电子信息和人工智能产业研究中心分析师杨天宇将AIPC视为推动大模型落地最重要的第一终端,主因从算力承载力来看,PC较手机、智能手表等其他终端产品体积更大,能够配置更强处理器、内存等部件,具有支持百亿级参数大模型运行的能力;从算力应用场景来看,PC较其他终端产品的应用领域更加广阔,能够承载娱乐、生活、工作等多场景,有利于推动端侧大模型的应用推广。
但需注意的是,端侧模型是一件复杂工程,需要硬件、系统、算力等多方配合,即便如微软、谷歌等大厂在端侧部署的反馈成果也差强人意。NVIDIA亚太区高级产品市场总监许哲铭认为,AIPC现在是当红最热门话题之一,而当下的AI跟以往AI有一个根本上的不同——现在的AI绝大部分是生成式AI。因此从算力资源的角度来看,本地应配备一个GPU,对生成式AI进行运算,满足生产力上的需求。另外软件侧的解决方案效率也决定了整个系统运行的效率,如NVIDIATensorRT。许哲铭对记者表示,端侧模型中,NVIDIA也好,大模型厂商也好,包括硬件厂商,都应参与进来,共同建设生态。
软通动力相关负责人对记者表示,目前大模型平台在端侧AI方面的表现每年都有大幅提升,尤其是AIPC具有先天算力优势,这使其在本地就可处理绝大多数应用负载,减少了云端压力,降低了企业AI应用的云服务费用。同时需注意的是,端侧需要平衡效率与功耗,多模态大模型在端侧运行也面临较大的效率挑战。总体而言,端侧AI的发展前景广阔,但需要进一步优化以满足不同场景的需求。
另外针对云端协同,该负责人称,端侧AI的发展推动了端云协同的普及靠谱的炒股杠杆平台,这种模式不仅是一种智能推理的方式,更是模型进化的革新范式。目前国内市场在端侧部署方面更侧重于私有化部署,特别是在政务和科研场景中,私有云的应用得到了广泛落地。同时,轻量化大模型和NPU等技术的发展也促进了AI在端侧本地化部署。总体来看,端云协同已成为未来大模型应用的主流模式。当越来越多AI项目的ROI都能跑通,在商业端得到验证,形成正向循环,这种改变一定会加速,行业“入口”也可能会随之改变。