本地大语言模型崛起:为何用户开始选择自主部署AI
创始人
2025-09-02 07:22:09
0

在经历了十多年的云计算时代后,我们已经习惯了按使用量付费的计算模式。随着AI技术的兴起,这一循环模式再次上演。虽然AI服务目前看起来相对便宜,但这种情况可能不会持续太久。

基础AI模型即服务公司按Token收费,但它们目前处于亏损状态。利润迟早要实现,无论是直接从用户口袋里赚取,还是通过用户数据获利。在这种情况下,越来越多的人开始寻找其他获得AI益处的方式,而不必受制于大公司。

**本地化趋势兴起**

推动本地大语言模型普及的背后有一股文化转变力量,其中一部分源于对大型科技公司的不信任。皮尤研究中心发现,81%的美国人担心AI公司会滥用他们的数据。联邦贸易委员会认为有必要警告AI模型公司要履行其在客户数据方面的承诺。

OpenAI表示如果用户要求,它会"忘记"用户的聊天记录,但这并不意味着它会清除这些数据。事实上,它做不到。法院已下令该公司保留其聊天日志,作为其目前与《纽约时报》等出版物法律纠纷的一部分。

即使是那些最初专注于道德和隐私的公司也会屈服于市场动态。Anthropic在8月底将其数据保留规则从30天延长到5年,这距离它宣布为其AI模型增加记忆功能仅几天时间。它还开始使用用户数据训练其模型。虽然用户可以关闭此功能,但这些都是选择退出政策,而不是选择加入。

隐私论证还延伸到主权问题,特别是在美国放松AI监管的背景下。欧洲公司正在考虑制作自己的替代方案。例如,德国工程公司Makandra构建了自己的本地运行AI,以确保其使用符合GDPR规则。

倡导本地大语言模型的公司还将技术民主化视为驱动因素。"AI是人类有史以来最大的杠杆来源之一,"Jan项目的增长工程师兼负责人Emre Can Kartal说道,Jan是Menlo Research构建本地运行模型及其管理工具的项目。"我们的使命是确保它保持开放并掌握在人们手中,而不是集中在少数科技巨头那里。"

成本也是一个因素。以亏损状态销售计算能力的AI公司往往会限制用户使用频率。任何每月向基础模型供应商支付超过100美元却在AI驱动的编程马拉松中被切断服务的人都会理解这个问题。

**环境影响考量**

美国数据中心到2030年将消耗该国9%以上的电力,根据研究公司EPRI的数据。许多数据中心使用蒸发冷却技术,消耗大量水资源。一般计算是每次对话约消耗半升水。

自己运行大语言模型的环境优势不在于训练的碳成本,而在于推理过程。如果你使用的是开源权重基础模型,训练已经完成。但你越多地将其用于本地推理,就越能产生环境影响。你的PC冷却可能使用的唯一液体是在封闭循环中,所以不会浪费水资源。

**模型压缩技术**

一般来说,你越多地使用生成式AI,本地模型就越有吸引力。那么你需要什么来有效运行它呢?很大程度上取决于你运行模型的精度,你可以使用大语言模型中的一个关键概念——量化来调整精度。

量化减少了从神经网络节点派生的权重值的精度。这减少了处理它们所需的存储和计算能力。你可以通过降低浮点数的精度来增加量化,甚至可能用纯整数值替换它们。

虽然量化会降低支撑生成式AI的基于神经网络算法的准确性,但这种影响并不显著。而且从中获得的功率/性能增益为在服务器机房、边缘设备或家庭中更易处理的系统上运行它开辟了可能性。

**软件技术进步**

仅有硬件是不够的。如今,在各种设备上运行大语言模型之所以成为可能,是因为底层软件栈的发展。

"在我看来,ggml栈(例如llama.cpp和whisper.cpp)在使本地AI成为可能方面产生了最大的影响,"Georgi Gerganov说道。如果你现在在做任何客户端推理,他很可能负责其中至少一部分工作。Ggml是他的低级机器学习模型库,用于在不同类型的硬件上运行机器学习模型。

Ollama是运行自己大语言模型的最受欢迎的CLI平台之一,它是构建在llama.cpp之上的开发者层。它提供了200多个预配置大语言模型的单行安装,使大语言模型开发者能够轻松启动和运行自己的本地生成式AI。

**适合每个人的模型**

似乎每个人都有适合的模型,基于他们的使用案例和硬件能力。像Llama和Mistral这样的通用模型提供从小到大的各种参数计数。Google Gemma 2缩减到20亿参数用于设备上工作。

还有专门用于特定任务的模型,例如编程,如Qwen 2.5 Coder 7B和DeepSeek Coder V2。一些模型可以变得非常具体。例如,我们听说像Mythomax这样的故事讲述大语言模型很适合角色扮演游戏。

**本地大语言模型是否足够好?**

问题是所有这些模型是否比在云中运行的重量级模型更好,或者它们是否需要如此。

AI公司Nomic的创始人Andriy Mulyar最初试图制作本地AI模型。他的公司开发了一个开源模型GPT4All,设计为本地运行。但他在向潜在客户销售基于此的服务时没有取得成功。

"对于个人和爱好者使用案例,它很棒。你可以获得价值。你可以写邮件。你可以演示编程,"他谈到本地大语言模型时说。但对他来说,就到此为止了。

有两个因素使云模型领先于本地模型。首先是规模。较大的模型总是更具通用智能。较小的模型往往专门化,通过微调和强化学习更快地适应你不断变化的需求。

检索增强生成(RAG)是另一个有用的工具。那些有特定兴趣的人为大语言模型构建自己的知识库,可以在狭义定义的领域产生令人印象深刻的结果。

保持基础云模型提供商领先的第二个因素是保密性。像OpenAI这样的公司严密保护其旗舰模型以保持市场领先地位。然而,这种领先优势是微小的。"质量差异正在迅速缩小,"Gerganov说。"今天,本地质量等于或优于一年前的云质量。它将继续改进。"

无论你是寻求私人系统来管理敏感工作的律师事务所,还是试图构建个人知识图谱的爱好者,你的本地大语言模型之旅都应该从将你的雄心与现实相匹配开始。从明确的使用案例开始,在这些案例中,你的隐私、成本和性能需求证明本地部署是合理的。选择适合你技术专业水平的适当工具,并使用与你的硬件配置匹配的通用模型。

Q&A

Q1:为什么越来越多的人选择本地部署大语言模型?

A:主要原因包括:对大型科技公司数据滥用的担忧(81%的美国人担心此问题)、成本考虑(避免云服务的使用限制和持续费用)、环境影响(减少数据中心的电力和水资源消耗)以及技术主权需求(如欧洲公司为符合GDPR规则而选择本地部署)。

Q2:运行本地大语言模型需要什么样的硬件配置?

A:硬件需求主要取决于模型精度。按照半精度(16位)计算,每十亿参数需要约2GB显存。可以通过增加显存(如Nvidia RTX 5090 GPU有32GB显存)或提高量化程度来支持更多参数。二手企业级硬件如Quadro RTX卡在显存性价比上往往优于新消费级GPU,M2 MacBook Pro的24GB统一内存也能很好运行200亿以上参数的模型。

Q3:本地大语言模型的质量能否媲美云端模型?

A:目前云端大型模型在通用智能方面仍有优势,但差距正在快速缩小。本地模型在特定领域通过检索增强生成(RAG)和专业化调优可以产生出色结果。虽然本地模型需要更精确的提示和上下文管理,但今天的本地模型质量已经等于或超过一年前的云端模型质量,且还在持续改进。

相关内容

热门资讯

东风汽车集团申请阻燃柔性固态电... 金融界2025年1月31日消息,国家知识产权局信息显示,东风汽车集团股份有限公司申请一项名为“一种阻...
中端性能机大乱斗:加米耀酷真,... 近期,中端手机市场迎来了多款新品,包括一加Ace 5、REDMI K80、荣耀GT、真我Neo 7以...
无机房电梯楼层显示器异常解决指... 电梯 无机房电梯楼层显示器异常怎么办? 别急,本文将为您详细解答。首先,我们要了解无机房电梯楼层显示...
我市特步5G工厂入选国家5G工... 日前,工业和信息化部发布《关于2024年5G工厂名录的公示》,我市特步5G工厂入选国家5G工厂名录,...
卫星化学获得实用新型专利授权:... 证券之星消息,根据天眼查APP数据显示卫星化学(002648)新获得一项实用新型专利授权,专利名为“...
自动驾驶+跟踪巡逻+现场抓捕 ... 近日,在浙江温州的闹市区,特警巡逻队带着一台球形机器人一起巡街,引来不少路人的关注。 球形“机器警察...
360智脑张向征:构建安全可信... 人工智能的加速发展,有力推动了社会的数智化转型;与此同时,带来的相关安全风险也日益凸显。近日,在北京...
原创 3... 一、iQOO 12 参考价格:2659元(12G+256G)。 性能强劲,游戏无忧 首先不得...
联想宣布旗下AIPC个人智能体... DoNews2月7日消息,近日,联想宣布个人智能体“小天”已接入DeepSeek,除了目前可以在联想...
2025年消脂设备产业数据报告 消脂仪是医学美容领域的医疗器械。 它使用激光和微波等设备根据其波长向真皮/皮下平面发射能量; 通过加...