本文作者:author

DeepSeek引爆个人AI大模型部署热潮:低成本、高效率开启AI普惠时代

DeepSeek引爆个人AI大模型部署热潮:低成本、高效率开启AI普惠时代摘要: DeepSeek大模型的爆火,使得个人用户低成本部署AI大模型成为现实,例如仅需80元即可搭建个人语音助手,150元即可DIY豆包智能机器人。这得益于DeepSeek在算法层面推理...

DeepSeek大模型的爆火,使得个人用户低成本部署AI大模型成为现实,例如仅需80元即可搭建个人语音助手,150元即可DIY豆包智能机器人。这得益于DeepSeek在算法层面推理成本的优化,为国产算力芯片和计算集群网络发展提供了空间,促进了软硬件成本下降,形成产业正向循环。

基于乐鑫科技ESP系列芯片的低成本开发套件,例如售价80元的ESP32-S3开发套件月销过千,40元开发板月销过万,成为这一趋势的缩影。这些套件结合开源技术和淘宝等电商平台,降低了个人开发者参与门槛,并得到商家提供的技术支持和教学视频。ESP32-S3芯片支持本地离线运行部分AI模型,但大部分自然语言交互仍需线上接入大语言模型。

除乐鑫科技外,恒玄科技、中科蓝讯、炬芯科技等公司SoC芯片也应用于端侧AI部署,例如恒玄科技的BECO嵌入式AI协处理器,以及炬芯科技的低功耗AI加速引擎。

DeepSeek通过模型蒸馏技术,将大模型能力迁移至小参数模型,提升AI部署灵活性,并有望推动智能眼镜、AI玩具等智能终端的爆发式增长。产业链人士看好DeepSeek对端侧AI的积极影响,预计智能眼镜市场将在2026年迎来起量。

PC被认为是端侧AI模型落地的首站,部分PC主机厂已实现DeepSeek本地化部署,例如搭载龙芯中科3A6000处理器的信创PC,以及沐曦GPU与联想合作推出的DeepSeek智能体一体机。DeepSeek作为开源模型,也通过阿里云、腾讯云等云计算平台向中小企业和个人用户提供服务,进一步降低了AI应用的成本和门槛,并推动了国产大算力芯片和异构计算方案的市场接纳,最终强化了国产AI从算法、算力到应用的生态闭环。

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

验证码

评论列表 (暂无评论,32人围观)参与讨论

还没有评论,来说两句吧...