零经验也能轻松部署!在本地 PC 上搭建 AI 助手助力电商业务

介绍

在当今竞争激烈的电商市场,AI(人工智能)技术已经成为提升客户体验、优化业务运营和提高销售转化率的关键工具。然而,很多企业仍然依赖云端 AI 服务,不仅成本高昂,还存在数据安全和访问速度等问题。其实,现在有了更简单、更经济的解决方案——直接在自己的电脑上部署 AI 模型。让我帮助你理解 AI 训练计算需求、FLOPs 计算的意义,以及如何使用 Ollama 在本地部署 DeepSeek R1。

为什么电商需要本地 AI?

  1. 保护客户数据,提升安全性 许多电商平台都会收集和处理大量的用户数据,比如购买记录、搜索习惯和个人信息。如果 AI 运行在本地,就无需将这些敏感数据上传到云端,从而减少数据泄露的风险。
  2. 零延迟,提升客户体验 在电商运营中,快速响应客户需求至关重要。无论是智能客服、个性化推荐,还是商品搜索,一个本地部署的 AI 模型可以在毫秒级别内响应,而云端 AI 可能受网络状况影响,导致延迟增加。
  3. 降低长期成本 使用云端 AI 服务通常意味着持续支付订阅费用,而本地 AI 仅需一次性部署,后续运行成本几乎为零。对于中小型电商来说,这是一种既经济又高效的选择。
  4. 完全掌控,灵活定制 云端 AI 服务通常是标准化的,无法满足所有个性化需求。但如果在本地部署 AI,就可以根据业务特点自由调整 AI 的功能,比如优化推荐算法,或训练 AI 更好地理解用户需求。

AI 训练 vs. 推理:为什么 FLOPs 重要?

FLOPs(浮点运算次数) 是衡量 AI 模型计算量的核心指标:

训练 AI 需要超级计算机级别的 FLOPs(如 GPT-4 训练需要 10²⁵ FLOPs)。

本地推理(运行 AI)对计算需求较低,但大模型仍然需要高显存 GPU。

现在部署 AI 真的很简单!

很多人可能会担心,AI 部署是不是需要专业的技术背景?其实,现在的工具已经让这一过程变得极其简单,甚至零经验的小白也能轻松搞定。只需按照以下几个简单步骤,就能让 AI 在本地运行:

  1. 下载 Ollama,这是 AI 本地部署的核心工具。
  2. 检查电脑配置,确保 GPU 适合运行 AI 模型。
  3. 一键安装 DeepSeek R1,根据显卡配置选择最合适的模型版本。
  4. 安装 Web UI,通过网页界面直接与 AI 交互。

整个过程几乎不需要任何专业知识,只要按照步骤操作,就能在短时间内完成部署。对于电商从业者来说,这是一个利用 AI 提升业务的最佳方式,既简单又高效。

本指南将详细介绍 AI 本地部署的每一步,帮助你快速上手,打造属于自己的 AI 助手!

第 1 步:下载并安装 Ollama

在部署 DeepSeek R1 之前,您需要安装 Ollama。这是本地管理 AI 模型所必需的工具。Ollama 是一个简化本地 AI 部署的工具,支持多种开源大模型,如 LLaMA、Mistral、DeepSeek等等。

从官方网站下载 Ollama: https://ollama.com/

按照安装说明完成设置。

This image has an empty alt attribute; its file name is image-5.png

第 2 步:检查您的 GPU 规格

DeepSeek R1 需要强大的 GPU 才能获得最佳性能。要检查您的 GPU 规格,请执行以下步骤:

  1. Win + R 打开“运行”窗口。
  2. 输入 dxdiag 并点击 确定
  3. 进入 显示 选项卡。
  4. 识别您的 GPU 名称(如 NVIDIA、AMD、Intel HD Graphics)。
This image has an empty alt attribute; its file name is image-3.png

Model Selection Based on GPU Memory:


This image has an empty alt attribute; its file name is image-4.png

基于 GPU 内存的模型选择:

GPU 内存推荐模型
8GB7b
8GB+8b
12GB+14b
24GB+32b
48GB+70b

第 3 步:下载并运行 DeepSeek R1

安装 Ollama 并确定您的 GPU 能力后,可以通过命令行安装 DeepSeek R1。

打开 命令提示符 (CMD) 并根据您的 GPU 运行相应的命令:

模型命令
7bollama run huihui_ai/deepseek-r1-abliterated:7b
8bollama run huihui_ai/deepseek-r1-abliterated:8b
14bollama run huihui_ai/deepseek-r1-abliterated:14b
32bollama run huihui_ai/deepseek-r1-abliterated:32b
70bollama run huihui_ai/deepseek-r1-abliterated:70b

Ollama 截至目前支持的开源 AI 模型、其参数规模以及运行下载指令:

模型名称参数规模下载指令
Llama 3.18B, 70Bollama pull llama3.1:8b / ollama pull llama3.1:70b
Mistral7Bollama pull mistral:7b
Phi-22.7Bollama pull phi-2:2.7b
CodeGemma2B, 7Bollama pull codegemma:2b / ollama pull codegemma:7b
Llama 213B, 70Bollama pull llama2:13b / ollama pull llama2:70b
Orca Mini3Bollama pull orca-mini:3b
LLaVA7Bollama pull llava:7b
Gemma2B, 7Bollama pull gemma:2b / ollama pull gemma:7b
Solar10.7Bollama pull solar:10.7b

📌 完整 Ollama 模型库Ollama 官方库

第 4 步:安装 Web UI 以简化访问

要使用图形界面与 DeepSeek R1 交互,请安装 Web UI 扩展程序:

Page Assist: Ollama 的 Web UI

安装后,您可以直接在 Chrome 浏览器中使用 DeepSeek R1。

第 5 步:卸载或删除已安装的模型

如果需要删除已安装的模型,请使用以下命令:

ollama rm <模型名称>:<版本>

例如,要删除 70b 模型,请执行:

ollama rm deepseek-r1:70b

删除 Llama 3 8B

ollama rm llama3:8b

查看已安装模型

如果不确定有哪些已安装的模型,可以使用:

bashCopyEditollama list

它会列出本地所有安装的模型,方便选择要删除的模型。

📌 注意:模型删除后需要重新下载才能使用,建议在删除前确认是否仍然需要该模型。

结论

通过遵循这些步骤,您可以在本地计算机上部署 DeepSeek R1,或许其他开源模型,完全掌控您的 AI 能力。无论是用于开发、研究还是个人 AI 助手,此设置都能确保流畅的体验而且安全可靠。