本地安装Deepseek太简单了,用不了5分钟。人人都可以安装

未知
楼主 (文学城)

为了深入了解DS,对各大AI公司的可能的影响,决定是否需要做投资上的调节。这几天在本地计算机上(苹果MacBook Pro 和Windows11),安装亲测了Deepseek r1:70b 开源大模型。发现安装起来,极其简单,就两步骤,不到5分钟搞定。

1)下载安装开源的 ollama:  https://ollama.com/

2) 在ollama里输入:ollama run deepseek-r1:70b

ollama 就会自动下载被指定的大模型,并自动进入DS, 可以开始提问题了

Ollama上还有许多其它开源大模型,例如META的llama3.3 等等。也是一条指令: "ollama run llama3.3",就可以安装+运行, 太方便了。

DS  使人人都可以在自己本地的计算机上,运行相当不错的AI大模型。将来还会有更好的模型,AI大大普及化。这对AI应用公司,像AAPL,AMZN,CRM,META等的发展前景,是一个巨大的利好。

 

 

 

W
Wakeland
本地安装能用API吗?
亚特兰蒂斯
安装一个webUI,用起来更爽,https://chromewebstore.google.com/detail/pag
p
parentb
你觉得个人数据安全吗?我用他们的网站就够了。
未知
我会尽量不用网上的大模型,不止是DS,也包括OpenAI等等,因为它们会收集你的问题,

特别是能与你的Identity能连起来的问题。将来有一天,这些大模型会比你自己还了解你自己,它们永远不会忘记你的过去,不管是20年前,还是30年,还是50年前,你问过的问题。

C
CatcherInTheRye
本地安装应该是很安全的。 实际上runtime是Ollama
p
parentb
本地安装不是也有同样问题!?至少网站无法收集本地的文件。
p
parentb
本地安装Ollama我也会有这个安全性的顾虑。
亚特兰蒂斯
个人使用,还是上网方便。本地模型提供了定制化的可能,永远免费,如果够用的话。
亚特兰蒂斯
看谁调用API了,就编程工具而言,cursor调用不了API, Roo-cline行。
未知
怎么可能?本地安装根本不联网
g
gyarados
70B太大了,我的4080的机器32b的跑起来都嫌慢,14b的才差不多
未知
只就是苹果计算机的优势了,Unified Memory?构建CPU&GPU共享RAM,可以跑大模型

我的NVidia workstation,却只能跑 7b 模型,CPU的RAM根本用不上。