这个Deep Seek对苹果电脑这种用Unified Memory的架构比较好,用普通苹果电脑就可以运行大模型

丁丁在美洲
楼主 (文学城)

本地运行大模型的一大障碍是模型要放在GPU的graphic memory,但是VRAM很贵,内存和VRAM之间调数据也需要时间。苹果用统一内存,模型就直接放在RAM上,也不需要调来调去,最适合Deep Seek这样模型的本地部署,我在MacBook上运行速度很快。估计是这两天苹果涨了不少的原因,手机端也可以运行大模型了,而且别人已经做好了开源,自己拿来改改就可以用了

沉默的老农民
赞第一手的资信
亚特兰蒂斯
是,我的windows电脑,也有32G RAM,跑个7B模型都吭哧吭哧地。
未知
正是!苹果电脑设计的太棒了,早就为AI都准备好了。有人问我的苹果电脑有几个GPU,40个!

是MacBook Pro,本地运行Deepseek r1-70b (实际是43GB),GPU用量95%,CPU用量7%,答案出来不慢。

而我的Windows的工作站主机,虽然有Nvidia GPU, 有几千个GPU cores,但只有10+GB VRAM,根本无法运行Deepseek 70b模型,只能用CPU做运算,答案出来的像挤牙膏。或者只能运行很小的模型,7GB的。

如果谁要再买新的计算机,一定要买苹果的,它是AI/LLM future- proof。

亚特兰蒂斯
苹果不搞AI, 却提供了最好的个人AI运行平台。不知道是不是瞎猫碰上了死耗子。
越王剑
前几天没人要的苹果突然又变成了香饽饽

哈哈。这世界变化太大快了。

亚特兰蒂斯
AI大神好不容易放下身段坐下来,苹果就砸中了。
B
BrightLine
这是你自己想的?什么时候苹果要靠配置高取胜?以前乔布斯都是靠设计和用户体验的,哈哈

丁丁在美洲
什么叫我自己想的,这个是常识吧,谁可以去试,我本来就在用MacBook运行本地的Llama3.2 vision

跟是不是我自己想的有什么关系?

三心三意
DS 出的太晚了,否者PatGelsinger 的 AI PC 说不定就救了Intel:)
未知
我猜测苹果电脑的系统设计师很有远见,另外苹果从来都是Vertical Integration上做的出色

Unified memory structure是考虑到了,AI大模型和Gaming raytracing等将来应用计算场景。

亚特兰蒂斯
个人看法,不是。苹果深耕视频处理多年,视频和AI技术在硬件要求上重合度高。
p
pichawxc
如果多是用AI模型,苹果性价比较高!如果AI训练多,苹果就差远了,毕竟NVDA和CUDA的性能更高,高端PC太贵了。
g
gyarados
要看显存大小。我用的4080,16G显存,96G内存,跑14B的很快,但是32b就很慢

跑32b的时候内存被拿来当虚拟显存,速度就慢多了