gokgs 发表于 2024-06-03 11:09 https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html
请问如果用sklearn的random forest,怎么能用到GPU呢? microsat 发表于 2024-06-03 11:57
summerjessie 发表于 2024-06-03 14:53 赞,通俗易懂又有干活
再说一下AI card还要比GPU快,因为里面大多core是8bit 运算。而GPU的大多是32,64bit运算,虽然可以做8bit运算,可是非常浪费,也就是说总量core会少很多。专属有专攻,GPU主要是玩游戏,AI card主要是算AI node。
CPU的core就不要说了,少的可怜,所以用CPU做AI task巨慢无比。
其实世界上所有知识都是非常简单的逻辑,只是堆叠太多,很多人基础没打好,学深一点就不懂了。
请问如果用sklearn的random forest,怎么能用到GPU呢?
应该Python刚开始set environment setting用cuda就可以了。
如果你有Nvidia的GPU,只要不要太旧都有支持cuda.
睿智之人
自己写cuda kernel优化某些算法可行,比如说random forests,但ramp up比较高,还不如找其它替代的库,比如用cuML,或者opencv w/ cuda(如果有RF的话) CPU到GPUprogramming,不是直接code translation, 而是一个理念转换,想要达到优化的地步,需要一定经验积累的。
系统提示:若遇到视频无法播放请点击下方链接
https://www.youtube.com/embed/AwJ0dU_K2tM
系统提示:若遇到视频无法播放请点击下方链接
https://www.youtube.com/embed/8sDg-lD1fZQ 参考一下。