pytorch和cuda对应版本 Python语言其实很慢,为什么机器学习这种快速算法步骤通常还是用呢?
Python语言其实很慢,为什么机器学习这种快速算法步骤通常还是用呢?
对于那些使用了多种开发语言(Java、C#、nodejs、Erlang)然后转到Python进行机器学习的人,我想谈谈我的看法。
首先,Python真的很慢吗?我的回答是真的。非常慢。for循环比CPP慢两个数量级。
那么为什么要使用Python呢?如果我们遍历超过一亿个数据,两个数量级的差异是不可接受的。但是,如果我们使用Python来执行顶层逻辑并阻塞数以亿计的数据,Python只会循环十几次,剩下的就留给CPU和GPU了。所以两个数量级无关紧要?一毫秒和100毫秒在整个系统中并不重要。
Python最大的优点是它可以非常优雅地将数据抛出到高效的C、CUDA中进行计算。Numpy、panda、numba这些优秀的开源库可以非常方便高效地处理海量数据,借助ZMQ、cell等还可以做分布式计算,gevent借助epoll系统IO优化。因此,它不需要花费太多的精力就可以优雅高效地完成海量数据处理和机器学习任务。这就是Python如此流行的原因。
好好想想。同样的性能,代码只有CPP或Java的三分之一或更少,不是很吸引人吗?
pytorch和cuda对应版本 不装cuda能用pytorch吗 tensorflow显卡算力排行
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。