查看: 1908|回复: 2

GPU加速无效

[复制链接]

2

主题

2

帖子

24

积分

新手上路

Rank: 1

积分
24
发表于 2019-10-16 12:21:42 | 显示全部楼层 |阅读模式
我租用了Ubuntu系统gtx 1050ti(1块),用tensorflow实现了一个简单的深度学习网络。但在使用GPU时,发现运算速度并未加快(同CPU运算一样),运行时,GPU使用率从未超过25%, 功率显示#N/A,求大神指点。
截屏2019-10-16下午12.08.05.png
回复

使用道具 举报

发表于 2019-10-16 14:08:00 | 显示全部楼层
如果使用的是平台的GPU可以看一下这个
https://bbs.easyaiforum.cn/forum ... 532&fromuid=245
把要读出的数据放在云存储,会从网络读取数据,比本地要慢
回复

使用道具 举报

166

主题

616

帖子

1万

积分

xdtech

Rank: 5Rank: 5

积分
10724
发表于 2019-10-19 23:11:02 | 显示全部楼层
你这个截图,说明,你的GPU并未用起来。
请仔细看你的代码。
还有一种可能是,你的网络模型太简单,以至于GPU的效能发挥不出来。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表