在Tensorflow中使用gpu和cpu是有很大的差别的。在小数据集的情况下,cpu和gpu的性能差别不大。
不过在大数据集的情况下,cpu的时间显著增加,而gpu变化并不明显。
不过,我的笔记本电脑的风扇终于全功率运行了。
import tensorflow as tf import timeit import numpy as np import matplotlib.pyplot as plt def cpu_run(num): with tf.device('/cpu:0'): cpu_a=tf.random.normal([1,num]) cpu_b=tf.random.normal([num,1]) c=tf.matmul(cpu_a,cpu_b) return c def gpu_run(num): with tf.device('/gpu:0'): gpu_a=tf.random.normal([1,num]) gpu_b=tf.random.normal([num,1]) c=tf.matmul(gpu_a,gpu_b) return c k=10 m=7 cpu_result=np.arange(m,dtype=np.float32) gpu_result=np.arange(m,dtype=np.float32) x_time=np.arange(m) for i in range(m): k=k*10 x_time[i]=k cpu_str='cpu_run('+str(k)+')' gpu_str='gpu_run('+str(k)+')' #print(cpu_str) cpu_time=timeit.timeit(cpu_str,'from __main__ import cpu_run',number=10) gpu_time=timeit.timeit(gpu_str,'from __main__ import gpu_run',number=10) # 正式计算10次,取平均时间 cpu_time=timeit.timeit(cpu_str,'from __main__ import cpu_run',number=10) gpu_time=timeit.timeit(gpu_str,'from __main__ import gpu_run',number=10) cpu_result[i]=cpu_time gpu_result[i]=gpu_time print(cpu_result) print(gpu_result) fig, ax = plt.subplots() ax.set_xscale("log") ax.set_adjustable("datalim") ax.plot(x_time,cpu_result) ax.plot(x_time,gpu_result) ax.grid() plt.draw() plt.show()
蓝线是cpu的耗时,而红线是gpu的耗时。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:mmqy2019@163.com进行举报,并提供相关证据,查实之后,将立刻删除涉嫌侵权内容。
长按识别二维码并关注微信
更方便到期提醒、手机管理