Basit bir aşağıdaki ifadeyi 2 GPU: C = A^n + B^n
üzerinde, sonuçları toplamaya başlamadan önce GPU 1 ve B^n
GPU 1 üzerinde A^n
hesaplayarak hesaplamak istiyorum. PyTorch dinamik olduğundanMatris çoğaltmasının temel çoklu GPU paralelleştirmesi
with tf.device('/gpu:0'):
An = matpow(A, n)
with tf.device('/gpu:1'):
Bn = matpow(B, n)
with tf.Session() as sess:
C = sess.run(An + Bn)
Ancak, sorun aynı şeyi yapıyor yaşıyorum: gibi
TensorFlow ben giderdim. Aşağıdakileri denedim ama sadece daha fazla zaman alır.with torch.cuda.device(0):
A = A.cuda()
with torch.cuda.device(1):
B = B.cuda()
C = matpow(A, n) + matpow(B, n).cuda(0)
Ben torch.nn.DataParallel
kullanarak toplu boyut modelleri parallelize bir modül olduğunu biliyorum ama burada daha temel bir şey yapmaya.