Dağıtım için elimde bir GPU var, ancak birden fazla modelin dağıtılması gerekiyor. Tüm GPU belleği ilk dağıtılan modele ayırmak istemiyorum çünkü daha sonra benim sonraki modelleri kullanamıyorum. Eğitim sırasında, bu gpu_memory_fraction
parametresi kullanılarak kontrol edilebilir.Tensorflow sunum: Her model için bir GPU bellek payı kullanma
tensorflow_model_server --port=9000 --model_name=<name of model> --model_base_path=<path where exported models are stored &> <log file path>
Ben gpu bellek ayırmayı kontrol etmek ayarlayabileceğiniz bir bayrak var mı - benim modeli dağıtmak için aşağıdaki komutu kullanıyorum?
Teşekkür
Does [bu] (https://stackoverflow.com/questions/34199233/how-to-prevent-tensorflow-from-allocating- bayrağı
per_process_gpu_memory_fraction
ayarlamalarına izin Sunumu Bir bütünlük-bir-gpu-bellek? rq = 1) yardım? – Imran@Imran Hayır, benim sorgu tensorflow hizmet içinde bellek ayırma ile ilgili. – dragster
Burada açık bir hata bulabilirsiniz https://github.com/tensorflow/serving/issues/249. TLDR; Bir seçenek yok gibi görünmüyor ve seçeneği el ile değiştirmek ve ben bağlanmış post içinde açıklandığı gibi ikili yeniden derleyin. – rajat