Flask + TensorFlow hizmetini iş başında kullanıyoruz. Bizim düzenimiz, modellere hizmet etmenin en uygun yolu olmayabilir, ancak işi hallediyor ve bu bizim için iyi çalışıyor.
- tfserving inşa etmek sonsuza kadar sürer Çünkü, bir liman işçisi görüntüsünü inşa (değil GPU desteği ya da bir şey, ama sadece bir model sunumu için çalışır ve daha hızlı ve daha iyi hizmet daha var:
kurulum şudur doğrudan büyük bir Python/Flask monolit içinde). Model sunucu görüntüsü şu adreste bulunabilir:
- Daha sonra Flask bir API kurmak için kullanılır. Model sunucusuna istek göndermek için bir grcp tahmin istemcisine ihtiyacımız var, bu yüzden Python'da bir tanesini doğrudan API API'sine (https://github.com/epigramai/tfserving_predict_client/) aktaracağız.
Buradaki iyi şey, modelin Flask API uygulaması tarafından sunulmamasıdır. Docker görüntü modeli sunucusu, docker kabı yerine, makine donanımı için derlenmiş bir GPU üzerinde çalışan bir model sunucusu ile kolayca değiştirilebilir.
Herhangi bir başarınız var mı? Dört gözle bekliyorum. –