2017-04-30 65 views
5

Tensorflow Serving ile durum bilgisi olan bir LSTM'yi sürdürmenin kanonik bir yolu var mı?Tensorflow Serving - Durum bilgisi LSTM

Tensorflow API'sini doğrudan kullanmak bu kadar basittir - ancak modeli Sunum'a gönderdikten sonra aramalar arasında kalıcı LSTM durumunu en iyi nasıl gerçekleştireceğinden emin değilim.

Yukarıdakileri gerçekleştiren örnekler var mı? Repo içerisindeki örnekler çok temeldir.

TF posta listesinde Martin Wicke itibaren

cevap

3

:..

"modeli sunucusunda durum bilgisi modelleri için iyi entegrasyonu belirtildiği gibi, temelde modelleri saf fonksiyonlar Bu konuda çalışıyoruz varsayar henüz yok, ve bu işlevin eninde sonunda ortaya çıktığını görmelisiniz, fakat bir zaman vaat etmekten çok uzaktır.Bu nedenle, sunucuda durumu koruyan basit bir sarıcı yazabilirsiniz (ve isteklerde iletilen bir çeşit oturum kimliği atar) ya da TensorFlow oturum durumunu koruyan kendi sunucunuzu yazabilir (ve aynı şekilde bazı oturum kimliklerini döndürür). Daha sonra daha fazla performansa sahiptir. Her ikisi de bir çeşit çöp toplama/oturum zaman aşımı mantığı gerektirecektir. "

+0

Postalama listesi dizisine bağlantı: https://groups.google.com/a/tensorflow.org/forum/#!topic/discuss/00tipdqxRZk – Russell