Tensorflow Serving ile durum bilgisi olan bir LSTM'yi sürdürmenin kanonik bir yolu var mı?Tensorflow Serving - Durum bilgisi LSTM
Tensorflow API'sini doğrudan kullanmak bu kadar basittir - ancak modeli Sunum'a gönderdikten sonra aramalar arasında kalıcı LSTM durumunu en iyi nasıl gerçekleştireceğinden emin değilim.
Yukarıdakileri gerçekleştiren örnekler var mı? Repo içerisindeki örnekler çok temeldir.
TF posta listesinde Martin Wicke itibaren
Postalama listesi dizisine bağlantı: https://groups.google.com/a/tensorflow.org/forum/#!topic/discuss/00tipdqxRZk – Russell