Regresyon problemi için Tensorflow ve AdamOptimizer kullanarak oldukça basit bir ANN var ve şimdi tüm hiperparametrelerin ayarlandığı noktadayım.Neural Networks'te hiperparametreleri hangi sırayla ayarlamalıyız?
- Öğrenme hızının:
Şimdilik, sana ses var birçok farklı hyperparameters gördüğümüz ilk öğrenme hızı, hız çürüme öğrenme AdamOptimizer 4 argümanlar ihtiyacı
- (öğrenme hızı, beta1'in beta2 , epsilon) böylece ayar bunları gereken - en az epsilon iterasyon
- parti boyutu
- nb
- Lambda L2 düzenlilestirme parametresi nöronların
- sayısı, katmanların sayısı çıkış katmanı için gizli katmanları için aktivasyon fonksiyonu ne tür
- bırakma parametresi
ben 2 soru var:
1) Eğer Do Unutmuş olabileceğim başka hiperparametreye bakın.
2) Şu an için ayarım oldukça "manuel" ve her şeyi doğru şekilde yapmadığımdan emin değilim. Parametreleri ayarlamak için özel bir sipariş var mı? E.g öğrenme oranı önce, sonra toplu boyutu, daha sonra ... Tüm bu parametrelerin bağımsız olduğundan emin değilim - aslında, bazılarının olmadığından eminim. Hangileri açıkça bağımsız ve hangileri açıkça bağımsız değil? Onları birlikte ayarlamalı mıyız? Tüm parametrelerin özel bir sırada düzgün şekilde ayarlanmasından söz eden herhangi bir makale veya makale var mı?
DÜZENLEME: Farklı başlangıç öğrenme oranları, parti boyutları ve düzenlenme parametreleri için aldığım grafikler aşağıda verilmiştir. Mor eğri benim için tamamen garip ... Çünkü maliyeti yavaşça diğerlerine göre yavaşlatıyor, ancak daha düşük bir doğruluk oranına sıkışmıştı. Modelin yerel bir minimumda kalması mümkün mü? LR (t) LRI/sqrt (dönem) Yardımlarınız için
Teşekkür =: öğrenme oranı için
Cost, ben çürümesi kullanılan! Paul
Merhaba Paul, öğrenme hızı azalması olarak neden "LRI/sqrt (epoch)" yi kullandığınızı merak ediyorum? Ben çürüme başlamak istediğim çağa epoch_0 'ayarlamak nerede 'LRI/max (epoch_0, epoch)' kullanıyorum, ama payda gibi karenin kökü alırsanız belki daha hızlı bir yakınlaşma olsun Yapmalısın. Bu öğrenme oranı azalması için herhangi bir referansınız var mı yoksa az çok kendiniz mi geldin? – HelloGoodbye
Merhaba @HelloGoodbye! Adam Doktoru'nu (https://arxiv.org/pdf/1412.6980.pdf) sunan makalede, Teorem 4.1'in yakınsamasını kanıtlamak için Öğrenme Oranı için bir Kare Kök azalması kullanırlar. –