2016-12-01 84 views
7

Apache Spark ile önyüklemiş 3 düğümlü bir AWS ElasticMapReduce küme yerleştirdim. Benim yerel makinede, ben SSH ile ana düğümünü erişebilirsiniz: Bir kez ana düğüm haline ssh'dPySpark'ı (yerel makine) EMR kümeme nasıl bağlarım?

ssh -i <key> [email protected] , ben pyspark aracılığıyla PySparkerişebilirsiniz. Ayrıca, (her ne kadar güvensiz olsa da) ana düğümün güvenlik grubunu, yerel makinenin IP adresinden özellikle 7077 numaralı bağlantı noktasından TCP trafiğini kabul edecek şekilde yapılandırdım.

MASTER=spark://ec2-master-node-public-address:7077 ./bin/pyspark

istisna bir dizi Yukarıdaki komut sonuçları sağlamak ve SparkContext nesnesini başlatamadı için PySpark neden olur:

Ancak, ben hala benim kümeye benim yerel PySpark örneğini bağlanamıyorum .

Yukarıda anlattığım gibi uzak bir bağlantıyı nasıl başarıyla oluşturacağımı bilen var mı?

cevap

2

Yerel makineniz, kümeniz için ana düğüm değilse, bunu yapamazsınız. Bunu AWS EMR ile yapamazsınız.

+0

Lütfen nedenini açıklayabilir misiniz? Bunu yapmak isterdim, ancak bu yaklaşım işe yaramazsa neden yapamadığımı açıklayabilmeli. – thebigdog

+0

Kesinlikle oy vermemeye aldırış etmiyorum ama cevabın geçerli olduğunu düşündüğümde en az yorumda bulunma hakkına sahip olmalısın ... – eliasah

+0

Bu eğlenceli olmaya başlıyor ... Cevap hoşunuza gitmiyor ve reddediyor musun? Geçerli bir cevap! – eliasah