Kısa süre önce Amazon emrinde 1 master ve 2 slave içeren bir Spark kümesi oluşturdum.Tüm kıvılcım boyunca kıvılcım iletimi ile bir kıvılcım işinin çalıştırılması
pyspark
'u çalıştırabilir ve spark-submit
numaralı işleri gönderebilirim.
sc=SparkContext("local", "App Name")
Bu doğru görünmüyor, ama orada koymak için emin değilim: Ben tek başına bir işi oluştururken
Ancak, job.py
gibi, ben şöyle bir SparkContext oluşturmak. İşi teslim ettiğimde, tüm kümeyi kullanmıyor olduğundan eminim. Benim tüm kümenin karşı bir iş çalıştırmak isterseniz
, ben
zorunda ne köle başına 4 süreçleri, derler.) spark-submit
b argümanlar olarak geçmektedir.) Argüman olarak geçmesi Komut dosyasında SparkContext()
.