Bu yüzden Spark'i Python (Pyspark) kullanarak öğrenmeye çalışıyorum. mapPartitions
işlevinin nasıl çalıştığını bilmek istiyorum. Girdiğin şey budur ve ne çıktı verir. İnternetten uygun bir örnek bulamadım. Diyelim ki, aşağıdaki gibi bir liste içeren bir RDD nesnesine sahibim.pyspark mapPartitions işlevi nasıl çalışır?
[ [1, 2, 3], [3, 2, 4], [5, 2, 7] ]
Ve ben tüm listelerden eleman 2 kaldırmak istediğiniz, nasıl mapPartitions
kullanarak Bunu başarmak olacaktır.
Neden filterOut2FromPartition f öğesinde bir şey döndürmüyorsunuz? unction. İkincisi, python'da bir kaç anahtar kelime var mı? Final_iterator yerine final.iterator = [] demek istediniz. – MetallicPriest
Sorunları düzeltildi – bearrito
Bunu uygulamaya çalıştım ancak "liste nesnesi bir yineleyici değil" hatasını alıyorum. Ayrıca, [x için x için x için x! = 2] yazdığınız zaman, sanırım x [x = 2] durumunda x için x anlamına geldiğinizi düşünüyorum. Orada liste kullandım. – MetallicPriest