import numpy as np
df = spark.createDataFrame(
[(1, 1, None), (1, 2, float(5)), (1, 3, np.nan), (1, 4, None), (1, 5, float(10)), (1, 6, float('nan')), (1, 6, float('nan'))],
('session', "timestamp1", "id2"))
Beklenen çıkışPyspark veri çerçevesindeki her sütun için Null ve Nan değerlerinin sayısı nasıl bulunur? Her sütun için boş nan deyince/ile
dataframe
Not: ben boş & değil nan için sadece denetler yığın taşması bulundu önceki sorular. Bu yüzden yeni bir soru oluşturdum.
Kıvılcım sütununda Boş değerlerin sayısını bulmak için kıvılcımda isnull() işlevini kullanabileceğimi biliyorum, ancak Spark veri çerçevesindeki Nan değerlerini nasıl bulabilirim?
Her sütun için (her sütun için iki sütun) ayrı bir nan/Null değeri mi yoksa yalnızca sütunlarınızın kaç tane öğesinin sayı sayılmayacağını bilmek mi istiyorsunuz? – titiro89
nan/Null değerinin ayrı sayısı çalışacaktır –