2017-01-18 69 views
8

numaralı telefondan korunmaktadır. Verilerimin sırası önemlidir. Bir CSV'yi read.csv kullanarak R'ye yüklerseniz, veri çerçevesindeki satırların sırasına göre garanti edilen CSV'ninkiyle aynı mıdır?CSV siparişi, R

Bir grup CSV'leri ve rbind bunları birlikte yüklerseniz ve ilgilendiğim verilere ulaşmak için subset'u kullanırsam ne dersiniz? Örneğin

:

1.csv

foo,bar 
a,123 
a,456 
c,789 

2.csv

foo,bar 
d,987 
a,999 
b,654 
a,321 

aşağıdaki gibi olacaktır:

data1<-read.csv("1.csv", header=T) 
data2<-read.csv("2.csv", header=T) 
all_data<-rbind(data1, data2) 
filtered<-subset(all_data, foo=="a") 

... hep üretmek bir filtered olarak:

foo bar 
1 a 123 
2 a 456 
3 a 999 
4 a 321 

... ve keyfi CSV giriş ve filtreler için bu davranış bekliyor?

+8

Basit cevabım tüm sorulara evet olur. –

+0

Sormamın sebebi, bir SQL birleşmesinin eşdeğerini yapacağım, ancak hiçbir anahtar yok ve bu nedenle yalnızca sipariş vermeyi (diğer verilerin ilkle aynı göreceli sırada olduğu yerde) güvenebiliyorum – Xophmeister

+1

Anlıyorum. R, okurken veya ciltleme yaparken sıra sırasını değiştirmez. –

cevap

3

Bu size read.csv ve subset gelen çifte kontrol sonuçlarına kullanabileceğiniz temel kodu:

İşte readLines

ile read.csv karşılaştırın sizinle read.csv gelen sonucunu karşılaştırmak bir kod var readLines (çizgi ile işlev okuma çizgisi, bir dosya)

library("readr") 
    library("rlist") 
    file1<-file.choose() #Select your csv file1 
    file2<-file.choose() #Select your csv file2 

    #readLines 
    input_list<-strsplit(readLines(file1),",") 
    db_readLines<-data.frame(list.rbind(input_list[2:length(input_list)])) 
    names(db_readLines)<-input_list[[1]] 

    #readd.csv 
    db_readcsv<-read.csv(file1,header = T,sep = ",") 

    #Comparison 
    if ((sum(db_readcsv==db_readLines)/(nrow(db_readcsv)*ncol(db_readcsv)))==1) 
    { 
    cat("Same data.frame") 
    } else 
    { 
    cat("Data.frames are differents") 
    } 

kullanabilirsiniz sonuçları karşılaştırmak ve read.csv satırları sırasını readLines olarak koruduğunu doğrulamak için csv dosyanızla.

data1<-read.csv(file1, header=T,sep=",") 
    data2<-read.csv(file2, header=T,sep=",") 
    all_data<-rbind(data1, data2) 
    filtered1<-subset(all_data, foo=="a") 

    filtered2<-rbind(data1[data1$foo=="a",],data2[data2$foo=="a",]) 

    #Comparison 
    if ((sum(filtered1==filtered2)/(nrow(filtered2)*ncol(filtered2)))==1) 
    { 
    cat("Same data.frame") 
    } else 
    { 
    cat("Data.frames are differents") 
    } 

Kodunuzdaki testlerin bu tür içerebilir, ancak açıkçası şudur:

subset sorunun ikinci kısmına Hakkında filtreleme

başka bir kolay bir test temel + rbind ile karşılaştır verimsiz ve gereksiz.

4

read.table için kaynak kodundan bir okumanız var. Bu, file ve textConnection işlevlerini kullanan scan temel işlevini kullanır. Bunların hepsi veri sıralı (sınırlayıcıya göre "çizgi" ile "çizgi") okumak edememek ve bunu besleyen doğrultusunda hareket edecek görünmektedir.

function (file, header = FALSE, sep = "", quote = "\"'", dec = ".", 
    numerals = c("allow.loss", "warn.loss", "no.loss"), row.names, 
    col.names, as.is = !stringsAsFactors, na.strings = "NA", 
    colClasses = NA, nrows = -1, skip = 0, check.names = TRUE, 
    fill = !blank.lines.skip, strip.white = FALSE, blank.lines.skip = TRUE, 
    comment.char = "#", allowEscapes = FALSE, flush = FALSE, 
    stringsAsFactors = default.stringsAsFactors(), fileEncoding = "", 
    encoding = "unknown", text, skipNul = FALSE) 
{ 
    if (missing(file) && !missing(text)) { 
     file <- textConnection(text, encoding = "UTF-8") 
     encoding <- "UTF-8" 
     on.exit(close(file)) 
    } 
    if (is.character(file)) { 
     file <- if (nzchar(fileEncoding)) 
      file(file, "rt", encoding = fileEncoding) 
     else file(file, "rt") 
     on.exit(close(file)) 
    } 
    if (!inherits(file, "connection")) 
     stop("'file' must be a character string or connection") 
    if (!isOpen(file, "rt")) { 
     open(file, "rt") 
     on.exit(close(file)) 
    } 
    pbEncoding <- if (encoding %in% c("", "bytes", "UTF-8")) 
     encoding 
    else "bytes" 
    numerals <- match.arg(numerals) 
    if (skip > 0L) 
     readLines(file, skip) 
    nlines <- n0lines <- if (nrows < 0L) 
     5 
    else min(5L, (header + nrows)) 
    lines <- .External(C_readtablehead, file, nlines, comment.char, 
     blank.lines.skip, quote, sep, skipNul) 
    if (encoding %in% c("UTF-8", "latin1")) 
     Encoding(lines) <- encoding 
    nlines <- length(lines) 
    if (!nlines) { 
     if (missing(col.names)) 
      stop("no lines available in input") 
     rlabp <- FALSE 
     cols <- length(col.names) 
    } 
    else { 
     if (all(!nzchar(lines))) 
      stop("empty beginning of file") 
     if (nlines < n0lines && file == 0L) { 
      pushBack(c(lines, lines, ""), file, encoding = pbEncoding) 
      on.exit((clearPushBack(stdin()))) 
     } 
     else pushBack(c(lines, lines), file, encoding = pbEncoding) 
     first <- scan(file, what = "", sep = sep, quote = quote, 
      nlines = 1, quiet = TRUE, skip = 0, strip.white = TRUE, 
      blank.lines.skip = blank.lines.skip, comment.char = comment.char, 
      allowEscapes = allowEscapes, encoding = encoding, 
      skipNul = skipNul) 
     col1 <- if (missing(col.names)) 
      length(first) 
     else length(col.names) 
     col <- numeric(nlines - 1L) 
     if (nlines > 1L) 
      for (i in seq_along(col)) col[i] <- length(scan(file, 
       what = "", sep = sep, quote = quote, nlines = 1, 
       quiet = TRUE, skip = 0, strip.white = strip.white, 
       blank.lines.skip = blank.lines.skip, comment.char = comment.char, 
       allowEscapes = allowEscapes, encoding = encoding, 
       skipNul = skipNul)) 
     cols <- max(col1, col) 
     rlabp <- (cols - col1) == 1L 
     if (rlabp && missing(header)) 
      header <- TRUE 
     if (!header) 
      rlabp <- FALSE 
     if (header) { 
      .External(C_readtablehead, file, 1L, comment.char, 
       blank.lines.skip, quote, sep, skipNul) 
      if (missing(col.names)) 
       col.names <- first 
      else if (length(first) != length(col.names)) 
       warning("header and 'col.names' are of different lengths") 
     } 
     else if (missing(col.names)) 
      col.names <- paste0("V", 1L:cols) 
     if (length(col.names) + rlabp < cols) 
      stop("more columns than column names") 
     if (fill && length(col.names) > cols) 
      cols <- length(col.names) 
     if (!fill && cols > 0L && length(col.names) > cols) 
      stop("more column names than columns") 
     if (cols == 0L) 
      stop("first five rows are empty: giving up") 
    } 
    if (check.names) 
     col.names <- make.names(col.names, unique = TRUE) 
    if (rlabp) 
     col.names <- c("row.names", col.names) 
    nmColClasses <- names(colClasses) 
    if (is.null(nmColClasses)) { 
     if (length(colClasses) < cols) 
      colClasses <- rep_len(colClasses, cols) 
    } 
    else { 
     tmp <- rep_len(NA_character_, cols) 
     names(tmp) <- col.names 
     i <- match(nmColClasses, col.names, 0L) 
     if (any(i <= 0L)) 
      warning("not all columns named in 'colClasses' exist") 
     tmp[i[i > 0L]] <- colClasses[i > 0L] 
     colClasses <- tmp 
    } 
    what <- rep.int(list(""), cols) 
    names(what) <- col.names 
    colClasses[colClasses %in% c("real", "double")] <- "numeric" 
    known <- colClasses %in% c("logical", "integer", "numeric", 
     "complex", "character", "raw") 
    what[known] <- sapply(colClasses[known], do.call, list(0)) 
    what[colClasses %in% "NULL"] <- list(NULL) 
    keep <- !sapply(what, is.null) 
    data <- scan(file = file, what = what, sep = sep, quote = quote, 
     dec = dec, nmax = nrows, skip = 0, na.strings = na.strings, 
     quiet = TRUE, fill = fill, strip.white = strip.white, 
     blank.lines.skip = blank.lines.skip, multi.line = FALSE, 
     comment.char = comment.char, allowEscapes = allowEscapes, 
     flush = flush, encoding = encoding, skipNul = skipNul) 
    nlines <- length(data[[which.max(keep)]]) 
    if (cols != length(data)) { 
     warning("cols = ", cols, " != length(data) = ", length(data), 
      domain = NA) 
     cols <- length(data) 
    } 
    if (is.logical(as.is)) { 
     as.is <- rep_len(as.is, cols) 
    } 
    else if (is.numeric(as.is)) { 
     if (any(as.is < 1 | as.is > cols)) 
      stop("invalid numeric 'as.is' expression") 
     i <- rep.int(FALSE, cols) 
     i[as.is] <- TRUE 
     as.is <- i 
    } 
    else if (is.character(as.is)) { 
     i <- match(as.is, col.names, 0L) 
     if (any(i <= 0L)) 
      warning("not all columns named in 'as.is' exist") 
     i <- i[i > 0L] 
     as.is <- rep.int(FALSE, cols) 
     as.is[i] <- TRUE 
    } 
    else if (length(as.is) != cols) 
     stop(gettextf("'as.is' has the wrong length %d != cols = %d", 
      length(as.is), cols), domain = NA) 
    do <- keep & !known 
    if (rlabp) 
     do[1L] <- FALSE 
    for (i in (1L:cols)[do]) { 
     data[[i]] <- if (is.na(colClasses[i])) 
      type.convert(data[[i]], as.is = as.is[i], dec = dec, 
       numerals = numerals, na.strings = character(0L)) 
     else if (colClasses[i] == "factor") 
      as.factor(data[[i]]) 
     else if (colClasses[i] == "Date") 
      as.Date(data[[i]]) 
     else if (colClasses[i] == "POSIXct") 
      as.POSIXct(data[[i]]) 
     else methods::as(data[[i]], colClasses[i]) 
    } 
    compactRN <- TRUE 
    if (missing(row.names)) { 
     if (rlabp) { 
      row.names <- data[[1L]] 
      data <- data[-1L] 
      keep <- keep[-1L] 
      compactRN <- FALSE 
     } 
     else row.names <- .set_row_names(as.integer(nlines)) 
    } 
    else if (is.null(row.names)) { 
     row.names <- .set_row_names(as.integer(nlines)) 
    } 
    else if (is.character(row.names)) { 
     compactRN <- FALSE 
     if (length(row.names) == 1L) { 
      rowvar <- (1L:cols)[match(col.names, row.names, 0L) == 
       1L] 
      row.names <- data[[rowvar]] 
      data <- data[-rowvar] 
      keep <- keep[-rowvar] 
     } 
    } 
    else if (is.numeric(row.names) && length(row.names) == 1L) { 
     compactRN <- FALSE 
     rlabp <- row.names 
     row.names <- data[[rlabp]] 
     data <- data[-rlabp] 
     keep <- keep[-rlabp] 
    } 
    else stop("invalid 'row.names' specification") 
    data <- data[keep] 
    if (is.object(row.names) || !(is.integer(row.names))) 
     row.names <- as.character(row.names) 
    if (!compactRN) { 
     if (length(row.names) != nlines) 
      stop("invalid 'row.names' length") 
     if (anyDuplicated(row.names)) 
      stop("duplicate 'row.names' are not allowed") 
     if (anyNA(row.names)) 
      stop("missing values in 'row.names' are not allowed") 
    } 
    class(data) <- "data.frame" 
    attr(data, "row.names") <- row.names 
    data 
} 
3

O (bu işlevlerin tümünü varsaymak güvenlidir read.csv, rbind ve subset) verilerinizin sırasını orijinal csv'de olduğu gibi koruyacağından emin olabilirsiniz.

Şahsen, base::subset üzerinde dplyr::filter kullanmayı tercih ediyorum. this'da açıklandığı gibi iki çalışmayı hemen hemen aynı şekilde cevaplayın. Ana fark, subset'un ?subset'da bir uyarıyla birlikte gelmesidir: "Bu, etkileşimli olarak kullanım için tasarlanmış bir kolaylık işlevidir. Programlama için, [ gibi standart altlık ayarlama işlevlerinin ve özellikle de argüman altkümesinin standart dışı değerlendirmesinin kullanılması daha iyidir. beklenmedik sonuçlara sahip. filter, dplyr ve tidyverse, tidyverse geri kalanı ile birlikte çalışacak şekilde tasarlanmıştır, ve gerektiğinde ayrı bir standart değerlendirme sürümü filter_'a sahiptir. çerçeve. Karşılaştığım filter için tek dezavantajı, rownames tutmak değildir iken subset yapar.

Her iki durumda da, sanki yeniden düzenlenmiş satırlar hakkında endişelenmeniz gerektiğini düşünmüyorum. Benim deneyimime göre, bu işlevlerin hepsi, her zaman orijinal veriler açısından sıralanan R nesneleri üretmiştir. Eğer çok dikkatli olmak istiyorsanız, @ user127649'un önerisiyle devam etmek ve yedek olarak benzersiz bir ID sütunu eklemek zarar vermez. Ben her zaman lazier seçeneklerin lehine olacağım, ama akılda kalmaya değer olabilir!