Mam kilka lokalizacji dla każdego z około 1000 osób. Całkowity dataset wynosił około 2,5 miliona, a mój skrypt przetwarzania trwał około 20 godzin. Teraz jednak mam 24 miliony obserwacji i postaci potrzebuję oczyścić mój kod i może użyć przetwarzania równoległego, jeśli mogę.Poprawić szybkość/użycie funkcji gDistance za pomocą przetwarzania równoległego i/lub plyr/dplyr?
Dla każdego punktu, chcę znaleźć najbliższy wielokąt (większość punktów nie jest w wielokącie) i odległość tego wielokąta. Punkty to głównie obserwacje na morzu, a wielokąty to nadbrzeżne (USA) najbliższe punkty.
Robiłem to za pomocą funkcji gDistance w pakiecie rgeos i uruchomiłem serię pętli (wiem, wiem) w celu przerwania przetwarzania przez każdą z moich osób. Spędziłem dużo czasu próbując dowiedzieć się, jak przenieść to do składni plyr/dplyr, ale nie mogę tego całkiem zrozumieć. Część mojego problemu, zakładam, że ma do czynienia z moimi klasami obiektów będącymi SpatialPoint i SpatialPoylgonDataFrames.
library(sp)
library(rgeos)
library(plyr)
# Create SpatialPointsDataFrame
# My actual dataset has 24 million observations
my.pts <- data.frame(LONGITUDE=c(-85.4,-84.7,-82.7,-82.7,-86.5,-88.9,-94.8,-83.9,-87.8,-82.8),
LATITUDE=c(30.0,29.9,27.5,28.5,30.4,26.1,29.3,28.0,29.4,27.8),
MYID=c(1,1,2,2,2,2,3,4,4,4),
INDEX=1:10)
coordinates(my.pts) <- c("LONGITUDE","LATITUDE")
# Create two polygons in a SpatialPolygonsDataFrame
# My actual dataset has 71 polygons (U.S. counties)
x1 <- data.frame(x=c(-92.3, -92.3, -90.7, -90.7, -92.3, -92.3),y=c(27.6, 29.4, 29.4, 27.6, 27.6, 27.6))
x1 <- as.data.frame(x1)
x1 <- Polygon(rbind(x1,x1[1,]))
x2 <- data.frame(x=c(-85.2, -85.2, -83.3, -83.2, -85.2, -85.2),y=c(26.4, 26.9, 26.9, 26.0, 26.4, 26.4))
x2 <- as.data.frame(x2)
x2 <- Polygon(rbind(x2,x2[1,]))
poly1 <- Polygons(list(x1),"poly1")
poly2 <- Polygons(list(x2),"poly2")
myShp <- SpatialPolygons(list(poly1,poly2),1:2)
sdf <- data.frame(ID=c(1,2))
row.names(sdf) <- c("poly1","poly2")
myShp <- SpatialPolygonsDataFrame(myShp,data=sdf)
# I have been outputting my results to a list. With this small sample, it's easy to just put everything into the object county.vec. But I worry that the 24 million x 71 object would not be feasible. The non-loop version shows the output I've been getting more easily.
COUNTY.LIST <- list()
county.vec <- gDistance(my.pts, myShp, byid=TRUE)
COUNTY.LIST[[1]] = apply(county.vec, 2, min)
COUNTY.LIST[[2]] = apply(county.vec, 2, which.min)
COUNTY.LIST[[3]] = my.pts$INDEX
# I have been putting it into a loop so that county.vec gets dumped for each version of the loop.
# Seems like this could be done using dlply perhaps? And then I would have the power of parallel processing?
idx <- unique(my.pts$MYID)
COUNTY.LIST <- list()
for(i in 1:length(idx)){
COUNTY.LIST[[i]] <- list()
county.vec <- gDistance(my.pts[my.pts$MYID==idx[i],], myShp, byid=TRUE)
COUNTY.LIST[[i]][[1]] = apply(county.vec, 2, min)
COUNTY.LIST[[i]][[2]] = apply(county.vec, 2, which.min)
COUNTY.LIST[[i]][[3]] = my.pts$MY[my.pts$MYID==idx[i]]
rm(county.vec)
}
dlply(my.pts,.(MYID),gDistance(my.pts, myShp, byid=TRUE),.parallel=TRUE)
> dlply(my.pts,.(MYID),gDistance(my.pts, myShp, byid=TRUE))
Error in eval.quoted(.variables, data) :
envir must be either NULL, a list, or an environment.
# I suspect this error is because my.pts is a SpatialPointsPolygon. I also recognize that my function call probably isn't right, but first things first.
# I tried another way to reference the MYID field, more inline with treatment of S4 objects...
dlply(my.pts,[email protected]$MYID,gDistance(my.pts, myShp, byid=TRUE),.parallel=TRUE)
# It yields the same error.
Byłbym wdzięczny za wszelkie sugestie, które mogą mieć ludzie.
Czy 'dl()' obsługuje 'SpatialPointsDataFrame'? Nie wiem – Steven
Zgaduję, że to nie może, ale wzdrygam się, aby takie twierdzenie na SO! Ludzie zawsze wymyślają takie sprytne odpowiedzi, nie zdziwiłbym się, gdyby było obejście lub po prostu o wiele bardziej odpowiedni sposób na to. – Jordan