To czysty roztwór. Zgaduję, że jest sposób na zrobienie tego z RCurl, as in this post which scraped off wikipedia.
Ale jako bardziej ogólny punkt do dyskusji: dlaczego po prostu nie używamy danych z pakietu "zestawów danych" w R? Wtedy każdy będzie miał dane przez wywołanie funkcji data() i istnieją zestawy danych do pokrycia większości przypadków.
[Edytuj]: Udało mi się to zrobić. To zdecydowanie więcej pracy (to jest niepraktyczne) niż twoje rozwiązanie. :)
[Edytuj 2]: Zawinęłam to w funkcję i wypróbowałem z inną stroną.
getSOTable <- function(url, code.block=2, raw=FALSE, delimiter="code") {
require(RCurl)
require(XML)
webpage <- getURL(url)
webpage <- readLines(tc <- textConnection(webpage)); close(tc)
pagetree <- htmlTreeParse(webpage, error=function(...){}, useInternalNodes = TRUE)
x <- xpathSApply(pagetree, paste("//*/", delimiter, sep=""), xmlValue)[code.block]
if(raw)
return(strsplit(x, "\n")[[1]])
else
return(read.table(textConnection(strsplit(x, "\n")[[1]][-1])))
}
getSOTable("https://stackoverflow.com/questions/1434897/how-do-i-load-example-datasets-in-r")
site year peak
1 ALBEN 5 101529.6
2 ALBEN 10 117483.4
3 ALBEN 20 132960.9
8 ALDER 5 6561.3
9 ALDER 10 7897.1
10 ALDER 20 9208.1
15 AMERI 5 43656.5
16 AMERI 10 51475.3
17 AMERI 20 58854.4
getSOTable("https://stackoverflow.com/questions/1428174/quickly-generate-the-cartesian-product-of-a-matrix", code.block=10)
X1 X2 X3 X4
1 1 11 1 11
2 1 11 2 12
3 1 11 3 13
4 1 11 4 14
5 1 11 5 15
6 1 11 6 16
7 1 11 7 17
8 1 11 8 18
9 1 11 9 19
10 1 11 10 20
To najlepsza praktyka jawnie zamknąć textConnection, tj site.data <- read.table (TC <- textConnection ("...")); close (tc) –