Przeczytałem kilka wątków dotyczących problemów z pamięcią w R i nie mogę znaleźć rozwiązania mojego problemu.R statystyki - problemy z pamięcią podczas przydzielania dużej macierzy/Linux
Używam rodzaju regresji LASSO na kilku podzbiorach dużego zbioru danych. Dla niektórych podzbiorów działa dobrze, a dla niektórych większych podzbiorów nie działa, z błędami typu "nie można przydzielić wektora o wielkości 1,6 Gb". Błąd występuje w tym wierszu kodu:
example <- cv.glmnet(x=bigmatrix, y=price, nfolds=3)
Zależy również od liczby zmiennych zawartych w "bigmatrix".
Próbowałem na R i R64 dla komputerów Mac i R na PC, ale ostatnio wszedłem na szybszą maszynę wirtualną pod Linuksem, myśląc, że uniknę problemów z pamięcią. Było lepiej, ale nadal miało pewne ograniczenia, chociaż memory.limit wskazuje "Inf".
Czy mimo to należy wykonać tę pracę lub czy trzeba wyciąć kilka zmiennych w macierzy lub pobrać mniejszy podzbiór danych?
Czytałem, że R szuka niektórych ciągłych bitów pamięci i że może powinienem wstępnie przydzielić macierz? Dowolny pomysł ?
Przy płaskiej 64-bitowej przestrzeni adresowej odnalezienie ciągłej przestrzeni adresowej nie stanowi problemu. –