He leído varios hilos sobre problemas de memoria en R y parece que no puedo encontrar una solución a mi problema.R estadísticas - problemas de memoria al asignar una gran matriz/Linux
Estoy ejecutando una especie de regresión LASSO en varios subconjuntos de un gran conjunto de datos. Para algunos subconjuntos funciona bien, y para algunos subconjuntos más grandes no funciona, con errores de tipo "no se puede asignar un vector de tamaño 1,6 Gb". El error se produce en esta línea del código:
example <- cv.glmnet(x=bigmatrix, y=price, nfolds=3)
También depende de la cantidad de variables que se incluyeron en "bigmatrix".
Probé R y R64 para Mac y R para PC pero recientemente fui a una máquina virtual más rápida en Linux pensando que evitaría cualquier problema de memoria. Era mejor, pero aún tenía algunos límites, aunque memory.limit indica "Inf".
¿Hay alguna forma de hacerlo funcionar o tengo que cortar algunas variables en la matriz o tomar un subconjunto de datos más pequeño?
He leído que R está buscando algunos trozos contiguos de memoria y que tal vez debería preasignar la matriz? Alguna idea ?
Con espacio de direcciones de 64 bits plano, la búsqueda de espacio de direcciones contiguo no será un problema. –