Estoy tratando de usar R para analizar archivos grandes de secuencias de ADN (archivos fastq, varios gigabytes cada uno), pero la interfaz R estándar para estos archivos (ShortRead) tiene que leer todo el archivo a la vez. Esto no cabe en la memoria, por lo que causa un error. ¿Hay alguna manera de que pueda leer unas pocas (mil) líneas a la vez, rellenarlas en un archivo en memoria y luego usar ShortRead para leer desde ese archivo en memoria?¿Hay alguna forma de leer y escribir archivos en memoria en R?
Busco algo así como de Perl IO :: escalar, para R.
En realidad, no creo que pueda resolver mi problema con esto: la función en cuestión (readFastq) quiere un * nombre * de archivo, por lo que no estoy seguro de que pueda pasar una conexión arbitraria. –
Creo que lo que está buscando se describe en las respuestas a esta publicación: http://stackoverflow.com/questions/1727772/quickly-reading-very-large-tables-as-dataframes-in-r/1820610 Especialmente como la solución sqldf. –