Uno de nuestros repositorios git es lo suficientemente grande como para que un clon git tome una cantidad molesta de tiempo (más de unos pocos minutos). El directorio .git es ~ 800M. La clonación siempre ocurre en una LAN de 100Mbps en ssh. Incluso la clonación en ssh a localhost lleva más de unos minutos.¿Cómo se manejan los repositorios grandes de git?
Sí, almacenamos datos y blobs binarios en el repositorio.
A falta de sacarlos, ¿hay alguna otra manera de hacerlo más rápido?
Incluso si moviendo archivos grandes, éramos una opción, ¿cómo podríamos hacerlo sin una gran interrupción reescribiendo la historia de todos?
¿Has comprimido? ¿Es su '.gitignore' configuración suficiente? Pasé de 4.3gb repo a 450mb con estas consideraciones y me salvó la vida, jaja – Nic
@melee tristemente la mayoría ya está comprimida –
Me encantaría estar en tus zapatos. Nuestro git repo ha alcanzado recientemente unos 2 GB. Nuestros servidores principales están a unos pocos países de distancia, por lo que la conexión es más lenta, por lo que la clonación tarda entre 30 y 45 minutos. Lo que trato de decir es: si piensas que tu situación es mala, siempre hay mucha gente para la que es peor;). –