Estamos tratando de sintonizar una aplicación que acepte mensajes a través de TCP y que también use TCP para algunos de sus mensajes internos. Durante la prueba de carga, notamos que el tiempo de respuesta se degrada significativamente (y luego se detiene por completo) a medida que se realizan más solicitudes simultáneas al sistema. Durante este tiempo, vemos una gran cantidad de conexiones TCP en TIME_WAIT
de estado y alguien sugirió la reducción de la variable TIME_WAIT
medio ambiente desde que es por defecto de 60 segundos a 30.Configuración TIME_WAIT TCP
De what I understand, el ajuste TIME_WAIT
esencialmente establece el tiempo se pone a disposición un recurso TCP al sistema nuevamente después de que se cierra la conexión.
No soy un "chico de la red" y sé muy poco acerca de estas cosas. Necesito mucho de lo que está en esa publicación vinculada, pero "embrutecerme" un poco.
- creo que entiendo por qué el valor
TIME_WAIT
no puede ajustarse a 0, pero puede que con seguridad se establece en 5? ¿Qué hay de 10? ¿Qué determina una configuración "segura" para este valor? - ¿Por qué el valor predeterminado es 60? Supongo que la gente mucho más inteligente que yo tenía buenas razones para seleccionar esto como un incumplimiento razonable.
- ¿Qué más debería saber sobre los posibles riesgos y beneficios de anular este valor?
También no desea configurarlo demasiado alto: http://stackoverflow.com/questions/1803566/what-is-the-cost-of-many-time-wait-on-the-server- lado – Pacerier