Una conexión PipedInputStream/PipedOutputStream funciona muy bien cuando los datos solo necesitan ser canalizados a una salida, pero si múltiples flujos de salida están conectados a una corriente de entrada, los datos se vuelven fragmentado a través de las diferentes salidas. Mi solución actual implica tener un "lector" enhebrado que lee datos de un InputStream y luego escribe los datos en objetos OutputStream que se han asociado con el lector. Esto parece funcionar bien, pero parece desordenado e ineficiente en comparación con las clases nativas PipedIO.La mejor manera de canalizar datos de una corriente de entrada a múltiples flujos de salida
¿Existe una forma mejor de manejar esto o la implementación con la que estoy trabajando es tan buena como la que obtendré?
Gracias por la respuesta. Tiene razón al suponer que los datos no son persistentes. Básicamente, estoy leyendo datos de una conexión SSH para fines de verificación. I buffer las respuestas del comando para que puedan verificarse contra el comportamiento esperado, escribir datos en un registro de depuración según sea necesario y escribir todos los datos en una GUI para fines de monitoreo. Dado que realmente solo estoy preocupado por el almacenamiento en búfer de pequeñas cantidades de datos para la respuesta del comando, creo que voy a seguir con mi método actual o el método múltiplex anterior a menos que haya otras sugerencias. – WeeTodd