No he comparado los Buffers de Protocolo con la serialización nativa de Java en términos de velocidad, pero para la interoperabilidad la serialización nativa de Java es un serio no-no. Tampoco va a ser tan eficiente en términos de espacio como Buffers de Protocolo en la mayoría de los casos. Por supuesto, es algo más flexible en términos de lo que puede almacenar, y en términos de referencias, etc. Protocol Buffers es muy bueno para lo que está destinado, y cuando se adapta a tus necesidades es genial, pero hay restricciones obvias debido a la interoperabilidad (Y otras cosas).
Recientemente publiqué un marco de benchmarking Protocol Buffers en Java y .NET. La versión de Java se encuentra en el main Google project (en el), la versión de .NET está en my C# port project. Si desea comparar la velocidad de PB con la velocidad de serialización de Java, puede escribir clases similares y compararlas. Sin embargo, si está interesado en la interoperabilidad, realmente no le daría un segundo pensamiento a la serialización Java nativa (o serialización binaria nativa .NET).
Hay otras opciones para la serialización interoperable, además de Protocol Buffers, aunque - Thrift, JSON y YAML me vienen a la mente, y sin duda hay otras.
EDITAR: De acuerdo, con la interoperabilidad no es tan importante, vale la pena tratar de enumerar las diferentes cualidades que desea de un marco de serialización. Una cosa que debes pensar es el control de versiones: esta es otra cosa que PB está diseñada para manejar bien, tanto hacia atrás como hacia delante (para que el nuevo software pueda leer datos antiguos y viceversa), cuando te apegas a las reglas sugeridas, por supuesto :)
Después de haber tratado de ser cauteloso sobre el rendimiento de Java frente a la serialización nativa, realmente no me sorprendería encontrar que PB era más rápido de todos modos. Si tiene la oportunidad, use el servidor vm: mis evaluaciones recientes mostraron que la máquina virtual del servidor es más del doble de al serializar y deserializar los datos de muestra. Creo que el código PB se adapta muy bien al JIT de la VM del servidor :)
Al igual que las cifras de rendimiento de la muestra, serializando y deserializando dos mensajes (uno 228 bytes, uno 84750 bytes) obtuve estos resultados en mi computadora portátil usando el servidor VM:
Benchmarking benchmarks.GoogleSize$SizeMessage1 with file google_message1.dat
Serialize to byte string: 2581851 iterations in 30.16s; 18.613789MB/s
Serialize to byte array: 2583547 iterations in 29.842s; 18.824497MB/s
Serialize to memory stream: 2210320 iterations in 30.125s; 15.953759MB/s
Deserialize from byte string: 3356517 iterations in 30.088s; 24.256632MB/s
Deserialize from byte array: 3356517 iterations in 29.958s; 24.361889MB/s
Deserialize from memory stream: 2618821 iterations in 29.821s; 19.094952MB/s
Benchmarking benchmarks.GoogleSpeed$SpeedMessage1 with file google_message1.dat
Serialize to byte string: 17068518 iterations in 29.978s; 123.802124MB/s
Serialize to byte array: 17520066 iterations in 30.043s; 126.802376MB/s
Serialize to memory stream: 7736665 iterations in 30.076s; 55.93307MB/s
Deserialize from byte string: 16123669 iterations in 30.073s; 116.57947MB/s
Deserialize from byte array: 16082453 iterations in 30.109s; 116.14243MB/s
Deserialize from memory stream: 7496968 iterations in 30.03s; 54.283176MB/s
Benchmarking benchmarks.GoogleSize$SizeMessage2 with file google_message2.dat
Serialize to byte string: 6266 iterations in 30.034s; 16.826494MB/s
Serialize to byte array: 6246 iterations in 30.027s; 16.776697MB/s
Serialize to memory stream: 6042 iterations in 29.916s; 16.288969MB/s
Deserialize from byte string: 4675 iterations in 29.819s; 12.644595MB/s
Deserialize from byte array: 4694 iterations in 30.093s; 12.580387MB/s
Deserialize from memory stream: 4544 iterations in 29.579s; 12.389998MB/s
Benchmarking benchmarks.GoogleSpeed$SpeedMessage2 with file google_message2.dat
Serialize to byte string: 39562 iterations in 30.055s; 106.16416MB/s
Serialize to byte array: 39715 iterations in 30.178s; 106.14035MB/s
Serialize to memory stream: 34161 iterations in 30.032s; 91.74085MB/s
Deserialize from byte string: 36934 iterations in 29.794s; 99.98019MB/s
Deserialize from byte array: 37191 iterations in 29.915s; 100.26867MB/s
Deserialize from memory stream: 36237 iterations in 29.846s; 97.92251MB/s
la "velocidad" vs "tamaño" es si el código generado está optimizado para la velocidad o el tamaño del código. (Los datos serializados son los mismos en ambos casos. La versión de "tamaño" se proporciona para el caso en que tiene muchos mensajes definidos y no quiere tomar mucha memoria para el código.)
Como puede ver, para el mensaje más pequeño puede ser muy muy rápido - más de 500 mensajes pequeños serializados o deserializados por milisegundo. Incluso con el mensaje 87K tarda menos de milisegundos por mensaje.
Comparativa comparación de rendimiento de diferentes formatos de serializaciones - http://maxondev.com/serialization-performance-comparison-c-net-formats-frameworks-xmldatacontractserializer-xmlserializer-binaryformatter-json-newtonsoft-servicestack-text/ – Maxim
Sé esta es una vieja pregunta, pero hay un Benchmark-Project https://github.com/eishay/jvm-serializers/wiki dedicado a la serialización de java. – kromit