Sé que hace 10 años, la precisión típica del reloj igualaba un tic del sistema, que estaba en el rango de 10-30ms. En los últimos años, la precisión aumentó en varios pasos. Hoy en día, hay formas de medir intervalos de tiempo en nanosegundos reales. Sin embargo, los marcos habituales aún devuelven el tiempo con una precisión de solo alrededor de 15 ms.¿Cuán preciso es el reloj interno de una PC moderna?
Mi pregunta es, qué pasos aumentaron la precisión, cómo es posible medir en nanosegundos, y por qué todavía estamos obteniendo menos de microsegundos de precisión (por ejemplo en .NET).
(Descargo de responsabilidad: me parece extraño que esto no se haya preguntado antes, así que creo que me perdí esta pregunta cuando busqué. Por favor, cierre y señale la pregunta en ese caso, gracias. Creo que esto pertenece a SO y no en ningún otro sitio SOFU. Entiendo la diferencia entre precisión y precisión.)
http://en.wikipedia.org/wiki/High_Precision_Tvent_Timer#Problems Aparentemente, algunas implementaciones de HPET tienen irónicamente problemas de precisión, debido a la lentitud de lectura o la deriva, entre otros problemas. Sin embargo, todavía debería estar bien usarlo en la mayoría de los casos, especialmente para la reproducción/sincronización multimedia (ya que para eso se diseñó originalmente). – Alex