[Python-de] präzise Zeitmessung unter Linux

"Martin v. Löwis" martin at v.loewis.de
Do Okt 2 06:16:21 UTC 2008


>> Das gibt in einer Endlosschleife an, in welchen Schritten sich
>> die Zeit ändert, in Mikrosekunden. Wenn da Werte wie 1000 oder
>> 10000 rauskommen, dann hast Du eine Genauigkeit im
>> Millisekundenbereich. Bei mir kommt ca. 1 oder 2 raus, was
>> heißt; Python rechnet langsamer, als die Uhr weitergeht. Die
> 
> Was meinst du damit, Python rechne langsamer als die Uhr? Das hab ich
> nicht so ganz verstanden.

Wenn Du zusätzlich noch zählst, wie oft die while-Schleife durchlaufen
wird, stellst Du fest, dass sie immer nach dem ersten Durchlauf endet.
D.h. Python schafft es nicht, bei gettimeofday zweimal hintereinander
den gleichen Wert zu lesen; vielmehr hat sich u.U. der gettimeofday-Wert
schon *zweimal* geändert, bis Python ihn wieder ausliest.

Kurz: das Rauschen, das Python in die Messung einbringt, ist größer
als die tatsächlich durch das Betriebssystem ermöglichte
Messgenauigkeit.

Ciao,
Martin



Mehr Informationen über die Mailingliste python-de