2013-04-10 26 views
14

W jakiś sposób otrzymuję następujący znacznik czasu w moim programie. Rozumiem, jeśli istnieje IO zaangażowany, w czasie rzeczywistym może być większa niż suma czasu użytkownika i czas systemu, ale jak wytłumaczyć to, kiedy czas użytkownik sam jest większy niż rzeczywisty czasczas użytkownika większy niż w czasie rzeczywistym

real 0m8.512s 
user 0m8.737s 
sys  0m1.956s 
+0

Czy chcesz wysłać przykładowy czas użytkownika, który jest * mniej * niż w czasie rzeczywistym? –

+0

Nie mam na myśli, dlaczego użytkownik kosztuje więcej niż rzeczywiste – Daniel

Odpowiedz

38

Program jest prawdopodobnie za pomocą wielu w pewnym momencie rdzenie. Czas użytkownika jest sumowany w stosunku do użytych rdzeni, np. użycie 100% dwóch rdzeni przez 1s pozwala na 2s czasu użytkownika.

+0

brzmi rozsądnie .. to jest prawdopodobnie to, czego szukam. Dziękujemy – Daniel

+3

@Daniel Proszę oznaczyć to jako zaakceptowaną odpowiedź. –

1

Oryginalny post miał czas użytkownika nie większy niż w czasie rzeczywistym. Czas użytkownika i systemu sys razem są większe niż w czasie rzeczywistym, ale jest to możliwe, jak wyjaśniono w this entry

+0

Przepraszam, wysłałem złe dane. Oto poprawny – Daniel

Powiązane problemy