質問編集履歴
1
test
CHANGED
File without changes
|
test
CHANGED
@@ -13,3 +13,71 @@
|
|
13
13
|
1と2の計測結果を比較すると、2の方が1よりも計測時間が長くなります。
|
14
14
|
|
15
15
|
ということは、for文内の関数が少ない方がhoge()のみを時間計測しているにも関わらず、hoge()の実行時間が短くなっているということになります。
|
16
|
+
|
17
|
+
|
18
|
+
|
19
|
+
疑問に思っているのは、なぜこの2つで差が出るかです。
|
20
|
+
|
21
|
+
考えられる理由としては、LinuxにおけるTickというものが関係しているのかな、と思っています。
|
22
|
+
|
23
|
+
自分が使用しているLinuxのCONFIG_HZは1000でしたので、1[msec]の精度でしか時間計測ができないのだと解釈しています。
|
24
|
+
|
25
|
+
なので、時間計測をしても、1[msec]進むごとにCPUが時間をカウントしているので結局それよりも細かな精度では時間計測をする事ができないのだと解釈しています。
|
26
|
+
|
27
|
+
|
28
|
+
|
29
|
+
ですが、それだけだと1と2でなぜ差ができてしまうのかを理解できません。2の場合、hoge()以外の関数がfor文内に有る事で、hoge()の実行が待たされていて、その待たされた分だけ実行時間が伸びたりしているのでしょうか?
|
30
|
+
|
31
|
+
|
32
|
+
|
33
|
+
以上、よろしくお願い致します。
|
34
|
+
|
35
|
+
|
36
|
+
|
37
|
+
|
38
|
+
|
39
|
+
main() // 1の時の例
|
40
|
+
|
41
|
+
{
|
42
|
+
|
43
|
+
uint64_t nsec, sec;
|
44
|
+
|
45
|
+
struct timespec start, end;
|
46
|
+
|
47
|
+
int ERROR=0;
|
48
|
+
|
49
|
+
int ii;
|
50
|
+
|
51
|
+
for(ii=0; ii<1000000; ii++){
|
52
|
+
|
53
|
+
clock_gettime(CLOCK_MONOTONIC, &start);
|
54
|
+
|
55
|
+
hoge();
|
56
|
+
|
57
|
+
ERROR = clock_gettime(CLOCK_MONOTONIC, &end);
|
58
|
+
|
59
|
+
if(ERROR==0){
|
60
|
+
|
61
|
+
if((end.tv_nsec - start.tv_nsec) < 0){
|
62
|
+
|
63
|
+
end.tv_nsec += 1000000000;
|
64
|
+
|
65
|
+
end.tv_sec -= 1;
|
66
|
+
|
67
|
+
}
|
68
|
+
|
69
|
+
nsec = (end.tv_nsec - start.tv_nsec)/1000; // microsec
|
70
|
+
|
71
|
+
sec = (end.tv_sec - start.tv_sec)*1000000; // microsec
|
72
|
+
|
73
|
+
}else{
|
74
|
+
|
75
|
+
nsec = 0;
|
76
|
+
|
77
|
+
sec = 0;
|
78
|
+
|
79
|
+
}
|
80
|
+
|
81
|
+
ofs << sec << "¥t" << nsec << endl;
|
82
|
+
|
83
|
+
}
|