VC获取正确时间的做法,Windows上多少个获得时间

2019-08-21 12:46 来源:未知

Windows上几个获取时间戳函数的效率比较

GetTickCount()和GetCurrentTime()都只精确到55ms(1个tick就是55ms)。如果要精确到毫秒,应该使用timeGetTime函数或QueryPerformanceCounter函数。具体例子可以参考QA001022 "VC 中使用高精度定时器"、QA001813 "如何在Windows实现准确的定时"和QA004842 "timeGetTime函数延时不准"。

 

声明:本文章是我整合网上的资料而成的,其中的大部分文字不是我所为的,我所起的作用只是归纳整理并添加我的一些看法。非常感谢引用到的文字的作者的辛勤劳动,所参考的文献在文章最后我已一一列出。

 

今天无事,测试了下Windows上几个获取时间戳的函数效率

 

GetTickCount精度不够,自己实现真正的毫秒级函数

 

    对关注性能的程序开发人员而言,一个好的计时部件既是益友,也是良师。计时器既可以作为程序组件帮助程序员精确的控制程序进程,又是一件有力的调试武器,在有经验的程序员手里可以尽快的确定程序的性能瓶颈,或者对不同的算法作出有说服力的性能比较。 

虽然GetTickCount返回值的单位是1ms,但实际上它的精度只有10ms左右。(从网上搜了GetTickCount()函数有两个精度,一会说55ms,一会说10ms左右,到底哪个准啊?偶也不清楚)

机器性能:

    在Windows平台下,常用的计时器有两种,一种是timeGetTime多媒体计时器,它可以提供毫秒级的计时。但这个精度对很多应用场合而言还是太粗糙了。另一种是QueryPerformanceCount计数器,随系统的不同可以提供微秒级的计数。对于实时图形处理、多媒体数据流处理、或者实时系统构造的程序员,善用QueryPerformanceCount/QueryPerformanceFrequency是一项基本功。 

如果想提高精度,可以使用QueryPerformanceCounter和QueryPerformanceFrequency。这两个函数不是在每个系统中都支持。对于支持它们的系统中,可以获得低于1ms的精度。Windows 内部有一个精度非常高的定时器, 精度在微秒级, 但不同的系统这个定时器的频率不同, 这个频率与硬件和操作系统都可能有关。利用 API 函数 QueryPerformanceFrequency 可以得到这个定时器的频率。利用 API 函数 QueryPerformanceCounter 可以得到定时器的当前值。根据要延时的时间和定时器的频率, 可以算出要延时的时间定时器经过的周期数。在循环里用 QueryPerformanceCounter 不停的读出定时器值, 一直到经过了指定周期数再结束循环, 就达到了高精度延时的目的。

CPU I7 2600K 未超频

本文要介绍的,是另一种直接利用Pentium CPU内部时间戳进行计时的高精度计时手段。以下讨论主要得益于《Windows图形编程》一书,第 15页-17页,有兴趣的读者可以直接参考该书。关于RDTSC指令的详细讨论,可以参考Intel产品手册。本文仅仅作抛砖之用。 
在 Intel Pentium以上级别的CPU中,有一个称为“时间戳(Time Stamp)”的部件,它以64位无符号整型数的格式,记录了自CPU上电以来所经过的时钟周期数。由于目前的CPU主频都非常高,因此这个部件可以达到纳秒级的计时精度。这个精确性是上述两种方法所无法比拟的。 

编写的函数如下:

  www.2cto.com  

在Pentium以上的CPU中,提供了一条机器指令RDTSC(Read Time Stamp Counter)来读取这个时间戳的数字,并将其保存在EDX:EAX寄存器对中。由于EDX:EAX寄存器对恰好是Win32平台下C 语言保存函数返回值的寄存器,所以我们可以把这条指令看成是一个普通的函数调用。像这样: 

float time()
{
static __int64 start = 0;
static __int64 frequency = 0;

测试1亿次调用

inline unsigned __int64 GetCycleCount() 

__asm RDTSC 

if (start==0)
{
   QueryPerformanceCounter((LARGE_INTEGER*)&start);
   QueryPerformanceFrequency((LARGE_INTEGER*)&frequency);
   return 0.0f;
}

 

但是不行,因为RDTSC不被C 的内嵌汇编器直接支持,所以我们要用_emit伪指令直接嵌入该指令的机器码形式0X0F、0X31,如下: 

__int64 counter = 0;
QueryPerformanceCounter((LARGE_INTEGER*)&counter);
return (float) ((counter - start) / double(frequency));
}

CRT 的Time()函数耗时在1秒左右

inline unsigned __int64 GetCycleCount() 

__asm _emit 0x0F 
__asm _emit 0x31 

Hope this helps,
Kenshin

 

以后在需要计数器的场合,可以像使用普通的Win32 API一样,调用两次GetCycleCount函数,比较两个返回值的差,像这样: 

 

Win API 的GetTickCount() 在300毫秒左右,GetTickCount64() 在500毫秒左右

unsigned long t; 
t = (unsigned long)GetCycleCount(); 
//Do Something time-intensive ... 
t -= (unsigned long)GetCycleCount(); 

 

 

     《Windows图形编程》第15页编写了一个类,把这个计数器封装起来。有兴趣的读者可以去参考那个类的代码。作者为了更精确的定时,做了一点小小的改进,把执行RDTSC指令的时间,通过连续两次调用GetCycleCount函数计算出来并保存了起来,以后每次计时结束后,都从实际得到的计数中减掉这一小段时间,以得到更准确的计时数字。但我个人觉得这一点点改进意义不大。在我的机器上实测,这条指令大概花掉了几十到100多个周期,在 Celeron 800MHz的机器上,这不过是十分之一微秒的时间。对大多数应用来说,这点时间完全可以忽略不计;而对那些确实要精确到纳秒数量级的应用来说,这个补偿也过于粗糙了。 

下面从一论坛看到的转贴,不知道作者名。

Wimm.lib 的timeGetTime()在800毫秒左右

      我从《Windows图形编程》上把这个类的源码拷贝了下来供大家看看,下面是使用RDTSC指令的CPU时钟循环秒表类:

  对关注性能的程序开发人员而言,一个好的计时部件既是益友,也是良师。计时器既可以作为程序组件帮助程序员精确的控制程序进程,又是一件有力的调试武器,在有经验的程序员手里可以尽快的确定程序的性能瓶颈,或者对不同的算法作出有说服力的性能比较。
  在Windows平台下,常用的计时器有两种,一种是timeGetTime多媒体计时器,它可以提供毫秒级的计时。但这个精度对很多应用场合而言还是太粗糙了。另一种是QueryPerformanceCount计数器,随系统的不同可以提供微秒级的计数。对于实时图形处理、多媒体数据流处理、或者实时系统构造的程序员,善用QueryPerformanceCount/QueryPerformanceFrequency是一项基本功。
  本文要介绍的,是另一种直接利用Pentium CPU内部时间戳进行计时的高精度计时手段。以下讨论主要得益于《Windows图形编程》一书,第15页-17页,有兴趣的读者可以直接参考该书。关于RDTSC指令的详细讨论,可以参考Intel产品手册。本文仅仅作抛砖之用。
  在Intel Pentium以上级别的CPU中,有一个称为“时间戳(Time Stamp)”的部件,它以64位无符号整型数的格式,记录了自CPU上电以来所经过的时钟周期数。由于目前的CPU主频都非常高,因此这个部件可以达到纳秒级的计时精度。这个精确性是上述两种方法所无法比拟的。
  在Pentium以上的CPU中,提供了一条机器指令RDTSC(Read Time Stamp Counter)来读取这个时间戳的数字,并将其保存在EDX:EAX寄存器对中。由于EDX:EAX寄存器对恰好是Win32平台下C 语言保存函数返回值的寄存器,所以我们可以把这条指令看成是一个普通的函数调用。像这样:
inline unsigned __int64 GetCycleCount()
{
__asm RDTSC
}
但是不行,因为RDTSC不被C 的内嵌汇编器直接支持,所以我们要用_emit伪指令直接嵌入该指令的机器码形式0X0F、0X31,如下:
inline unsigned __int64 GetCycleCount()
{
__asm _emit 0x0F
__asm _emit 0x31
}
以后在需要计数器的场合,可以像使用普通的Win32 API一样,调用两次GetCycleCount函数,比较两个返回值的差,像这样:
unsigned long t;
t = (unsigned long)GetCycleCount();
//Do Something time-intensive ...
t -= (unsigned long)GetCycleCount();
  《Windows图形编程》第15页编写了一个类,把这个计数器封装起来。有兴趣的读者可以去参考那个类的代码。作者为了更精确的定时,做了一点小小的改进,把执行RDTSC指令的时间,通过连续两次调用GetCycleCount函数计算出来并保存了起来,以后每次计时结束后,都从实际得到的计数中减掉这一小段时间,以得到更准确的计时数字。但我个人觉得这一点点改进意义不大。在我的机器上实测,这条指令大概花掉了几十到100多个周期,在Celeron 800MHz的机器上,这不过是十分之一微秒的时间。对大多数应用来说,这点时间完全可以忽略不计;而对那些确实要精确到纳秒数量级的应用来说,这个补偿也过于粗糙了。
这个方法的优点是:
1.高精度。可以直接达到纳秒级的计时精度(在1GHz的CPU上每个时钟周期就是一纳秒),这是其他计时方法所难以企及的。
2.成本低。timeGetTime 函数需要链接多媒体库winmm.lib,QueryPerformance* 函数根据MSDN的说明,需要硬件的支持(虽然我还没有见过不支持的机器)和KERNEL库的支持,所以二者都只能在Windows平台下使用(关于DOS平台下的高精度计时问题,可以参考《图形程序开发人员指南》,里面有关于控制定时器8253的详细说明)。但RDTSC指令是一条CPU指令,凡是i386平台下Pentium以上的机器均支持,甚至没有平台的限制(我相信i386版本UNIX和Linux下这个方法同样适用,但没有条件试验),而且函数调用的开销是最小的。
3.具有和CPU主频直接对应的速率关系。一个计数相当于1/(CPU主频Hz数)秒,这样只要知道了CPU的主频,可以直接计算出时间。这和QueryPerformanceCount不同,后者需要通过QueryPerformanceFrequency获取当前计数器每秒的计数次数才能换算成时间。
这个方法的缺点是:
1.现有的C/C 编译器多数不直接支持使用RDTSC指令,需要用直接嵌入机器码的方式编程,比较麻烦。
2.数据抖动比较厉害。其实对任何计量手段而言,精度和稳定性永远是一对矛盾。如果用低精度的timeGetTime来计时,基本上每次计时的结果都是相同的;而RDTSC指令每次结果都不一样,经常有几百甚至上千的差距。这是这种方法高精度本身固有的矛盾。
关于这个方法计时的最大长度,我们可以简单的用下列公式计算:
自CPU上电以来的秒数 = RDTSC读出的周期数 / CPU主频速率(Hz)
64位无符号整数所能表达的最大数字是1.8×10^19,在我的Celeron 800上可以计时大约700年(书中说可以在200MHz的Pentium上计时117年,这个数字不知道是怎么得出来的,与我的计算有出入)。无论如何,我们大可不必关心溢出的问题。
下面是几个小例子,简要比较了三种计时方法的用法与精度
//Timer1.cpp 使用了RDTSC指令的Timer类//KTimer类的定义可以参见《Windows图形编程》P15
//编译行:CL Timer1.cpp /link USER32.lib
#include <stdio.h>
#include "KTimer.h"
main()
{
unsigned t;
KTimer timer;
timer.Start();
Sleep(1000);
t = timer.Stop();
printf("Lasting Time: %dn",t);
}
//Timer2.cpp 使用了timeGetTime函数
//需包含<mmsys.h>,但由于Windows头文件错综复杂的关系
//简单包含<windows.h>比较偷懒:)
//编译行:CL timer2.cpp /link winmm.lib
#include <windows.h>
#include <stdio.h>
main()
{
DWORD t1, t2;
t1 = timeGetTime();
Sleep(1000);
t2 = timeGetTime();
printf("Begin Time: %un", t1);
printf("End Time: %un", t2);
printf("Lasting Time: %un",(t2-t1));
}
//Timer3.cpp 使用了QueryPerformanceCounter函数
//编译行:CL timer3.cpp /link KERNEl32.lib
#include <windows.h>
#include <stdio.h>
main()
{
LARGE_INTEGER t1, t2, tc;
QueryPerformanceFrequency(&tc);
printf("Frequency: %un", tc.QuadPart);
QueryPerformanceCounter(&t1);
Sleep(1000);
QueryPerformanceCounter(&t2);
printf("Begin Time: %un", t1.QuadPart);
printf("End Time: %un", t2.QuadPart);
printf("Lasting Time: %un",( t2.QuadPart- t1.QuadPart));

  www.2cto.com  

 

// 这里要计算时间(单位为秒),应加上这一句

 

  1. // Timer.h
  2. #pragma once
    1. inline unsigned __int64 GetCycleCount(void)
  3. {
  4.     _asm  _emit 0x0F
  5.     _asm  _emit 0x31
  6. }
    1. class KTimer
  7. {
  8.     unsigned __int64 m_startcycle;
    1. public:
  9.   
  10.       unsigned __int64 m_overhead;
    1.       KTimer(void)
  11.       {
  12.           m_overhead = 0;
    1.           Start();
  13.           m_overhead  = Stop();
  14.       }
    1.       void Start(void)
  15.       {
  16.           m_startcycle = GetCycleCount();
  17.       }
    1.       unsigned __int64 Stop(void)
  18.       {
  19.           return GetCycleCount()-m_startcycle-m_overhead;
  20.       }
  21. };

double dTotalTime = (double)(t2.QuadPart-t1.QuadPart) / (double)tc.QuadPart;    //秒

//这段代码的耗时测试在8秒左右

 

printf("耗时: %fn", dTotalTime);
}
////////////////////////////////////////////////
//以上三个示例程序都是测试1秒钟休眠所耗费的时间
file://测/试环境:Celeron 800MHz / 256M SDRAM
// Windows 2000 Professional SP2
// Microsoft Visual C 6.0 SP5
////////////////////////////////////////////////
以下是Timer1的运行结果,使用的是高精度的RDTSC指令
Lasting Time: 804586872
以下是Timer2的运行结果,使用的是最粗糙的timeGetTime API
Begin Time: 20254254
End Time: 20255255
Lasting Time: 1001
以下是Timer3的运行结果,使用的是QueryPerformanceCount API
Frequency: 3579545
Begin Time: 3804729124
End Time: 3808298836
Lasting Time: 3569712
网上有一种说法说

1

这个方法的优点是: 

double dTotalTime=(double)(t2.QuadPart-t1.QuadPart)/(double)tc.QuadPart

inline unsigned __int64 GetCycleCount()

1.高精度。可以直接达到纳秒级的计时精度(在1GHz的CPU上每个时钟周期就是一纳秒),这是其他计时方法所难以企及的。 

可能有问题,比如说现在很多主板都有CPU频率自动调整功能,主要是节能,尤其在笔记本上,这样除下来不能保证精确性。我不确定这种说法是否准确,供大家研究

2

2. 成本低。timeGetTime 函数需要链接多媒体库winmm.lib,QueryPerformance* 函数根据MSDN的说明,需要硬件的支持(虽然我还没有见过不支持的机器)和KERNEL库的支持,所以二者都只能在Windows平台下使用(关于DOS平台下的高精度计时问题,可以参考《图形程序开发人员指南》,里面有关于控制定时器8253的详细说明)。但RDTSC指令是一条CPU指令,凡是i386平台下Pentium以上的机器均支持,甚至没有平台的限制(我相信i386版本UNIX和Linux下这个方法同样适用,但没有条件试验),而且函数调用的开销是最小的。

 

 {

(这里我想说的是:照这样看,跨平台也只能说是操作系统平台,不能跨硬件平台,就是说只能用在Intel Pentium以上的机器)

   上文主要摘自《使用CPU时间戳进行高精度计时》,其实除了上面提到的三种方法,还有一种常用当然没有上面准确的办法,就是使用GetTickCount函数,这种方法能够获取毫秒级的时间,具体用法如下:

3

3. 具有和CPU主频直接对应的速率关系。一个计数相当于1/(CPU主频Hz数)秒,这样只要知道了CPU的主频,可以直接计算出时间。这和 QueryPerformanceCount不同,后者需要通过QueryPerformanceFrequency获取当前计数器每秒的计数次数才能换算成时间。 

 

  __asm _emit 0x0F

这个方法的缺点是: 

 

4

1.现有的C/C 编译器多数不直接支持使用RDTSC指令,需要用直接嵌入机器码的方式编程,比较麻烦。 

DWORD startTime = GetTickCount();
// do something 
DWORD totalTime = GetTickCount() - startTime;

  __asm _emit 0x31

2.数据抖动比较厉害。其实对任何计量手段而言,精度和稳定性永远是一对矛盾。如果用低精度的timeGetTime来计时,基本上每次计时的结果都是相同的;而RDTSC指令每次结果都不一样,经常有几百甚至上千的差距。这是这种方法高精度本身固有的矛盾。

  其中的Sleep()函数不同的编译器用法不同,在网上搜了一下,解释如下:

5

 

函数名: sleep

 }

(这里数据抖动确实是一个大问题,我遇到过这样一种情况,比如测试a和b两种算法,由于数据抖动,有时a比b耗时少,有时b比a耗时少。我想过两种测试办法:

  功 能: 执行挂起一段时间

 

(1)增多测试次数,比如对a和b两种算法各测试10次,看a比b耗时少的次数和b比a耗时少的次数哪个多,以此判定哪个算法效率高。

  用 法: unsigned sleep(unsigned seconds);

 

(2)增大测试数据量,我想一增大测试数据量,算法效率的差异就会显现出来)

  在VC中使用带上头文件

作者 zhou.niandi

关于这个方法计时的最大长度,我们可以简单的用下列公式计算: 

  #include <windows.h>

今天无事,测试了下Windows上几个获取时间戳的函数效率 机器性能: CPU I7 2600K 未超频 www.2cto.com 测...

自CPU上电以来的秒数 = RDTSC读出的周期数 / CPU主频速率(Hz) 

  在gcc编译器中,使用的头文件因gcc版本的不同而不同

64位无符号整数所能表达的最大数字是1.8×10^19,在我的Celeron 800上可以计时大约700年(书中说可以在200MHz的Pentium上计时117年,这个数字不知道是怎么得出来的,与我的计算有出入)。无论如何,我们大可不必关心溢出的问题。 

  #include <unistd.h>

下面是几个小例子,简要比较了三种计时方法的用法与精度

注意 

 

  在VC中Sleep中的第一个英文字符为大写的"S"

  1. #include <stdio.h> 
  2. #include "KTimer.h" 
  3. main() 
  4. unsigned t; 
  5. KTimer timer; 
  6. timer.Start(); 
  7. Sleep(1000); 
  8. t = timer.Stop(); 
  9. printf("Lasting Time: %d/n",t); 
    1. //Timer2.cpp 使用了timeGetTime函数 
  10. //需包含<mmsys.h>,但由于Windows头文件错综复杂的关系 
  11. //简单包含<windows.h>比较偷懒:) 
  12. //编译行:CL timer2.cpp /link winmm.lib 
  13. #include <windows.h> 
  14. #include <stdio.h> 
    1. main() 
  15. DWORD t1, t2; 
  16. t1 = timeGetTime(); 
  17. Sleep(1000); 
  18. t2 = timeGetTime(); 
  19. printf("Begin Time: %u/n", t1); 
  20. printf("End Time: %u/n", t2); 
  21. printf("Lasting Time: %u/n",(t2-t1)); 
    1. //Timer3.cpp 使用了QueryPerformanceCounter函数 
  22. //编译行:CL timer3.cpp /link KERNEl32.lib 
  23. #include <windows.h> 
  24. #include <stdio.h> 
    1. main() 
  25. LARGE_INTEGER t1, t2, tc; 
  26. QueryPerformanceFrequency(&tc); 
  27. printf("Frequency: %u/n", tc.QuadPart); 
  28. QueryPerformanceCounter(&t1); 
  29. Sleep(1000); 
  30. QueryPerformanceCounter(&t2); 
  31. printf("Begin Time: %u/n", t1.QuadPart); 
  32. printf("End Time: %u/n", t2.QuadPart); 
  33. printf("Lasting Time: %u/n",( t2.QuadPart- t1.QuadPart)); 
  34. // 这里要计算时间(单位为秒),应加上这一句
  35. double dTotalTime = (double)(t2.QuadPart-t1.QuadPart) / (double)tc.QuadPart;    //秒
  36. printf("耗时: %f/n", dTotalTime);

  在标准C中是sleep, 不要大写.. 下面使用大写的来说明,, 具体用什么看你用什么编译器. 简单的说VC用Sleep, 别的一律使用sleep.

 

  Sleep函数的一般形式:

 

  Sleep(unisgned long);

//以上三个示例程序都是测试1秒钟休眠所耗费的时间 
file://测/试环境:Celeron 800MHz / 256M SDRAM 
// Windows 2000 Professional SP2 
// Microsoft Visual C 6.0 SP5 
//////////////////////////////////////////////// 

  其中,Sleep()里面的单位,是以毫秒为单位,所以如果想让函数滞留1秒的话,应该是Sleep(1000);

以下是Timer1的运行结果,使用的是高精度的RDTSC指令 
Lasting Time: 804586872 

  在Linux下,sleep中的“s”不大写

以下是Timer2的运行结果,使用的是最粗糙的timeGetTime API 
Begin Time: 20254254 
End Time: 20255255 
Lasting Time: 1001 

  sleep()里面的单位是秒,而不是毫秒。 例子如下:

以下是Timer3的运行结果,使用的是QueryPerformanceCount API 
Frequency: 3579545 
Begin Time: 3804729124 
End Time: 3808298836 
Lasting Time: 3569712 

  #include <windows.h>

古人说,触类旁通。从一本介绍图形编程的书上得到一个如此有用的实时处理知识,我感到非常高兴。有美不敢自专,希望大家和我一样喜欢这个轻便有效的计时器。

  int main()

 

  {

    网上有一种说法说

  int a;

double dTotalTime=(double)(t2.QuadPart-t1.QuadPart)/(double)tc.QuadPart

  a=1000;

可能有问题,比如说现在很多主板都有CPU频率自动调整功能,主要是节能,尤其在笔记本上,这样除下来不能保证精确性。我不确定这种说法是否准确,供大家研究

  Sleep(a);

 

  return 0;

   上文主要摘自《使用CPU时间戳进行高精度计时》,其实除了上面提到的三种方法,还有一种常用当然没有上面准确的办法,就是使用GetTickCount函数,这种方法能够获取毫秒级的时间,具体用法如下:

  }

 

参考文献:

 

《使用CPU时间戳进行高精度计时》     作者:zhangyan_qd

  1. DWORD startTime = GetTickCount();
    1. // do something 
    1. DWORD totalTime = GetTickCount() - startTime;

《Windows图形编程》,(美)Feng Yuan 著

 

《VC中取得毫秒级的时间》,http://www.cppblog.com/humanchao/archive/ 2008/04/22/43322.html

参考文献:

from:

《使用CPU时间戳进行高精度计时》     作者:zhangyan_qd

《Windows图形编程》,(美)Feng Yuan 著

《VC中取得毫秒级的时间》,

 

TAG标签:
版权声明:本文由吉利彩票平台注册-吉利彩票平台官方注册-官网推荐发布于首页,转载请注明出处:VC获取正确时间的做法,Windows上多少个获得时间