APUE 3.9节中关于系统调用read给出了不同大小的缓冲区会导致读取效率的差异。这里stevens用三种时间表示读取文件过程所花费的时间。这三种时间分别为真实/时钟时间(real / clock time),系统cpu时间(system cpu time),用户cpu时间(user cpu time )。其意义如下:
真实时间:进程从开始执行到最后结束的时间,包括阻塞+就绪(排队等待)+运行的时间。也即我们能够真实感受到的时间。
系统cpu时间:进程运行时,在系统区执行的时间,如(write,read等系统调用),运行的地方位于系统内存中。
用户cpu时间:进程运行时,在用户区执行的时间。这里主要是我们自己编写的代码,运行在用户内存中。
程序从用户态到系统态需要消耗一定的时间,频繁的切换会导致系统运行的效率低下。但缓冲区又不宜太大,会浪费用户内存。所以合适的缓冲区大小很有必要。那我们如何确定一个最佳的缓冲区呢?stevens就用上面的三种时间去测试系统效率。他选用的bufsize从1,2,4,8 ... 524888 这20个值进行测试,最后得出最佳大小。那我们如何获得这些时间呢?
其实linux提供了很多关于时间的系统调用,如time,get