我有一个函数f(x)作为输入,它在0和1之间输入了100个随机浮点数的列表x.不同的列表将导致f的运行时间不同.
我想找出f在许多不同的随机列表上平均要花多长时间.最好的方法是什么?我应该使用timeit吗,如果可以的话,有没有一种方法可以在不包含每次试验中生成每个随机列表的时间的情况下进行操作?
这就是我不用timeit(伪代码)的方式:
for i = 1 to 10000:
x = random list
start = current time
f(x)
end = current time
results.append(end - start)
return mean(results)
解决方法:
您可以制作一个计时器装饰器:
这是一些示例代码:
from time import time
class Timer(object):
def __init__(self, func):
"""
Decorator that times a function
@param func: Function being decorated
@type func: callable
"""
self.func = func
def __call__(self, *args, **kwargs):
start = time()
self.func(*args, **kwargs)
end = time()
return end - start
@Timer
def cheese():
for var in xrange(9999999):
continue
for var in xrange(100):
print cheese()
工作example,循环更少.
标签:timeit,profiling,python 来源: https://codeday.me/bug/20191122/2060934.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。