我仍处于学习 Python 的早期阶段。如果这个问题听起来很愚蠢,请提前道歉。
我有这组数据(以表格格式),我想向其中添加一些计算列。基本上我有一些位置经度/纬度和目的地经度/纬度,以及各自的数据时间,并且我正在计算每对之间的平均速度。
示例数据如下所示:
print(data_all.head(3))
id lon_evnt lat_evnt event_time \
0 1 -179.942833 41.012467 2017-12-13 21:17:54
1 2 -177.552817 41.416400 2017-12-14 03:16:00
2 3 -175.096567 41.403650 2017-12-14 09:14:06
dest_data_generate_time lat_dest lon_dest \
0 2017-12-13 22:33:37.980 37.798599 -121.292193
1 2017-12-14 04:33:44.393 37.798599 -121.292193
2 2017-12-14 10:33:51.629 37.798599 -121.292193
address_fields_dest \
0 {'address': 'Nestle Way', 'city': 'Lathrop...
1 {'address': 'Nestle Way', 'city': 'Lathrop...
2 {'address': 'Nestle Way', 'city': 'Lathrop...
然后我将经度/纬度压缩在一起:
data_all['ping_location'] = list(zip(data_all.lon_evnt, data_all.lat_evnt))
data_all['destination'] = list(zip(data_all.lon_dest, data_all.lat_dest))
然后我想计算每对位置 ping 之间的距离,并从字符串中获取一些地址信息(基本上采用子字符串),然后计算速度:
for idx, row in data_all.iterrows():
dist = gcd.dist(row['destination'], row['ping_location'])
data_all.loc[idx, 'gc_distance'] = dist
temp_idx = str(row['address_fields_dest']).find(":")
pos_start = temp_idx + 3
pos_end = str(row['address_fields_dest']).find(",") - 2
data_all.loc[idx, 'destination address'] = str(row['address_fields_dest'])[pos_start:pos_end]
##### calculate velocity which is: v = d/t
## time is the difference btwn destination time and the ping creation time
timediff = abs(row['dest_data_generate_time'] - row['event_time'])
data_all.loc[idx, 'velocity km/hr'] = 0
## check if the time dif btwn destination and event ping is more than a minute long
if timediff > datetime.timedelta(minutes=1):
data_all.loc[idx, 'velocity km/hr'] = dist / timediff.total_seconds() * 3600.0
好吧,这个程序花了我将近 7 个小时来执行 333k 行数据! :( 我有 windows 10 2 核 16gb 内存...虽然不多,但 7 小时绝对不行:(
怎样才能让程序运行得更有效率呢?我想到的一种方式是,由于数据及其计算彼此独立,因此我可以利用并行处理。
我读过很多帖子,但似乎大多数提出的并行处理方法都是针对我只使用一个简单函数的情况;但在这里我添加了多个新列。
非常感谢任何帮助!或者告诉我不可能让 pandas 进行并行处理(我相信我在某处读到过这样的说法,但我不完全确定它是否 100% 正确)。
示例帖子读入:
大熊猫数据框并行处理
python pandas数据框到字典
如何并行化一个简单的 Python 循环?
如何在Python中进行并行编程
还有很多 stackoverflow 上没有的内容......
https://medium.com/@ageitgey/quick-tip-speed-up-your-python-data-processing-scripts-with-process-pools-cf275350163a
https://homes.cs.washington.edu/~jmschr/lectures/Parallel_Processing_in_Python.html