问题很简单:
master_dim.py calls dim_1.py and dim_2.py并行执行。这在 databricks pyspark 中可能吗?
下图解释了我想要做什么,由于某种原因它出错了,我在这里遗漏了什么吗?
仅供其他人使用,以防他们了解其工作原理:
from multiprocessing.pool import ThreadPool
pool = ThreadPool(5)
notebooks = ['dim_1', 'dim_2']
pool.map(lambda path: dbutils.notebook.run("/Test/Threading/"+path, timeout_seconds= 60, arguments={"input-data": path}),notebooks)
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)