1. <legend id='rbeYg'><style id='rbeYg'><dir id='rbeYg'><q id='rbeYg'></q></dir></style></legend>
    2. <small id='rbeYg'></small><noframes id='rbeYg'>

        <bdo id='rbeYg'></bdo><ul id='rbeYg'></ul>
        <i id='rbeYg'><tr id='rbeYg'><dt id='rbeYg'><q id='rbeYg'><span id='rbeYg'><b id='rbeYg'><form id='rbeYg'><ins id='rbeYg'></ins><ul id='rbeYg'></ul><sub id='rbeYg'></sub></form><legend id='rbeYg'></legend><bdo id='rbeYg'><pre id='rbeYg'><center id='rbeYg'></center></pre></bdo></b><th id='rbeYg'></th></span></q></dt></tr></i><div id='rbeYg'><tfoot id='rbeYg'></tfoot><dl id='rbeYg'><fieldset id='rbeYg'></fieldset></dl></div>
      1. <tfoot id='rbeYg'></tfoot>

      2. 将python模块导入Databricks中的python脚本

        Import python module to python script in databricks(将python模块导入Databricks中的python脚本)
          • <legend id='l0ZeA'><style id='l0ZeA'><dir id='l0ZeA'><q id='l0ZeA'></q></dir></style></legend><tfoot id='l0ZeA'></tfoot>
              <tbody id='l0ZeA'></tbody>
            <i id='l0ZeA'><tr id='l0ZeA'><dt id='l0ZeA'><q id='l0ZeA'><span id='l0ZeA'><b id='l0ZeA'><form id='l0ZeA'><ins id='l0ZeA'></ins><ul id='l0ZeA'></ul><sub id='l0ZeA'></sub></form><legend id='l0ZeA'></legend><bdo id='l0ZeA'><pre id='l0ZeA'><center id='l0ZeA'></center></pre></bdo></b><th id='l0ZeA'></th></span></q></dt></tr></i><div id='l0ZeA'><tfoot id='l0ZeA'></tfoot><dl id='l0ZeA'><fieldset id='l0ZeA'></fieldset></dl></div>
            • <bdo id='l0ZeA'></bdo><ul id='l0ZeA'></ul>
            • <small id='l0ZeA'></small><noframes id='l0ZeA'>

                  本文介绍了将python模块导入Databricks中的python脚本的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着跟版网的小编来一起学习吧!

                  问题描述

                  我正在Azure DataFactory中处理一个项目,并且我有一个运行Databricks python脚本的管道。这个特定的脚本位于Databricks文件系统中,由ADF管道运行,它从位于同一文件夹(两个脚本都位于dbfs:/FileStore/code中)的另一个Python脚本导入模块。

                  下面的代码可以将python模块导入Databricks笔记本,但在导入python脚本时不起作用。

                  sys.path.insert(0,'dbfs:/FileStore/code/')
                  import conn_config as Connect
                  

                  在集群日志中,我得到: Import Error: No module named conn_config

                  我猜这个问题与python文件无法识别Databricks环境有关。有什么帮助吗?

                  推荐答案

                  我终于用电光完成了。创建电光会话后(如果您的集群集成了电光会话,则无需发起会话):

                  spark.sparkContext.addPyFile("dbfs:/FileStore/code/conn_config.py")
                  import conn_config as C
                  

                  此语法可以将python模块导入到从Azure DataFactory运行的python脚本。

                  这篇关于将python模块导入Databricks中的python脚本的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持跟版网!

                  本站部分内容来源互联网,如果有图片或者内容侵犯了您的权益,请联系我们,我们会在确认后第一时间进行删除!

                  相关文档推荐

                  groupby multiple coords along a single dimension in xarray(在xarray中按单个维度的多个坐标分组)
                  Group by and Sum in Pandas without losing columns(Pandas中的GROUP BY AND SUM不丢失列)
                  Group by + New Column + Grab value former row based on conditionals(GROUP BY+新列+基于条件的前一行抓取值)
                  Groupby and interpolate in Pandas(PANDA中的Groupby算法和插值算法)
                  Pandas - Group Rows based on a column and replace NaN with non-null values(PANAS-基于列对行进行分组,并将NaN替换为非空值)
                  Grouping pandas DataFrame by 10 minute intervals(按10分钟间隔对 pandas 数据帧进行分组)

                      <tbody id='6nEBJ'></tbody>

                          <tfoot id='6nEBJ'></tfoot>

                            <bdo id='6nEBJ'></bdo><ul id='6nEBJ'></ul>
                          • <legend id='6nEBJ'><style id='6nEBJ'><dir id='6nEBJ'><q id='6nEBJ'></q></dir></style></legend>
                            <i id='6nEBJ'><tr id='6nEBJ'><dt id='6nEBJ'><q id='6nEBJ'><span id='6nEBJ'><b id='6nEBJ'><form id='6nEBJ'><ins id='6nEBJ'></ins><ul id='6nEBJ'></ul><sub id='6nEBJ'></sub></form><legend id='6nEBJ'></legend><bdo id='6nEBJ'><pre id='6nEBJ'><center id='6nEBJ'></center></pre></bdo></b><th id='6nEBJ'></th></span></q></dt></tr></i><div id='6nEBJ'><tfoot id='6nEBJ'></tfoot><dl id='6nEBJ'><fieldset id='6nEBJ'></fieldset></dl></div>

                          • <small id='6nEBJ'></small><noframes id='6nEBJ'>