1 回答
- 最新
- 投票最多
- 评论最多
0
【以下的回答经过翻译处理】 conda_python3和conda_tensorflow_p36是SageMaker Notebook Instance的本地内核,而Spark内核在Glue Spark环境中远程执行。
因此你看到不同的版本。Glue Spark环境附带1.4.1版的scipy。因此,当你使用PySpark (python) 或 Spark (scala)内核时,你将获得1.4.1版的scipy。
如果你使用Glue SageMaker笔记本已经配备的默认LifeCycle脚本,则应该已经建立了与Glue Dev Endpoint的连接。请注意,Glue SageMaker笔记本有一个名为“aws-glue-dev-endpoint”的标签,用于标识哪个Glue Dev Endpoint与特定的Notebook Instance通信。
Spark内核不能通过python shell复制。这些内核通过名为Sparkmagic的Jupyter模块通过Livy服务将Spark命令中继到Glue Dev端点上的Spark。
相关内容
- AWS 官方已更新 2 年前
- AWS 官方已更新 2 年前
- AWS 官方已更新 3 年前