前提・実現したいこと
・ローカル環境にapach sparkをインストールして利用したい。
発生している問題・エラーメッセージ
・各サイトを確認の上、適切にインストールしていると考えているが
cmdで「spark-shell」「pyspark」と入力しても
以下のエラーメッセージが表示され反応しない。
指定されたパスが見つかりません
試したこと
・環境設定について、空白や入力ミスが無いか、の確認
・「PATH」とコマンドプロンプトで入力すると
「C:\spark\bin;」が出力される。
・「dir C:\spark\bin\pyspark」とコマンドプロンプトで入力すると
該当のファイルが表示されるが、
「C:\spark\bin\pyspark」では何も表示されない
補足情報(FW/ツールのバージョンなど)
OS:
・Windows10 64bit
インストールしたもの:
・spark-2.3.1-bin-hadoop2.7.tgz
・winutils.exe
・jdk-8u172-windows-x64.exe
資産配置:
・Cドライブ直下に以下の通り設置
+ C---spark---bin----spark-shel
+ ┗-pyspark
+ ┗-winutils.exe
+ ┗-・・・
+ ┗-conf
+ ┗-data
+ ┗-・・・
環境設定:
・PATH: C:\spark\bin
HADOOP_HOME: C:\spark
あなたの回答
tips
プレビュー