Saya sedang bekerja menyiapkan seperangkat VM untuk bereksperimen dengan Spark sebelum saya menghabiskan keluar dan menghabiskan uang untuk membangun sebuah cluster dengan beberapa perangkat keras. Catatan singkat: Saya adalah seorang akademisi dengan latar belakang dalam pembelajaran mesin yang diterapkan dan pekerjaan berhenti sedikit dalam ilmu data. Saya menggunakan alat untuk komputasi, jarang saya perlu mengaturnya.
Saya telah membuat 3 VM (1 master, 2 budak) dan berhasil menginstal Spark. Semuanya tampak berfungsi sebagaimana mestinya. Masalah saya terletak pada pembuatan server Jupyter yang dapat dihubungkan dari browser yang tidak berjalan pada mesin di cluster.
Saya telah menginstal notebook Jupyter dengan sukses ... dan itu berjalan. Saya telah menambahkan profil IPython baru yang menghubungkan ke server jauh dengan Spark.
sekarang masalahnya
Perintah
$ ipython --profile=pyspark
berjalan dengan baik dan terhubung ke cluster percikan. Namun,
$ ipython notebook --profile=pyspark
[<stuff is here>] Unrecognized alias: "profile=pyspark", it will probably have no effect.
default ke default
profil bukan pyspark
profil.
Konfigurasi notebook saya pyspark
memiliki:
c = get_config()
c.NotebookApp.ip = '*'
c.NotebookApp.open_browser = False
c.NotebookApp.port = 8880
c.NotebookApp.server_extensions.append('ipyparallel.nbextension')
c.NotebookApp.password = u'some password is here'
$ ipython --profile=pyspark notebook
? Mungkin masalahnya hanya pada urutan argumen.