SPARK 클러스터 환경설정
Prerequisits
:
- Linux (Ubuntu, Centos)
- JAVA 설치된 상태
- SSH 설치
- SPARK 다운로드
- Master PC, Slave PC
설정
/usr/local
에 다운받은 SPARK를 압축해제 시킨다. (Slave 도)1
$ tar xvf spark-*
폴더명을 spark 로 바꾼다. 일반 유저에게 권한을 부여한다.(전체 노드에 설정)
1
$ mv SPARK-* spark
1
$ chown -R (유저명):(그룹명) spark
환경변수에 자바와,스파크 디렉토리를 등록한다. (전체 노드에 설정)
1
2
3
4
5
6$ vi .bashrc
export $JAVA_HOME=/usr/loca/java (알아서 찾길)
export $SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin
$ source .bashrc
/etc/hosts
에 마스터 ip 와 슬레이브 ip 를 입력한다.1
2
3$ vi /etc/hosts
192.xxx.xxx.xx master
192.xxx.xxx.xx slave01
서로간에 ssh 가 통하는지 확인한다. 안돼면 포트 문제거나 설치가 안된거
1
2$ ssh slave01
$ ssh slave02
마스터 PC의 SPARK 디렉토리의
conf/slaves.template
수정, 슬레이브 호스트명 입력1
2
3
4$ vi slave.template
slave01
slave02
마스터 PC의 SPARK 디렉토리에
sbin/start-all.sh
실행.
브라우저
localhost:8080
로 들어가서 연결확인*