Patrick's 데이터 세상

Spark Standalone 실행 본문

Data Analysis/Spark

Spark Standalone 실행

patrick610 2020. 11. 4. 23:07
반응형
SMALL

 

 

 

1. Spark 디렉토리 안 sbin으로 이동

 

 

 

2. 마스터 실행

sh start-master.sh

 

   2-1. localhost:8080에서 마스터 실행 여부와 url 확인

 

 

3. 슬레이브 노드 실행

실행한 마스터에 워커를 등록한다.

 

# sh로 실행이 안되어 bash로 실행
# -m는 메모리 지정, -c는 코어 지정
bash start-slave.sh spark://park-VirtualBox:7077 -m 1024M -c 1

워커가 1개 달려있는 것을 확인할 수 있다.

하나의 vm에서 하나의 쓰레드가 생긴 것이고 Spark 어플리케이션 실행 시 병렬 처리된다.

 

 

 

 

반응형
LIST

'Data Analysis > Spark' 카테고리의 다른 글

Spark RDD 실습  (0) 2020.11.05
Spark RDD  (0) 2020.11.04
Apache Spark 기본 이론  (0) 2020.10.26
Comments