본문 바로가기

728x90

Development/Spark

(3)
[Spark] Spark 설치하기 Spark를 터미널을 사용해 설치하기 위해서는 wget을 사용해야 한다. 그리고 Http 통신을 통해서 다운받을 주소가 필요하다. 다운받을 주소는 다음의 주소로 가서 Spark를 다운로드 받을 링크를 클릭해야 얻을 수 있다. spark.apache.org/downloads.html Downloads | Apache Spark Download Apache Spark™ Choose a Spark release: Choose a package type: Download Spark: Verify this release using the and project release KEYS. Note that, Spark 2.x is pre-built with Scala 2.11 except version 2.4.2, w..
[Spark] JAVA_HOME 환경 변수 설정 JDK 설치가 끝나면 이제 JAVA_HOME 환경 변수가 open-jdk 설치 폴더를 가리키도록 영구 설정해야 한다( 여기서 영구 설정은 현재 터미널의 세션뿐만 아니라 머신을 재시작한 이후에도 환경 변수를 계속 적용하도록 설정하는 것을 의미한다 ). 설정 방법은 다음과 같다. $ echo "export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64" | sudo tee /etc/profile.d/sia.sh echo는 주어진 입력을 표준 출력에 보내는 명령이다. 표준 출력은 보통 터미널 창을 의미하지만, 여기서는 echo 명령 뒤에 파이프( pipe, | ) 명령을 사용했다. 파이프는 표준 출력을 파이프 다음에 입력한 명령( 이 경우 tee )에 일시적으로 전달한다( 파이..
[Spark] 사전 준비: JDK 설치 Ubuntu 환경에서 시작하겠습니다. 저는 현재 WSL 2에서 Ubuntu를 실행중입니다. 스파크를 설치하려는 OS에 JDK가 있는지 확인해보기 위해서는 다음 명령으로 확인해보실 수 있습니다. $ which javac 이 명령은 javac 명령을 실행했을 때 호출될 실행 파일 위치를 반환합니다( javac는 JDK가 제공하는 자바 컴파일러입니다). which 명령이 무엇인가를 돌려준다면( 예: /usr/bin/javac ) 터미널에서 echo $JAVA_HOME 명령을 실행해 JAVA_HOME 환경 변수가 올바르게 설정되어 있는지 확인해야 합니다. 아무것도 반환하지 않는다면 JDK부터 설치해야 합니다. 다음 명령어를 차례대로 입력하자. $ sudo apt update -- apt 패키지 저장소 정보를 갱..

728x90