본문 바로가기

728x90

Development

(85)
[개발일지] 2021년 1월 29일 보호되어 있는 글입니다.
[개발일지] 2021년 1월 27일 보호되어 있는 글입니다.
[Spark] Spark 설치하기 Spark를 터미널을 사용해 설치하기 위해서는 wget을 사용해야 한다. 그리고 Http 통신을 통해서 다운받을 주소가 필요하다. 다운받을 주소는 다음의 주소로 가서 Spark를 다운로드 받을 링크를 클릭해야 얻을 수 있다. spark.apache.org/downloads.html Downloads | Apache Spark Download Apache Spark™ Choose a Spark release: Choose a package type: Download Spark: Verify this release using the and project release KEYS. Note that, Spark 2.x is pre-built with Scala 2.11 except version 2.4.2, w..
[Spark] JAVA_HOME 환경 변수 설정 JDK 설치가 끝나면 이제 JAVA_HOME 환경 변수가 open-jdk 설치 폴더를 가리키도록 영구 설정해야 한다( 여기서 영구 설정은 현재 터미널의 세션뿐만 아니라 머신을 재시작한 이후에도 환경 변수를 계속 적용하도록 설정하는 것을 의미한다 ). 설정 방법은 다음과 같다. $ echo "export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64" | sudo tee /etc/profile.d/sia.sh echo는 주어진 입력을 표준 출력에 보내는 명령이다. 표준 출력은 보통 터미널 창을 의미하지만, 여기서는 echo 명령 뒤에 파이프( pipe, | ) 명령을 사용했다. 파이프는 표준 출력을 파이프 다음에 입력한 명령( 이 경우 tee )에 일시적으로 전달한다( 파이..
[Spark] 사전 준비: JDK 설치 Ubuntu 환경에서 시작하겠습니다. 저는 현재 WSL 2에서 Ubuntu를 실행중입니다. 스파크를 설치하려는 OS에 JDK가 있는지 확인해보기 위해서는 다음 명령으로 확인해보실 수 있습니다. $ which javac 이 명령은 javac 명령을 실행했을 때 호출될 실행 파일 위치를 반환합니다( javac는 JDK가 제공하는 자바 컴파일러입니다). which 명령이 무엇인가를 돌려준다면( 예: /usr/bin/javac ) 터미널에서 echo $JAVA_HOME 명령을 실행해 JAVA_HOME 환경 변수가 올바르게 설정되어 있는지 확인해야 합니다. 아무것도 반환하지 않는다면 JDK부터 설치해야 합니다. 다음 명령어를 차례대로 입력하자. $ sudo apt update -- apt 패키지 저장소 정보를 갱..
[개발일지] 2021년 1월 26일 보호되어 있는 글입니다.
[Python] class - 3) self 이해하기 먼저 다음과 같이 두 개의 메서드가 정의된 Foo 클래스를 만듭니다. 여기서 func1() 메서드의 첫번째 인자가 self가 아님에도 클래스를 정의할 때 에러가 발생하지 않습니다. class Foo: def func1(): print("function 1") def func2(self): print("function 2") 일단 클래스를 정의했으니 해당 클래스에 대한 인스턴스를 생성하겠습니다. 그리고 생성된 인스턴스를 통해 인스턴스 메서드를 호출하겠습니다. Foo 클래스의 func2 메서드는 메서드의 인자가 self 뿐이므로 실제 메서드를 호출할 때는 인자를 전달할 필요가 없습니다. >>> f = Foo() >>> f.func2() function 2 위 코드에서 메서드를 호출한 결과를 보면 화면에 정상..
[개발일지] 2021년 1월 25일 보호되어 있는 글입니다.

728x90