03_and_04_hdfs사용법
layout: post title: “03_and_04_HDFS사용법” date: 2020-08-04 19:20:23 +0900 category: 빅데이터_컴퓨팅_강의 —bigdata_computing
HDFS 사용법
가상환경 설치
강의에서는 VirtualBox를 사용하나 펴난 사용을 위해 도커를 사용
os : Ubuntu 18.04.3 LTS
cloudera
Haddop을 distribution을 위한 프로그램
설치 필요
설치방법 따로 찾음
- Hadoop 을 바로 설치하자 ! (검색해봤더니 복잡해서)
https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html
- java 설치 (따로 안적음 /skku/big_data/ 에 이미 정리함
export JAVA_HOME=/usr/java/latest
- sshd를 설치
apt install -y openssh-server
apt install -y pdsh
- 하둡 다운로드
https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz
- 다운 받은후 /usr/local/hadoop 으로 이동
- /etc/profile 에 환경 변수를 설정
export HADOOP_HOME=/usr/local/hadoop
export JAVA_HOME=/usr/local/java
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export CLASSPATH=$JAVA_HOME/lib:$CLASSPATH
- 다운받은 hadoop/etc/hadoop 디렉토리로 이동
</img>
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
- 하둡 환경설정
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
hdfs 사용하기
HDFS ~~ -> 하둡 파일시스템을 사용
- 디렉토리 보기
hadoop fs -ls / -> HDFS안에 root디렉토리의 내용을 볼 수 있다.
- 파일 HDFS로 주고받기
put, get 명령어를 사용
ex)
hadoop fs -put abc /usr/trainig/abc
설정 참조
https://m.blog.naver.com/PostView.nhn?blogId=twilight_teatime&logNo=221204194684&proxyReferer=https%3A%2F%2Fwww.google.com%2F