일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- debian
- 오류
- mount
- 윈도우볼륨축소
- 실습
- window
- 볼륨
- Linux
- 예시
- ipsec
- network
- 정보보안
- VMwares
- backtrack
- ㅂ
- TrueCrypt
- 마운트
- CentOS
- 네트워크
- defrag
- redhat
- 윈도우
- VPN
- 윈도우서버
- 제어판
- DiskQuata
- BTr3
- 프로젝트
- cybersecurity
- Today
- Total
정보 보안을 향한 항해
.Single Mode Hadoop 서버 설치 및 구성 본문
Hadoop
분산 파일시스템(HDFS: Hadoop Distributed File System)을 사용해서 데이터를 빠르게 저장하고 사용하게 해주는 시스템으로 여러 부가적인 서비스들이 있는데 이들을 묶어서 Hadoop EcoSystem이라고 부른다. 여기에는
ZooKeeper, Avro, Chukwa, Flume, Pig. Hive, Hbase, Sqoop, Impala, Woozie 등이 있다.
분산 파일 시스템이란 하나의 데이터를 일정하게 분할해서 최대 세 곳에 replicated 해서 저장해두는 시스템으로 실제 데이터를 저장하는 datanodelclient)와 이들을 통제하는 namenode(server)로 구성된다. 클라우드 시스템에서 사용되는데 실제 사용자 근처에 대이터를 배치시킴으로써 사용자가 빠르게 데이터를 사용하게 해준다. 데이터는 키와 값으로 저장되는데 map 과정에서 키를 따로 묶고, reduce 과정에서 해당 키에 따른 적절한 값으로 묶는 과정으로 처리되는데 Java 프로그래밍 기반의 map 과정이 끝나면 reduce 과정이 실행된다.
참고로 data 를 key:value (키:값) format으로 저장하는 것을 json format 이라고 한다.
ubuntu 를 사용한다 가능한한 메모리는 올리는게 좋지만 컴퓨터 사양에 따라서 2GB로 해도 괜찮다.ubuntu 가 hadoop server 이다single 로 할수도 있다.
가상화는 반드시 체크 되어있어야한다
성공하기 쉽지 않다
유저 생성 adduser hduser ; echo 'hduser:hduser' | chpasswd
유저 생성 확인
/etc/hostname 변경
reboot
hduser로 접속
새로운 환경 설정해준다
lock
sudo 사용이 안 되니 /etc/sudoers 파일에 hduser 추가한다
root passwd 존재 여부 확인 네트워크 확인
hostname 확인
hduser 로 전환이제 sudo 명령어 사용 가능하다
hduser 에서 apt-get update
자바 설치sudo apt-get -y install default-jdk
어떤 java 가 설치됐는지 확인
여기까지만 복사한다 .bashrc 사용자가 login 한 뒤 적용들어간 뒤에는 설정은 bash_profile 파일이다
맨 밑에 추가한다 source 로 먹히게 하고 echo 명령어로 경로 확인 version 과 경로 확인
필요한 service 설치sudo apt-get -y install apache2
이런식으로 뜨면 reboot 한다
reboot 해도 계속 resolve host hadoop 식으로 hostname 오류가 뜬다면 /etc/hosts 파일을 변경해야한다
# sudp apt-get -y install php5 php5-cli php5-mcrypt php5-gd php5-curl
설치완료
중간쯤의 AH00558 는 무시해도 된다
mysql-server-5.6 설치
php5-mysql 까지 설치한다
버전 확인$ php -v
버전 다 확인
서비스 재시작
열린 port 확인
방화벽 3개 연다 https 443까지
ssh 설치한다rsync 는 필요 없다
22/tcp 도 열어준다
이제 server 에서 key 생성후 client 에게 나눠준다password 가 아닌 key 로 접속 가능하다
$ ssh-keygen -t rsa -P ""
/home/hduser/.ssh 밑에 키가 생성된다-P "" 옵션은 별도의 passphrase 를 넣겠다는 뜻이다
파일 생성 확인
key 를 authorized_keys 파일을 생성하고 집어넣는다$ cat /home/hduser/.ssh/id_rsa.pub >> /home/hduser/.ssh/authorized_keys
authorized_keys 파일 생성 확인
cat 로 확인한다
ssh 로 연결한다.
2번째 연결부터는 passwd 입력도 필요없다.
맨 밑에 추가한다# HADOOP_HOMEexport HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source 명령어로 적용 후 확인
/usr/local/hadoop/hadoop-1.2.0/bin 으로 이동후./hadoop version 명령어로 버전 확인
conf 파일 설정 설정
hdfs-dite.xml 파일
conf 파일 설정끝
/etc/hosts 파일에 hadoop1 추가
여기서 기도하는 마음으로 한다
경로 바꾸어야한다경로 바꾸고 기도하는 마음으로
6개가 다 나오면 성공이다
14761 SecondaryNameNode
14934 TaskTracker
15255 NameNode
14836 JobTracker
14665 DataNode
15940 Jps
'서버 > 서버 구축 실습' 카테고리의 다른 글
Hadoop 서버 구축후 wordcount 실습 (0) | 2021.10.08 |
---|---|
ownCloud 서버 /var/www/owncloud로 여러 머신에서 데이터 공유 (0) | 2021.10.08 |
형상서버 ownCloud 구축 (0) | 2021.10.08 |
Kerberos 서버 구축 후 머신3에서 머신2로 ssh 로그인 (1) | 2021.10.07 |
Webmin 서버 구축 실습2 (0) | 2021.10.07 |