본문 바로가기

전체 글25

auto deploy) 자동배포 프로그램 만들기 (deploy.sh) 배포는 백업하고 옮기고 저장하고 등 단순 명령어들의 나열과 단순반복이지만 실수하면 안되기 때문에 여간 신경이 쓰이지 않을 수가 없다 때문에 자동배포 프로그램을 만들었다 #사실 단순반복이 정말정말 귀찮다 #!/bin/bash 2 3 TODAY=`date '+%Y%m%d'` 4 5 6 TARGET_WAR_NAME="test.war" 7 BACKUP_WAR_NAME="${TARGET_WAR_NAME}_${TODAY}" 8 9 DEPLOY_PATH_DEV="/home/user/work" 10 DEPLOY_PATH_PRD="/home/testjs/work" 11 12 WEBAPPS_PATH_DEV="/opt/tomcat/apache-tomcat-9.0.54/webapps" 13 WEBAPPS_PATH_PRD="/.. 2022. 6. 11.
shell script 기초) 별찍기 문법 정리 # : 주석 echo -n : 문자열 연결 1 star="★" 2 #echo "$star" 3 4 for((i=0; i 2022. 6. 11.
shell script 기초) 구구단 2단 출력 (for) gugudan 폴더를 원하는 경로에 만들어 준다 mkdir gugudan gugudan 경로에 들어가서 gugudan.sh 파일을 만들어 준다 cat > gugudan.sh vi editor로 gugudan.sh 파일을 열면 vi gugudan.sh 아무 소스도 없는 빈 파일이 나온다 여기서 a를 눌러 insert 모드에 진입 후 코드를 작성하면 된다 문법 정리 변수 선언 시 = 앞뒤로는 공백이 있으면 인식하지 못한다 expr 명령어 expr로 산술, 논리, 관계, 문자열을 연산할 수 있다 연산자와 피연산자는 스페이스 공백으로 구분돼야 한다 ex)$ expr 1 + 1 *(곱하기)의 경우는 특수문자로 분류되기 대문에 '', "", \*로 구분해 줘야 한다 ex) $ expr 1 '*' 1 / $ expr.. 2022. 6. 9.
Web) robots.txt 적용해서 모든 콘텐츠를 크롤러로부터 차단하기 robots.txt 란? 검색 엔진 로봇에게 웹사이트를 어떻게 크롤링해야 하는지 가이드를 해주는 역할이다 root directory에 존재해야 하며 txt 파일로 설정되어 있어야 한다 robots.txt 구성 user-agent 규칙이 적용되는 크롤러의 이름 disallow 유저 에이전트의 디렉토리 또는 페이지 크롤링을 차단 allow 유저 에이전트의 디렉토리 또는 페이지 크롤링을 허용 (구글 봇에서만 적용 가능) sitemap 웹 사이트의 모든 리소스를 나열한 목록 파일 현재 프로젝트에는 사이트의 모든 콘텐츠를 크롤러로부터 차단해야 해서 아래 소스를 적용했다 User-agent: * Disallow: / 2022. 6. 7.
Tomcat) 특정 IP 접근 제한하기 admin potal의 경우 특정 IP에서만 접속 가능하게 기능을 제공해야 했다 Tomcat에서는 특정 IP의 접근제한하여 IP별로 접근을 통제할 수 있다 server.xml 설정 접근 허용 IP 설정 접근 제한 IP 설정 2022. 6. 7.
0602 - 0603 제주 출장 [한국해양과학기술협의회 공동학술대회] 정신없는 감리기간 중 잡힌 제주도 출장 후발대로 출발 : - ) 제주국제컨벤션센터 학회 첫째 날 부스 운영을 마친 팀원들과 만나 흑돼지에 한라산 호텔 루프탑에서 갸루피스 말고 스파이더맨 브이 둘째 날 부스 운영 교대 후 올레길 산책 비행기 타기 전 미친 뷰의 카페 1박2일 순삭한 출장 끝 2022. 6. 7.