정보보안기사 13회 실기 후기

이번년도 목표 1순위로 KISA에서 주관하는 정보보안기사 취득을 목표로 잡았다.

난이도가 어렵다고 소문이 나있는 자격증시험이였는데...
단답형에서 조지긴 했지만 생각보다는 잘봤다고 생각이 드네... 근자감..

가 채점을 하면 간당간당하게 합격한거 같지만, 아에 탈락도 아니고 100% 붙었다할 상황도 아니여서 합격발표날 까지 신경쓰일거 같다 ㅠ



기억을 더듬어서 문제와 답안 작성내용을 복원


1. MAC주소를 변경해서 중간자 공격하는 공격의 이름은?
 내가 쓴 답 : APR Spoofing

2. 침해사고 발생시 ~~구 하는 조직을 ( ) 라고 함
 내가 쓴 답 : 침해사고대응팀 CERT (100% 틀림)

3. 침입탐지방법 중 취약점 패턴에 정의된거 잡는 ( ) 와 정상적인 패턴에 벋어나는 걸  잡는( ) 가 있고~~ 정상적인데 비정상이라고 판별하는걸 ( ) 라고한다.
 내가 쓴 답 : 오용탐지, 비정상탐지 , Flase Positive

4. Git hub를 대상으로 DDOS공격한 ~~~ DNS ~~~~~
 내가 쓴 답 : DNS캐시 (100% 틀림)

5. /etc/ 내 존재하는 파일로 패스워드 정책을 변경하는 파일?
 내가 쓴 답 : shadow (틀린 듯)

6. 위험대응을 위해 보험가입을 하는건 어떤 방식의 위험대응인가?
 내가 쓴 답 : 위험전가

7. 웹 취약점을 점검할 때 입력필드에 직접 입력하여 점검 하는것을 ( ) 점검, 소스코드를 보며 취약점을 점검하는 것을 ( ) 점검 이라고 한다.
 내가 쓴 답 : 동적, 정적

8. (ㄱ) 위험분석방법 , (ㄴ)위험분석
 내가 쓴 답 : 정량법, 델파이법 (100% 틀림)

9. 체크리스트 방식(정확히는 이말은 없었지만 비슷하게 씀)은 무슨 분석 방법?
 내가 쓴 답 : 기준선 접근법

10. ( ) 는 조직의 정보보안 ~~~ 재해복구, 업무연속성 ~~~ 이다.
 내가 쓴 답 : 정보보호관리체계 ( 틀린 듯)


11. .htaccess 파일 문제
 (1) <filesmath /.ph| inc |.lib> deny from all 뭐게?
    내가 쓴 답 : 해당 파일확장자가 client에서 실행 않도록 함
 (2) 이런 설정을 한 이유는 ?
    내가 쓴 답 : 파일업로드 공격을 통해 업로드한 악성파일을 참조하여 공격되는것을 방지하기 위함.
 (3) addtype text/html php ~~~ 뭐게?
     내가 쓴 답 : 해당 파일을 요청하였을때 text파일로 출력하도록 변환 함
 (4)이런 설정을 한 이유는?
     내가 쓴 답 : 악의적인 파일업로드 공격을 통해 웹셀등이 업로드되었을 때 공격을 방지하기 위함

12. IDS는 포트미러링, IPS는 인라인 방식 하는데 이유는?
  내가 쓴 답 : IDS의 주기능은 침입탐지로 네트워크 구간의 모든패킷을 탐지해야되는데 장비 부하등의 이유로 정상 패킷의 전달 지연등의 문제가 발생할 수 있으므로 포트미러링 하고 IPS의 주기능은 침입차단으로 탐지에 의해 1차적으로 필터링된 패킷을 처리하므로 장비부하등의 문제에서 좀더 자유로우며, 비정상패킷이 목적지에 도착하기 전에 차단해야하므로 인라인 방식을 함

13. IPSec 전송모드,터널모드, AH, ESP 에서 인증과 암호화에 대해 서술해라.
 (1) AH전송
    내가 쓴 답 : IP헤더를 제외한 데이터부분을 해시 함수를 적용, end to end 전송으로 목적지에서 인증 수행
 (2) AH 터널
    내가 쓴 답 : IP헤더를 포함하여 해시 함수를 적용하고 새로운 IP 헤더 붙임, 별도의 IPSEC처리 장비간 인증 수행
 (3) ESP 전송
     내가 쓴 답 : IP헤더를 제외한 데이터부분을 암호화하여 기밀성 제공 End to end 전송으로 목적지에서 복호화 수행
 (4) ESP 터널
     내가 쓴 답 : IP헤더를 포함하여 암호화하여 기밀성 제공, 새로운 IP 헤더를 붙임, 별도의 IPSEC처리 장비간 암복호화 수행
 (5) 키관리 프로토콜은?
     내가 쓴 답 : IKE

14. snort 하트블리브 탐지 룰 문제였는데 within 뜻을 몰라서 선택안함

15. 어떤 취약점 이게? 그렇게 생각한 이유는? apache2.conf에서 해결방안은?
  burp suite 요청 응답 패킷 사진 첨부되고
 <요청>
  GET ~/CGI/
 <응답>
 200 ok ~ index of ~
 내가 쓴 답 : 디렉토리 인덱싱, 응답패킷 내 디렉토리 인덱스 정보, 설정파일 내 Indexes문자열 삭제

16. Robots.txt 파일 이 뭐게? 그리고 이 설정 뭔지 서술하시오.
 user-agent : googlebot
 allow /
 user-agent : googlebot-image
 disallow /admin/
 disallow /*.pdf$
 내가 쓴 답 :
  (1) 웹 사이트에서 검색엔진에 의해 자동으로 수집되는 정보에 대해 제공하는 범위를 정의한 파일
  (2) user-agent가 googlebot 이라면 싸이트 정보 수집을 허용한다.
      user -agent가 googlebot-image 이라면 /admin/디렉토리 하위에 존재하는 경로에 대해 정보수집을 제한한다.
      user-agnet가 googebot-image 이라면 웹 사이트 내 pdf파일 경로에 대해 정보수집을 제한한다.





댓글

이 블로그의 인기 게시물

파이썬 코드 윈도우 WPF(C#) UI로 배포(exe파일)

[WPF] 텍스트 에디터 - AvalonEdit 사용/제어

(아이온 매크로)아이온 일반 키보드로 H/W스왑 매크로