AI Red Teaming 전문가 교육은?
ChatGPT, Google Gemini, DeepSeek 등 AI 기술은 빠르게 발전하고 있습니다. 하지만 AI 기술이 발전하는 속도에 비해 AI 보안에 대한 대응은 현저히 느릴 뿐만 아니라 아직까지도 많은 이들의 관심을 받지 못하고 있습니다. NSHC에서는 2020년 AI 보안 연구소를 설립, 지금까지 이를 연구해오며 AI 보안에 대한 기초부터 심화까지 커리큘럼을 설계하였습니다. AI 가 그 어느 때보다 보편화 된 지금, 바로 AI Red Teaming 전문가 교육을 통해 기관 내 소중한 자산을 지켜보세요!
누가 교육을 받아야 할까요?
-
보안 담당자
-
AI 서비스 이용자
AI 보안 교육이 필요한 이유는 무엇일까요?
-
AI 를 활용한 범죄 증가
-
AI의 보안에 대한 과도한 신뢰
커리큘럼
- STEP 1 [AI Red Teaming 및 LLM 개요]
-
- White / Black box Red Teaming against AI
- STEP 2 [AI Red Teaming 및 LLM 개요]
-
- Emerging Threats in Agentic AI
- 실습 [LLM 위협 모델링]
-
- OWASP Top 10 for LLM 2025 위협별 개념 설명 및 예제 실습
예시
- Direct/Indirect Prompt Injection 실습 예제
- RAG 아키텍처에서의 개인정보 노출 실습 예제
- LLM SSRF 혹은 SQLi 실습 예제
- STEP 1 [LLM 탈옥(Jailbreak) 자동화 에이전트 제작]
-
- LLM 탈옥 개념, 전략 설명 및 실습
- LLM 탈옥 자동화 에이전트 제작 실습
- 교육 참가자의 LLM 탈옥 자동화 에이전트 커스터마이징 및 테스트
- STEP 2 [Google Dorking 자동화 에이전트 제작]
-
- Google Dorking 개념 설명 및 예제 실습
- AI 에이전트 및 멀티 에이전트
-Google Dorking 자동화 에이전트 제작 실습
- STEP 3 [정찰 자동화 에이전트 제작]
-
- 다양한 정찰 기법(URL 아카이브 분석, Dorking, 기술 스택 핑거프린팅, Javascript 분석) 실습
- 정찰 자동화 에이전트 제작 실습
- STEP 1 [Red Teaming SOTA Models with Blackbox Approach]
-
- GPT 5에서 Claude 4.5까지 가장 안전한 모델에 대한 Red Teaming 전략
- STEP 2 [Red Teaming ML~AI Models with Whitebox Approach]
-
- White box 방법론을 통해 다양한 모달리티의 ML Model에 대한 적대적 공격부터 모델 추출 공격까지
- STEP 3 [Red Teaming AI Agents & Wrap-Up]
-
- Agentic AI 시스템에 대해서 zero-day 들과 이를 악용하는 공격 전략
실습도구
교육을 듣기 전 필요한 지식은?
-
검퓨터 기초
교육 후기
사전안내
1) 노트북 대여
- 저희 교육의 대부분은 실습교육으로 이루어져 있으므로 필요한 소프트웨어를 노트북에 모두 설치하여 제공합니다.
2) 교육자료
- 교육자료는 교재(인쇄물)의 형태로 제공합니다.
수강 신청 및 결제방식
계좌이체 선택 시
- NSHC 보안교육팀 이메일 (training@nshc.net) 로 [사업자 등록증 사본] 및 [세금계산서 담당자 성명/이메일/전화번호]를 보내주세요.
- 수신이 확인되면 고객 측에 청구를 위한 세금계산서를 발행한 후, [NSHC 사업자등록증] 및 [NSHC 통장사본]을 송부해 드립니다.
환불안내
계좌이체 선택 시
- 교육행사 시작 [7일 전]까지 취소한 경우 : 교육비 전액 환불 가능
- 교육행사 시작 [7일 전 ~ 당일]에 취소한 경우 : 취소 수수료 10% 부과



