블로그

AI/LLM 보안 비디오 시리즈: 모든 에피소드, 매주 업데이트

섀넌 홀트
게시일 : 2025년 9월 9일
마지막 업데이트: 2026년 1월 5일

AI/LLM 보안 소개 시리즈 가이드

GitHub Copilot, Cursor 등의 AI 코딩 도구는 소프트웨어 구축 방식을 바꾸고 있지만, 안전하고 안정적인 애플리케이션을 구축하기 위해 개발자가 이해해야 하는 새로운 보안 문제도 야기하고 있습니다. 팀에서 AI를 안전하게 도입하는 데 도움을 드리고자 12주 분량의 무료 AI/LLM 보안 소개 동영상 시리즈를 YouTube에 제작했습니다.

이 게시물은 시리즈의 중심 허브 역할을 합니다. 매주 새로운 동영상과 설명으로 업데이트되며, 프롬프트 주입, 데이터 및 모델 중독, 공급망 위험, 보안 프롬프트 등과 같은 필수 개념을 다룹니다. 이 페이지를 북마크에 추가하여 매주 따라가거나 YouTube 채널을 구독하여 모든 강의가 공개되는 즉시 받아보세요.

이 입문 강의를 넘어 더 자세히 알아보고 싶다면 SCW 플랫폼에서 전체 AI/LLM 컬렉션을 살펴보거나 아직 고객이 아닌 경우 데모를 요청하세요. YouTube 채널을 구독하여 새로운 에피소드가 공개될 때마다 놓치지 마세요. 최신 콘텐츠, 업데이트 및 리소스를 계속 확인하고 싶다면 여기에서 가입하여 개발자 및 보안 리더로 구성된 커뮤니티에 참여하세요.

에피소드(매주 업데이트)

1주차 - AI 코딩의 위험성: LLM 사용의 위험성
이 동영상에서는 코드 작성 시 AI/LLM을 사용할 때의 잠재적 위험성을 살펴보고 개발자가 AI 기반 도구를 워크플로에 통합할 때 직면하는 주요 위험을 강조합니다.


2주차 - AI 코딩의 이점: 안전한 AI 지원 개발
‍AI
코딩 도구는 위험하지 않습니다 - 안전하게 사용하면 개발자가 더 빠르고 스마트하게 작업하는 데 도움이 될 수 있습니다. 이 동영상에서는 코드 작성 시 AI/LLM을 사용할 때의 이점을 살펴보고, 팀이 일반적인 보안 함정을 피하면서 책임감 있게 AI를 활용할 수 있는 방법을 강조합니다.


3주차 - 프롬프트 인젝션에 대해 설명합니다: AI 생성 코드 보호하기
‍프롬프트
인젝션은 가장 일반적인 AI/LLM 취약점 중 하나이며 모든 개발자가 예방 방법을 알고 있어야 하는 취약점입니다. 이 동영상에서는 심각한


4주차 - 민감한 정보 공개: AI 데이터 유출 방지
AI 기반 도구는 실수로 민감한 정보를 유출하여 애플리케이션과 데이터를 위험에 빠뜨릴 수 있습니다. 이 동영상에서는 민감한 정보 노출 취약성을 다루고, AI/LLM을 사용할 때 이러한 취약성이 어떻게 발생하는지 설명하며, 개발자가 노출을 줄이기 위해 취할 수 있는 실질적인 조치를 공유합니다.

5주차 - AI 공급망 위험:종속성 보안
‍AI 지원
개발은 코딩을 가속화하지만 애플리케이션의 모든 계층에 영향을 미칠 수 있는 공급망 위험도 함께 도입합니다. 이 동영상에서는 AI/LLM과 관련된 취약점을 살펴보고, 타사 모델과 API가 공격 표면을 확장하는 방법을 설명하며, 노출을 최소화하기 위한 전략을 공유합니다.


6주차 - 데이터 중독: AI 모델 및 출력 보안
‍AI
시스템은 학습 데이터만큼만 안전하며, 손상된 입력은 애플리케이션 전체에 파급되는 취약점을 만들 수 있습니다. 이 동영상에서는 데이터 및 모델 중독 공격을 소개하고, 악의적인 입력이 AI 출력을 조작하는 방법을 설명하며, 시스템을 보호할 수 있는 전략을 공유합니다.


7주차 - 부적절한 출력 처리: AI로 생성된 코드 검증하기
‍AI 기반
도구는 코드를 빠르게 생성할 수 있지만 출력을 검증하지 않으면 취약점이 눈에 띄지 않게 숨어들 수 있습니다. 이 동영상에서는 AI 지원 개발에서 부적절한 출력 처리를 살펴보고, 위험한 출력으로 인해 애플리케이션이 어떻게 손상될 수 있는지 설명하며, 생성된 코드를 안전하게 보호하는 기술을 공유합니다.


8주차 - 과도한 에이전시: AI 자율성 위험 제어하기
↪CF_200D↩AI
시스템의 자율성이 높아지면서 과도한 에이전시는 모델이 의도한 범위를 넘어 행동하는 새로운 위험을 야기합니다. 이 동영상에서는 AI 지원 개발에서 과도한 에이전시의 취약점을 살펴보고, 과도한 행동이 어떻게 발생하는지 설명하고, AI 기반 프로세스에 대한 제어를 유지하는 기술에 대해 논의합니다.


9주차 - 시스템 프롬프트 유출: 숨겨진 AI 보안 위험
↪f_200D↩시스템 프롬
프트에는 종종 AI 동작을 안내하는 숨겨진 지침이 포함되어 있지만, 이러한 지침이 노출되면 공격자가 모델을 조작하거나 민감한 정보를 추출할 수 있습니다. 이 동영상에서는 시스템 프롬프트 유출 취약점을 다루고, 취약점이 발생하는 방식을 설명하며, 개발자가 AI 기반 워크플로우를 보호하기 위해 취할 수 있는 조치에 대해 논의합니다.

10주차 - 벡터의 약점: AI 검색 워크플로우 보안
‍AI
모델은 종종 강력한 기능을 제공하기 위해 벡터 데이터베이스와 임베딩에 의존하지만, 잘못된 구성과 안전하지 않은 구현은 민감한 데이터를 노출시키고 새로운 공격 벡터를 생성할 수 있습니다. 이 동영상에서는 벡터 및 임베딩의 취약점을 자세히 살펴보고, 일반적인 보안 문제를 설명하며, AI 기반 검색 및 검색 워크플로우를 안전하게 보호하기 위한 전략을 공유합니다.

11주차 — AI 허위정보: 환각 위험 회피하기
‍AI
도구는 때로 겉보기에는 정확해 보이지만 실제로는 잘못된 결과를 생성할 수 있습니다. 이는 보안, 신뢰성, 의사 결정에 영향을 미치는 허위정보 위험을 초래합니다. 본 영상에서는 AI 지원 코딩의 허위정보 취약점을 설명하고, 잘못된 결과가 어떻게 발생하는지 탐구하며, AI 기반 콘텐츠를 검증하고 보호하기 위한 전략을 공유합니다.



12주차 무제한 자원 소모: AI 서비스 거부( DoS) 위험 방지
AI 시스템은 자원을 제한 없이 소모할 수 있어 서비스 거부(DoS), 데이터 노출, 예상치 못한 운영 장애 등의 위험을 초래합니다. 본 영상에서는 AI/LLM의 무제한 자원 소모 취약점을 다루고, 발생 원인을 설명하며, AI 자원 사용을 모니터링·관리·보호하기 위한 실용적인 전략을 공유합니다.



이 동영상들은 AI/LLM 보안의 핵심 개념을 소개하기 위해 제작되었지만, Secure Code Warrior 탐구할 내용이 훨씬 더 많습니다. 실제 AI 지원 코드 검토 및 수정 작업을 시뮬레이션하는 AI 챌린지에 도전하고, 업계 모범 사례에 부합하는 AI/LLM 가이드라인을 살펴보며, 안전한 코딩 습관을 기르는 실습 경험을 제공하는 워크스루, Missions, 퀘스트, 코스 템플릿을 활용해 보세요. 기술 역량을 한 단계 끌어올릴 준비가 된 팀을 위해, 플랫폼은 AI/LLM 중심 학습 활동 라이브러리를 지속적으로 확장 중입니다. AI 활용 코딩, AI 위험 및 보안 입문, LLM 애플리케이션을 위한 OWASP Top 10 등 130개 이상의 주제를 포함합니다. 자세한 내용은 데모를 요청하세요

리소스 보기
리소스 보기

12주간의 AI/LLM 보안 동영상 시리즈에 대한 올인원 가이드입니다. 모든 에피소드를 시청하고, 주요 AI 보안 개념을 배우고, 매주 따라하세요.

더 알고 싶으신가요?

섀넌 홀트는 애플리케이션 보안, 클라우드 보안 서비스, PCI-DSS 및 HITRUST와 같은 규정 준수 표준 분야에서 경력을 쌓은 사이버보안 제품 마케터입니다.

Secure Code Warrior 는 전체 소프트웨어 개발 수명 주기에서 코드를 보호하고 사이버 보안을 최우선으로 생각하는 문화를 조성할 수 있도록 도와드립니다. 앱 보안 관리자, 개발자, CISO 등 보안과 관련된 모든 사람이 안전하지 않은 코드와 관련된 위험을 줄일 수 있도록 도와드릴 수 있습니다.

데모 예약
공유하세요:
저자
섀넌 홀트
게시일: 2025년 9월 9일

섀넌 홀트는 애플리케이션 보안, 클라우드 보안 서비스, PCI-DSS 및 HITRUST와 같은 규정 준수 표준 분야에서 경력을 쌓은 사이버보안 제품 마케터입니다.

섀넌 홀트는 애플리케이션 보안, 클라우드 보안 서비스, 그리고 PCI-DSS 및 HITRUST와 같은 규정 준수 표준 분야에서 경력을 쌓은 사이버 보안 제품 마케터입니다. 그녀는 기술 팀이 보안 개발 및 규정 준수를 더욱 실용적이고 쉽게 접할 수 있도록 하는 데 열정을 쏟고 있으며, 보안에 대한 기대와 현대 소프트웨어 개발의 현실 사이의 간극을 메우는 데 힘쓰고 있습니다.

공유하세요:

AI/LLM 보안 소개 시리즈 가이드

GitHub Copilot, Cursor 등의 AI 코딩 도구는 소프트웨어 구축 방식을 바꾸고 있지만, 안전하고 안정적인 애플리케이션을 구축하기 위해 개발자가 이해해야 하는 새로운 보안 문제도 야기하고 있습니다. 팀에서 AI를 안전하게 도입하는 데 도움을 드리고자 12주 분량의 무료 AI/LLM 보안 소개 동영상 시리즈를 YouTube에 제작했습니다.

이 게시물은 시리즈의 중심 허브 역할을 합니다. 매주 새로운 동영상과 설명으로 업데이트되며, 프롬프트 주입, 데이터 및 모델 중독, 공급망 위험, 보안 프롬프트 등과 같은 필수 개념을 다룹니다. 이 페이지를 북마크에 추가하여 매주 따라가거나 YouTube 채널을 구독하여 모든 강의가 공개되는 즉시 받아보세요.

이 입문 강의를 넘어 더 자세히 알아보고 싶다면 SCW 플랫폼에서 전체 AI/LLM 컬렉션을 살펴보거나 아직 고객이 아닌 경우 데모를 요청하세요. YouTube 채널을 구독하여 새로운 에피소드가 공개될 때마다 놓치지 마세요. 최신 콘텐츠, 업데이트 및 리소스를 계속 확인하고 싶다면 여기에서 가입하여 개발자 및 보안 리더로 구성된 커뮤니티에 참여하세요.

에피소드(매주 업데이트)

1주차 - AI 코딩의 위험성: LLM 사용의 위험성
이 동영상에서는 코드 작성 시 AI/LLM을 사용할 때의 잠재적 위험성을 살펴보고 개발자가 AI 기반 도구를 워크플로에 통합할 때 직면하는 주요 위험을 강조합니다.


2주차 - AI 코딩의 이점: 안전한 AI 지원 개발
‍AI
코딩 도구는 위험하지 않습니다 - 안전하게 사용하면 개발자가 더 빠르고 스마트하게 작업하는 데 도움이 될 수 있습니다. 이 동영상에서는 코드 작성 시 AI/LLM을 사용할 때의 이점을 살펴보고, 팀이 일반적인 보안 함정을 피하면서 책임감 있게 AI를 활용할 수 있는 방법을 강조합니다.


3주차 - 프롬프트 인젝션에 대해 설명합니다: AI 생성 코드 보호하기
‍프롬프트
인젝션은 가장 일반적인 AI/LLM 취약점 중 하나이며 모든 개발자가 예방 방법을 알고 있어야 하는 취약점입니다. 이 동영상에서는 심각한


4주차 - 민감한 정보 공개: AI 데이터 유출 방지
AI 기반 도구는 실수로 민감한 정보를 유출하여 애플리케이션과 데이터를 위험에 빠뜨릴 수 있습니다. 이 동영상에서는 민감한 정보 노출 취약성을 다루고, AI/LLM을 사용할 때 이러한 취약성이 어떻게 발생하는지 설명하며, 개발자가 노출을 줄이기 위해 취할 수 있는 실질적인 조치를 공유합니다.

5주차 - AI 공급망 위험:종속성 보안
‍AI 지원
개발은 코딩을 가속화하지만 애플리케이션의 모든 계층에 영향을 미칠 수 있는 공급망 위험도 함께 도입합니다. 이 동영상에서는 AI/LLM과 관련된 취약점을 살펴보고, 타사 모델과 API가 공격 표면을 확장하는 방법을 설명하며, 노출을 최소화하기 위한 전략을 공유합니다.


6주차 - 데이터 중독: AI 모델 및 출력 보안
‍AI
시스템은 학습 데이터만큼만 안전하며, 손상된 입력은 애플리케이션 전체에 파급되는 취약점을 만들 수 있습니다. 이 동영상에서는 데이터 및 모델 중독 공격을 소개하고, 악의적인 입력이 AI 출력을 조작하는 방법을 설명하며, 시스템을 보호할 수 있는 전략을 공유합니다.


7주차 - 부적절한 출력 처리: AI로 생성된 코드 검증하기
‍AI 기반
도구는 코드를 빠르게 생성할 수 있지만 출력을 검증하지 않으면 취약점이 눈에 띄지 않게 숨어들 수 있습니다. 이 동영상에서는 AI 지원 개발에서 부적절한 출력 처리를 살펴보고, 위험한 출력으로 인해 애플리케이션이 어떻게 손상될 수 있는지 설명하며, 생성된 코드를 안전하게 보호하는 기술을 공유합니다.


8주차 - 과도한 에이전시: AI 자율성 위험 제어하기
↪CF_200D↩AI
시스템의 자율성이 높아지면서 과도한 에이전시는 모델이 의도한 범위를 넘어 행동하는 새로운 위험을 야기합니다. 이 동영상에서는 AI 지원 개발에서 과도한 에이전시의 취약점을 살펴보고, 과도한 행동이 어떻게 발생하는지 설명하고, AI 기반 프로세스에 대한 제어를 유지하는 기술에 대해 논의합니다.


9주차 - 시스템 프롬프트 유출: 숨겨진 AI 보안 위험
↪f_200D↩시스템 프롬
프트에는 종종 AI 동작을 안내하는 숨겨진 지침이 포함되어 있지만, 이러한 지침이 노출되면 공격자가 모델을 조작하거나 민감한 정보를 추출할 수 있습니다. 이 동영상에서는 시스템 프롬프트 유출 취약점을 다루고, 취약점이 발생하는 방식을 설명하며, 개발자가 AI 기반 워크플로우를 보호하기 위해 취할 수 있는 조치에 대해 논의합니다.

10주차 - 벡터의 약점: AI 검색 워크플로우 보안
‍AI
모델은 종종 강력한 기능을 제공하기 위해 벡터 데이터베이스와 임베딩에 의존하지만, 잘못된 구성과 안전하지 않은 구현은 민감한 데이터를 노출시키고 새로운 공격 벡터를 생성할 수 있습니다. 이 동영상에서는 벡터 및 임베딩의 취약점을 자세히 살펴보고, 일반적인 보안 문제를 설명하며, AI 기반 검색 및 검색 워크플로우를 안전하게 보호하기 위한 전략을 공유합니다.

11주차 — AI 허위정보: 환각 위험 회피하기
‍AI
도구는 때로 겉보기에는 정확해 보이지만 실제로는 잘못된 결과를 생성할 수 있습니다. 이는 보안, 신뢰성, 의사 결정에 영향을 미치는 허위정보 위험을 초래합니다. 본 영상에서는 AI 지원 코딩의 허위정보 취약점을 설명하고, 잘못된 결과가 어떻게 발생하는지 탐구하며, AI 기반 콘텐츠를 검증하고 보호하기 위한 전략을 공유합니다.



12주차 무제한 자원 소모: AI 서비스 거부( DoS) 위험 방지
AI 시스템은 자원을 제한 없이 소모할 수 있어 서비스 거부(DoS), 데이터 노출, 예상치 못한 운영 장애 등의 위험을 초래합니다. 본 영상에서는 AI/LLM의 무제한 자원 소모 취약점을 다루고, 발생 원인을 설명하며, AI 자원 사용을 모니터링·관리·보호하기 위한 실용적인 전략을 공유합니다.



이 동영상들은 AI/LLM 보안의 핵심 개념을 소개하기 위해 제작되었지만, Secure Code Warrior 탐구할 내용이 훨씬 더 많습니다. 실제 AI 지원 코드 검토 및 수정 작업을 시뮬레이션하는 AI 챌린지에 도전하고, 업계 모범 사례에 부합하는 AI/LLM 가이드라인을 살펴보며, 안전한 코딩 습관을 기르는 실습 경험을 제공하는 워크스루, Missions, 퀘스트, 코스 템플릿을 활용해 보세요. 기술 역량을 한 단계 끌어올릴 준비가 된 팀을 위해, 플랫폼은 AI/LLM 중심 학습 활동 라이브러리를 지속적으로 확장 중입니다. AI 활용 코딩, AI 위험 및 보안 입문, LLM 애플리케이션을 위한 OWASP Top 10 등 130개 이상의 주제를 포함합니다. 자세한 내용은 데모를 요청하세요

리소스 보기
리소스 보기

아래 양식을 작성하여 보고서를 다운로드하세요.

우리는 당신에게 우리의 제품 및 / 또는 관련 보안 코딩 주제에 대한 정보를 보낼 수있는 귀하의 허가를 바랍니다. 우리는 항상 최대한의주의를 기울여 귀하의 개인 정보를 취급 할 것이며 마케팅 목적으로 다른 회사에 판매하지 않을 것입니다.

전송
양식을 제출하려면 '분석' 쿠키를 활성화하세요. 완료되면 언제든지 다시 비활성화할 수 있습니다.

AI/LLM 보안 소개 시리즈 가이드

GitHub Copilot, Cursor 등의 AI 코딩 도구는 소프트웨어 구축 방식을 바꾸고 있지만, 안전하고 안정적인 애플리케이션을 구축하기 위해 개발자가 이해해야 하는 새로운 보안 문제도 야기하고 있습니다. 팀에서 AI를 안전하게 도입하는 데 도움을 드리고자 12주 분량의 무료 AI/LLM 보안 소개 동영상 시리즈를 YouTube에 제작했습니다.

이 게시물은 시리즈의 중심 허브 역할을 합니다. 매주 새로운 동영상과 설명으로 업데이트되며, 프롬프트 주입, 데이터 및 모델 중독, 공급망 위험, 보안 프롬프트 등과 같은 필수 개념을 다룹니다. 이 페이지를 북마크에 추가하여 매주 따라가거나 YouTube 채널을 구독하여 모든 강의가 공개되는 즉시 받아보세요.

이 입문 강의를 넘어 더 자세히 알아보고 싶다면 SCW 플랫폼에서 전체 AI/LLM 컬렉션을 살펴보거나 아직 고객이 아닌 경우 데모를 요청하세요. YouTube 채널을 구독하여 새로운 에피소드가 공개될 때마다 놓치지 마세요. 최신 콘텐츠, 업데이트 및 리소스를 계속 확인하고 싶다면 여기에서 가입하여 개발자 및 보안 리더로 구성된 커뮤니티에 참여하세요.

에피소드(매주 업데이트)

1주차 - AI 코딩의 위험성: LLM 사용의 위험성
이 동영상에서는 코드 작성 시 AI/LLM을 사용할 때의 잠재적 위험성을 살펴보고 개발자가 AI 기반 도구를 워크플로에 통합할 때 직면하는 주요 위험을 강조합니다.


2주차 - AI 코딩의 이점: 안전한 AI 지원 개발
‍AI
코딩 도구는 위험하지 않습니다 - 안전하게 사용하면 개발자가 더 빠르고 스마트하게 작업하는 데 도움이 될 수 있습니다. 이 동영상에서는 코드 작성 시 AI/LLM을 사용할 때의 이점을 살펴보고, 팀이 일반적인 보안 함정을 피하면서 책임감 있게 AI를 활용할 수 있는 방법을 강조합니다.


3주차 - 프롬프트 인젝션에 대해 설명합니다: AI 생성 코드 보호하기
‍프롬프트
인젝션은 가장 일반적인 AI/LLM 취약점 중 하나이며 모든 개발자가 예방 방법을 알고 있어야 하는 취약점입니다. 이 동영상에서는 심각한


4주차 - 민감한 정보 공개: AI 데이터 유출 방지
AI 기반 도구는 실수로 민감한 정보를 유출하여 애플리케이션과 데이터를 위험에 빠뜨릴 수 있습니다. 이 동영상에서는 민감한 정보 노출 취약성을 다루고, AI/LLM을 사용할 때 이러한 취약성이 어떻게 발생하는지 설명하며, 개발자가 노출을 줄이기 위해 취할 수 있는 실질적인 조치를 공유합니다.

5주차 - AI 공급망 위험:종속성 보안
‍AI 지원
개발은 코딩을 가속화하지만 애플리케이션의 모든 계층에 영향을 미칠 수 있는 공급망 위험도 함께 도입합니다. 이 동영상에서는 AI/LLM과 관련된 취약점을 살펴보고, 타사 모델과 API가 공격 표면을 확장하는 방법을 설명하며, 노출을 최소화하기 위한 전략을 공유합니다.


6주차 - 데이터 중독: AI 모델 및 출력 보안
‍AI
시스템은 학습 데이터만큼만 안전하며, 손상된 입력은 애플리케이션 전체에 파급되는 취약점을 만들 수 있습니다. 이 동영상에서는 데이터 및 모델 중독 공격을 소개하고, 악의적인 입력이 AI 출력을 조작하는 방법을 설명하며, 시스템을 보호할 수 있는 전략을 공유합니다.


7주차 - 부적절한 출력 처리: AI로 생성된 코드 검증하기
‍AI 기반
도구는 코드를 빠르게 생성할 수 있지만 출력을 검증하지 않으면 취약점이 눈에 띄지 않게 숨어들 수 있습니다. 이 동영상에서는 AI 지원 개발에서 부적절한 출력 처리를 살펴보고, 위험한 출력으로 인해 애플리케이션이 어떻게 손상될 수 있는지 설명하며, 생성된 코드를 안전하게 보호하는 기술을 공유합니다.


8주차 - 과도한 에이전시: AI 자율성 위험 제어하기
↪CF_200D↩AI
시스템의 자율성이 높아지면서 과도한 에이전시는 모델이 의도한 범위를 넘어 행동하는 새로운 위험을 야기합니다. 이 동영상에서는 AI 지원 개발에서 과도한 에이전시의 취약점을 살펴보고, 과도한 행동이 어떻게 발생하는지 설명하고, AI 기반 프로세스에 대한 제어를 유지하는 기술에 대해 논의합니다.


9주차 - 시스템 프롬프트 유출: 숨겨진 AI 보안 위험
↪f_200D↩시스템 프롬
프트에는 종종 AI 동작을 안내하는 숨겨진 지침이 포함되어 있지만, 이러한 지침이 노출되면 공격자가 모델을 조작하거나 민감한 정보를 추출할 수 있습니다. 이 동영상에서는 시스템 프롬프트 유출 취약점을 다루고, 취약점이 발생하는 방식을 설명하며, 개발자가 AI 기반 워크플로우를 보호하기 위해 취할 수 있는 조치에 대해 논의합니다.

10주차 - 벡터의 약점: AI 검색 워크플로우 보안
‍AI
모델은 종종 강력한 기능을 제공하기 위해 벡터 데이터베이스와 임베딩에 의존하지만, 잘못된 구성과 안전하지 않은 구현은 민감한 데이터를 노출시키고 새로운 공격 벡터를 생성할 수 있습니다. 이 동영상에서는 벡터 및 임베딩의 취약점을 자세히 살펴보고, 일반적인 보안 문제를 설명하며, AI 기반 검색 및 검색 워크플로우를 안전하게 보호하기 위한 전략을 공유합니다.

11주차 — AI 허위정보: 환각 위험 회피하기
‍AI
도구는 때로 겉보기에는 정확해 보이지만 실제로는 잘못된 결과를 생성할 수 있습니다. 이는 보안, 신뢰성, 의사 결정에 영향을 미치는 허위정보 위험을 초래합니다. 본 영상에서는 AI 지원 코딩의 허위정보 취약점을 설명하고, 잘못된 결과가 어떻게 발생하는지 탐구하며, AI 기반 콘텐츠를 검증하고 보호하기 위한 전략을 공유합니다.



12주차 무제한 자원 소모: AI 서비스 거부( DoS) 위험 방지
AI 시스템은 자원을 제한 없이 소모할 수 있어 서비스 거부(DoS), 데이터 노출, 예상치 못한 운영 장애 등의 위험을 초래합니다. 본 영상에서는 AI/LLM의 무제한 자원 소모 취약점을 다루고, 발생 원인을 설명하며, AI 자원 사용을 모니터링·관리·보호하기 위한 실용적인 전략을 공유합니다.



이 동영상들은 AI/LLM 보안의 핵심 개념을 소개하기 위해 제작되었지만, Secure Code Warrior 탐구할 내용이 훨씬 더 많습니다. 실제 AI 지원 코드 검토 및 수정 작업을 시뮬레이션하는 AI 챌린지에 도전하고, 업계 모범 사례에 부합하는 AI/LLM 가이드라인을 살펴보며, 안전한 코딩 습관을 기르는 실습 경험을 제공하는 워크스루, Missions, 퀘스트, 코스 템플릿을 활용해 보세요. 기술 역량을 한 단계 끌어올릴 준비가 된 팀을 위해, 플랫폼은 AI/LLM 중심 학습 활동 라이브러리를 지속적으로 확장 중입니다. AI 활용 코딩, AI 위험 및 보안 입문, LLM 애플리케이션을 위한 OWASP Top 10 등 130개 이상의 주제를 포함합니다. 자세한 내용은 데모를 요청하세요

웨비나 보기
시작

아래 링크를 클릭하여 이 자료의 PDF를 다운로드하세요.

Secure Code Warrior 는 전체 소프트웨어 개발 수명 주기에서 코드를 보호하고 사이버 보안을 최우선으로 생각하는 문화를 조성할 수 있도록 도와드립니다. 앱 보안 관리자, 개발자, CISO 등 보안과 관련된 모든 사람이 안전하지 않은 코드와 관련된 위험을 줄일 수 있도록 도와드릴 수 있습니다.

보고서 보기데모 예약
리소스 보기
공유하세요:
더 알고 싶으신가요?

공유하세요:
저자
섀넌 홀트
게시일: 2025년 9월 9일

섀넌 홀트는 애플리케이션 보안, 클라우드 보안 서비스, PCI-DSS 및 HITRUST와 같은 규정 준수 표준 분야에서 경력을 쌓은 사이버보안 제품 마케터입니다.

섀넌 홀트는 애플리케이션 보안, 클라우드 보안 서비스, 그리고 PCI-DSS 및 HITRUST와 같은 규정 준수 표준 분야에서 경력을 쌓은 사이버 보안 제품 마케터입니다. 그녀는 기술 팀이 보안 개발 및 규정 준수를 더욱 실용적이고 쉽게 접할 수 있도록 하는 데 열정을 쏟고 있으며, 보안에 대한 기대와 현대 소프트웨어 개발의 현실 사이의 간극을 메우는 데 힘쓰고 있습니다.

공유하세요:

AI/LLM 보안 소개 시리즈 가이드

GitHub Copilot, Cursor 등의 AI 코딩 도구는 소프트웨어 구축 방식을 바꾸고 있지만, 안전하고 안정적인 애플리케이션을 구축하기 위해 개발자가 이해해야 하는 새로운 보안 문제도 야기하고 있습니다. 팀에서 AI를 안전하게 도입하는 데 도움을 드리고자 12주 분량의 무료 AI/LLM 보안 소개 동영상 시리즈를 YouTube에 제작했습니다.

이 게시물은 시리즈의 중심 허브 역할을 합니다. 매주 새로운 동영상과 설명으로 업데이트되며, 프롬프트 주입, 데이터 및 모델 중독, 공급망 위험, 보안 프롬프트 등과 같은 필수 개념을 다룹니다. 이 페이지를 북마크에 추가하여 매주 따라가거나 YouTube 채널을 구독하여 모든 강의가 공개되는 즉시 받아보세요.

이 입문 강의를 넘어 더 자세히 알아보고 싶다면 SCW 플랫폼에서 전체 AI/LLM 컬렉션을 살펴보거나 아직 고객이 아닌 경우 데모를 요청하세요. YouTube 채널을 구독하여 새로운 에피소드가 공개될 때마다 놓치지 마세요. 최신 콘텐츠, 업데이트 및 리소스를 계속 확인하고 싶다면 여기에서 가입하여 개발자 및 보안 리더로 구성된 커뮤니티에 참여하세요.

에피소드(매주 업데이트)

1주차 - AI 코딩의 위험성: LLM 사용의 위험성
이 동영상에서는 코드 작성 시 AI/LLM을 사용할 때의 잠재적 위험성을 살펴보고 개발자가 AI 기반 도구를 워크플로에 통합할 때 직면하는 주요 위험을 강조합니다.


2주차 - AI 코딩의 이점: 안전한 AI 지원 개발
‍AI
코딩 도구는 위험하지 않습니다 - 안전하게 사용하면 개발자가 더 빠르고 스마트하게 작업하는 데 도움이 될 수 있습니다. 이 동영상에서는 코드 작성 시 AI/LLM을 사용할 때의 이점을 살펴보고, 팀이 일반적인 보안 함정을 피하면서 책임감 있게 AI를 활용할 수 있는 방법을 강조합니다.


3주차 - 프롬프트 인젝션에 대해 설명합니다: AI 생성 코드 보호하기
‍프롬프트
인젝션은 가장 일반적인 AI/LLM 취약점 중 하나이며 모든 개발자가 예방 방법을 알고 있어야 하는 취약점입니다. 이 동영상에서는 심각한


4주차 - 민감한 정보 공개: AI 데이터 유출 방지
AI 기반 도구는 실수로 민감한 정보를 유출하여 애플리케이션과 데이터를 위험에 빠뜨릴 수 있습니다. 이 동영상에서는 민감한 정보 노출 취약성을 다루고, AI/LLM을 사용할 때 이러한 취약성이 어떻게 발생하는지 설명하며, 개발자가 노출을 줄이기 위해 취할 수 있는 실질적인 조치를 공유합니다.

5주차 - AI 공급망 위험:종속성 보안
‍AI 지원
개발은 코딩을 가속화하지만 애플리케이션의 모든 계층에 영향을 미칠 수 있는 공급망 위험도 함께 도입합니다. 이 동영상에서는 AI/LLM과 관련된 취약점을 살펴보고, 타사 모델과 API가 공격 표면을 확장하는 방법을 설명하며, 노출을 최소화하기 위한 전략을 공유합니다.


6주차 - 데이터 중독: AI 모델 및 출력 보안
‍AI
시스템은 학습 데이터만큼만 안전하며, 손상된 입력은 애플리케이션 전체에 파급되는 취약점을 만들 수 있습니다. 이 동영상에서는 데이터 및 모델 중독 공격을 소개하고, 악의적인 입력이 AI 출력을 조작하는 방법을 설명하며, 시스템을 보호할 수 있는 전략을 공유합니다.


7주차 - 부적절한 출력 처리: AI로 생성된 코드 검증하기
‍AI 기반
도구는 코드를 빠르게 생성할 수 있지만 출력을 검증하지 않으면 취약점이 눈에 띄지 않게 숨어들 수 있습니다. 이 동영상에서는 AI 지원 개발에서 부적절한 출력 처리를 살펴보고, 위험한 출력으로 인해 애플리케이션이 어떻게 손상될 수 있는지 설명하며, 생성된 코드를 안전하게 보호하는 기술을 공유합니다.


8주차 - 과도한 에이전시: AI 자율성 위험 제어하기
↪CF_200D↩AI
시스템의 자율성이 높아지면서 과도한 에이전시는 모델이 의도한 범위를 넘어 행동하는 새로운 위험을 야기합니다. 이 동영상에서는 AI 지원 개발에서 과도한 에이전시의 취약점을 살펴보고, 과도한 행동이 어떻게 발생하는지 설명하고, AI 기반 프로세스에 대한 제어를 유지하는 기술에 대해 논의합니다.


9주차 - 시스템 프롬프트 유출: 숨겨진 AI 보안 위험
↪f_200D↩시스템 프롬
프트에는 종종 AI 동작을 안내하는 숨겨진 지침이 포함되어 있지만, 이러한 지침이 노출되면 공격자가 모델을 조작하거나 민감한 정보를 추출할 수 있습니다. 이 동영상에서는 시스템 프롬프트 유출 취약점을 다루고, 취약점이 발생하는 방식을 설명하며, 개발자가 AI 기반 워크플로우를 보호하기 위해 취할 수 있는 조치에 대해 논의합니다.

10주차 - 벡터의 약점: AI 검색 워크플로우 보안
‍AI
모델은 종종 강력한 기능을 제공하기 위해 벡터 데이터베이스와 임베딩에 의존하지만, 잘못된 구성과 안전하지 않은 구현은 민감한 데이터를 노출시키고 새로운 공격 벡터를 생성할 수 있습니다. 이 동영상에서는 벡터 및 임베딩의 취약점을 자세히 살펴보고, 일반적인 보안 문제를 설명하며, AI 기반 검색 및 검색 워크플로우를 안전하게 보호하기 위한 전략을 공유합니다.

11주차 — AI 허위정보: 환각 위험 회피하기
‍AI
도구는 때로 겉보기에는 정확해 보이지만 실제로는 잘못된 결과를 생성할 수 있습니다. 이는 보안, 신뢰성, 의사 결정에 영향을 미치는 허위정보 위험을 초래합니다. 본 영상에서는 AI 지원 코딩의 허위정보 취약점을 설명하고, 잘못된 결과가 어떻게 발생하는지 탐구하며, AI 기반 콘텐츠를 검증하고 보호하기 위한 전략을 공유합니다.



12주차 무제한 자원 소모: AI 서비스 거부( DoS) 위험 방지
AI 시스템은 자원을 제한 없이 소모할 수 있어 서비스 거부(DoS), 데이터 노출, 예상치 못한 운영 장애 등의 위험을 초래합니다. 본 영상에서는 AI/LLM의 무제한 자원 소모 취약점을 다루고, 발생 원인을 설명하며, AI 자원 사용을 모니터링·관리·보호하기 위한 실용적인 전략을 공유합니다.



이 동영상들은 AI/LLM 보안의 핵심 개념을 소개하기 위해 제작되었지만, Secure Code Warrior 탐구할 내용이 훨씬 더 많습니다. 실제 AI 지원 코드 검토 및 수정 작업을 시뮬레이션하는 AI 챌린지에 도전하고, 업계 모범 사례에 부합하는 AI/LLM 가이드라인을 살펴보며, 안전한 코딩 습관을 기르는 실습 경험을 제공하는 워크스루, Missions, 퀘스트, 코스 템플릿을 활용해 보세요. 기술 역량을 한 단계 끌어올릴 준비가 된 팀을 위해, 플랫폼은 AI/LLM 중심 학습 활동 라이브러리를 지속적으로 확장 중입니다. AI 활용 코딩, AI 위험 및 보안 입문, LLM 애플리케이션을 위한 OWASP Top 10 등 130개 이상의 주제를 포함합니다. 자세한 내용은 데모를 요청하세요

목차

PDF 다운로드
리소스 보기
더 알고 싶으신가요?

섀넌 홀트는 애플리케이션 보안, 클라우드 보안 서비스, PCI-DSS 및 HITRUST와 같은 규정 준수 표준 분야에서 경력을 쌓은 사이버보안 제품 마케터입니다.

Secure Code Warrior 는 전체 소프트웨어 개발 수명 주기에서 코드를 보호하고 사이버 보안을 최우선으로 생각하는 문화를 조성할 수 있도록 도와드립니다. 앱 보안 관리자, 개발자, CISO 등 보안과 관련된 모든 사람이 안전하지 않은 코드와 관련된 위험을 줄일 수 있도록 도와드릴 수 있습니다.

데모 예약다운로드
공유하세요:
리소스 허브

시작할 수 있는 리소스

더 많은 게시물
리소스 허브

시작할 수 있는 리소스

더 많은 게시물