흥미롭고 도전적인 한 해를 보내고 2025년을 앞두고 있는 지금, AI와 소프트웨어 개발의 교차점은 계속해서 의미 있는 방식으로 개발자 커뮤니티를 형성해 나갈 것입니다.
조직은 장기적인 생산성, 지속 가능성 및 보안 ROI를 지원하기 위해 AI 사용에 대한 어려운 결정에 직면해 있습니다. 지난 몇 년 동안 우리는 AI가 개발자의 역할을 완전히 대체할 수 없다는 사실을 분명히 알게 되었습니다. AI + 개발자 파트너십부터 보안 설계에 대한 기대치에 대한 압박과 혼란의 증가에 이르기까지, 내년에 예상되는 사항을 자세히 살펴보세요:
AI 방정식 다시 쓰기: 개발자 대신 AI가 아닌 AI + 개발자
"2025년에 기업들이 과감한 비용 절감 조치를 취해야 하는 상황에서 개발자가 AI 툴로 대체되는 것은 놀라운 일이 아닐 것입니다. 하지만 제너레이티브 AI가 처음 등장했을 때도 그랬고 앞으로도 수년간의 업데이트가 계속될 것이지만, 특히 코드 작성 시에는 여전히 안전하고 자율적인 생산성 동력이 되지 못합니다. AI는 놀라운 애플리케이션과 사용 사례가 많은 매우 파괴적인 기술이지만 숙련된 인간 개발자를 충분히 대체할 수는 없습니다. 저는 2025년 AI/인간 대체로의 전환이 실패할 가능성이 높으며, 특히 장기적으로는 실패할 것이라는 Forrester의 예측에 동의합니다. AI+개발자의 조합이 AI 단독보다는 이를 달성할 가능성이 더 높다고 생각합니다."
위험과 기회가 뒤섞인 인공지능(AI)
"2025년에는 환각 스쿼팅, 독이 든 라이브러리, 소프트웨어 공급망에 영향을 미치는 익스플로잇과 같은 알려진 문제의 악영향을 포함해 AI가 생성한 코드에서 새로운 위험 사례가 등장할 것입니다. 또한, 방금 구글의 프로젝트 제로에서 보여준 것처럼 AI는 코드의 결함을 찾는 데 훨씬 더 많이 사용될 뿐만 아니라 익스플로잇을 작성하는 데에도 활용될 것입니다. 이와는 대조적으로, 기업 개발자가 이러한 도구를 너무 많은 위험을 추가하지 않고도 업무에 활용할 수 있는 초기 단계의 성숙도에 도달할 것으로 생각되지만 이는 규칙이 아니라 예외일 것이며, 조직이 개발자 위험을 적극적으로 측정하고 그에 따라 보안 프로그램을 조정하는 데 달려 있습니다. 2025년이 가져올 빠르게 진화하는 위협 환경에서 승인된 AI 코딩 도구를 사용하는 숙련되고 보안을 인식하는 개발자는 더 빠르게 코드를 생산할 수 있는 반면, 보안 인식과 일반 기술이 낮은 개발자는 더 많은 문제를 더 빠른 속도로 발생시킬 뿐입니다."
AI]의 그림자에서 벗어나기
"AI와 관련된 입법 환경은 기술의 빈번한 발전과 채택률을 따라잡기 위해 빠르게 변화하고 있습니다. 2025년에 보안 리더는 잠재적인 지침을 준수할 준비가 되어 있는지 확인해야 합니다. '섀도 AI'의 특성을 이해하고 조직에서 이를 사용하지 않도록 한 다음, 승인되고 검증된 도구만 회사 시스템에 설치하여 엄격하게 사용하는 것이 내년에 조직에 가장 중요한 과제가 될 것입니다. 이를 통해 더 많은 assessment 개발 코호트가 보안 역량을 지속적으로 성장시키고 이를 업무의 모든 측면에 적용하기 위해 최선의 지원을 받아야 하는 방법을 이해하게 될 것입니다."
AI 도구의 보안 상태는 개발자에게 중요한 척도가 될 것입니다.
"현재 LLM 기반 코딩 도구는 자유 경쟁 시장입니다. 더 나은 출력, 보안, 생산성을 자랑하는 새로운 도구가 계속 등장하고 있습니다. 2025년에 접어들면서 각 AI 도구를 벤치마킹하고 보안 상태를 평가할 수 있는 표준이 필요합니다. 여기에는 코딩 기능, 즉 위협 행위자가 악용할 수 없는 안전하고 우수한 코딩 패턴으로 코드를 생성하는 능력이 포함됩니다."
AI는 주니어 개발자의 현장 진입을 더 어렵게 만들 것입니다.
"개발자는 그 어느 때보다 진입 장벽이 높습니다. 하이브리드 및 분산된 인력과 초급 직책에 필요한 기술 수준으로 인해 주니어 개발자에게 요구되는 기준은 매년 계속 높아지고 있습니다. 2025년에는 고용주들이 주니어 개발자가 실무 교육에 시간을 할애하는 대신 업무를 시작할 때 이미 워크플로 내에서 AI 도구를 안전하게 통합하고 최적화하는 기술과 지식을 갖추고 있기를 기대하기 시작할 것입니다. 내년에 개발 워크플로에서 AI 도구를 활용하는 방법을 배우지 못한 개발자는 자신의 경력 성장에 심각한 결과를 초래할 수 있으며, 취업 기회를 확보하는 데 어려움을 겪게 될 것입니다. 안전한 AI 숙련도가 궁극적으로 핵심이 될 것이기 때문에 '코딩 라이선스'가 부족해져 더 복잡한 프로젝트에 참여하지 못하게 될 위험이 있습니다."
시간이 지나면 조직이 보안 설계를 통해 보안을 달성하지 못하게 됩니다.
"개발자는 "설계에 의한 보안"을 달성하기 위해 올바른 도구와 관행을 숙지하고 기술을 향상시킬 수 있는 충분한 시간과 리소스가 필요합니다." 조직이 보안 및 엔지니어링 리더의 동의를 얻지 못하면 진행에 차질을 빚거나 완전히 중단될 수 있습니다. 조직은 비용을 절감하거나 리소스를 제한하려고 할 때 장기적인 솔루션보다 즉각적인 문제 해결 노력을 우선시하는 경우가 많으며, 일부만 "괜찮게" 해결하고 나머지는 "보통"으로 처리하는 다면적인 문제 해결 도구에 집중하는 경우가 많습니다. 2025년에는 이러한 불균형으로 인해 안전한 소프트웨어 개발을 우선시하는 조직과 변화하는 환경에 발맞추기 위해 빠른 수정을 원하는 조직 간에 더 큰 격차가 발생할 것입니다."
공급망 보안 감사는 글로벌 리스크를 완화하는 데 중요한 역할을 할 것입니다.
"모든 아웃소싱/서드파티 공급업체에 대한 조사가 강화될 것입니다. 내부적으로 최고의 보안 프로그램을 갖추고 있어도 아웃소싱하는 기업이 보안 설계를 실천하지 않는다면 전체 보안 프레임워크가 손상될 수 있습니다. 따라서 기업들은 아웃소싱에 대한 감사를 강화하여 비즈니스 리더에게 엄격한 보안 및 업계 규정 준수 지침을 따르도록 압력을 가하고 있습니다. 궁극적으로 보안팀의 성공 여부는 조직 전체와 외부 파트너에 대한 통합된 접근 방식을 포함한 전체적인 360도 관점에 달려 있습니다."
AI는 "소음 차단"에 영향력을 발휘할 것입니다.
"개발팀은 코드 취약점 스캐너의 오탐률로 인해 어려움을 겪고 있습니다. 할당된 취약점이 실제로 보안 위험인지 어떻게 확신할 수 있을까요? 2025년, AI는 코드 수정과 관련하여 개발자가 코드 자체에 대한 심층적인 이해를 제공함으로써 '잡음을 차단'하는 데 도움이 되는 중요한 도구가 될 것입니다. AI는 머신 러닝을 활용하여 컨텍스트를 기반으로 실제 위협의 우선순위를 더 잘 정할 수 있으므로 보안 경보의 정확성을 높이는 데 소요되는 시간을 줄일 수 있습니다. 이를 통해 팀은 실제로 위험을 초래하는 취약점에 집중할 수 있어 전반적인 효율성이 향상되고 더 빠르고 안전한 개발 주기를 구현할 수 있습니다."
벤치마킹은 조직이 보안 설계 목표를 달성할 수 있는 솔루션이 될 것입니다.
"보안 벤치마크가 없으면 2025년에는 보안 설계 표준을 충족하는 과정을 측정할 수 있는 명확한 기준이 없기 때문에 조직에 해가 될 것입니다. 팀이 보안 코딩 관행을 어떻게 준수하고 있는지 평가할 수 있는 벤치마킹 시스템이 없다면, 이러한 조직은 중대한 침해로 이어질 수 있는 취약점을 실수로 도입할 위험이 있습니다. 또한 침해 사고가 발생하면 벤치마킹 시스템을 구현할 시간이 없을 뿐만 아니라 개발자 팀의 보안 성숙도를 먼저 평가하지 않고 SBD 이니셔티브에 속도를 내야 하기 때문에 결국 조직이 더 큰 위험에 노출될 가능성이 높습니다."
AI 생성 코드의 대가로 발생하는 기술적 부채
"이미 업계에 기술 부채라는 엄청난 문제가 있다는 것은 비밀이 아니며, 이는 이미 작성된 코드와 관련된 문제입니다. 본질적으로 안전하지 않은 AI 생성 코드에 대한 개발자의 맹목적인 의존이 급증하고 있고 경영진의 감독도 제한적이기 때문에 문제는 더욱 악화될 것입니다. 이러한 추세로 인해 내년에 보고된 CVE가 10배 이상 증가할 가능성이 매우 높습니다."
성공적인 2025년을 위해 조직은 개발팀에 대한 적절한 교육 및 위험 완화 투자와 함께 책임감 있고 안전하게 AI를 도입할 의지가 있어야 합니다. 내년은 CISA의 보안 설계 서약 1주년이 되는 해로, AI와 관련된 위험, 타사 보안 문제 및 새로운 위협을 가장 잘 제거할 수 있는 안전한 개발 접근 방식을 우선시하는 브랜드가 경쟁 우위를 유지할 수 있을 것입니다.