오픈소스 AI의 그림자: DeepSeek 보안 사고로 본 LLM의 취약성
2025년 1월, 중국 AI 스타트업 DeepSeek는 자사의 오픈소스 대규모 언어 모델 DeepSeek-R1을 공개하며 주목을 받았습니다. 그러나 곧이어 발생한 보안 사고는 오픈소스 AI 모델의 보안 리스크를 여실히 보여주는 사례가 되었습니다.DeepSeek 보안 사고의 전말
클라우드 보안 기업 Wiz는 DeepSeek의 ClickHouse 데이터베이스가 인증 없이 외부에 노출되어 있다는 사실을 발견했습니다. 이로 인해 사용자 채팅 기록, API 키, 운영 정보 등 100만 건 이상의 민감한 데이터가 유출될 수 있는 위험에 처했습니다. 특히oauth2callback.deepseek.com:9000
및 dev.deepseek.com:9000
서버를 통해 데이터베이스 접근이 가능했던 것으로 밝혀졌습니다. 다행히 DeepSeek는 Wiz의 보고 후 신속하게 보안을 강화했습니다.
오픈소스 AI 모델이 안고 있는 리스크
- 프롬프트 인젝션: 악의적인 입력을 통해 모델 출력을 조작하는 방식으로, DeepSeek-R1도 이에 취약한 것으로 밝혀졌습니다.
- 추론 중단 공격: 특정 입력이 모델의 추론을 중단시키는 현상으로, 서비스 안정성 저하를 초래할 수 있습니다.
- 안전성 부족: 부적절한 콘텐츠 생성 가능성이 존재하며, 안전성 평가 결과도 낮았습니다.
개발자를 위한 보안 강화 팁
- 로컬 환경 실행: 민감한 데이터를 다룰 때는 클라우드 대신 로컬에서 모델을 운영하세요.
- 접근 제어 강화: 인증 체계를 확실히 하고, 권한 관리를 철저히 해야 합니다.
- 정기적인 보안 점검: 외부 침투 테스트 및 안전성 검사를 주기적으로 수행하세요.
- AI 안전성 도구 사용: OpenAI Eval이나 Holistic Evaluation Tool과 같은 도구를 통해 모델의 응답을 점검하세요.
답글 남기기