오픈소스 AI의 그림자: DeepSeek 보안 사고로 본 LLM의 취약성

오픈소스 AI의 그림자: DeepSeek 보안 사고로 본 LLM의 취약성

2025년 1월, 중국 AI 스타트업 DeepSeek는 자사의 오픈소스 대규모 언어 모델 DeepSeek-R1을 공개하며 주목을 받았습니다. 그러나 곧이어 발생한 보안 사고는 오픈소스 AI 모델의 보안 리스크를 여실히 보여주는 사례가 되었습니다.

DeepSeek 보안 사고의 전말

클라우드 보안 기업 Wiz는 DeepSeek의 ClickHouse 데이터베이스가 인증 없이 외부에 노출되어 있다는 사실을 발견했습니다. 이로 인해 사용자 채팅 기록, API 키, 운영 정보 등 100만 건 이상의 민감한 데이터가 유출될 수 있는 위험에 처했습니다. 특히 oauth2callback.deepseek.com:9000dev.deepseek.com:9000 서버를 통해 데이터베이스 접근이 가능했던 것으로 밝혀졌습니다. 다행히 DeepSeek는 Wiz의 보고 후 신속하게 보안을 강화했습니다.
DeepSeek 보안 취약점 관련 이미지 DeepSeek는 ClickHouse 설정 오류로 데이터가 외부에 노출되었다.

오픈소스 AI 모델이 안고 있는 리스크

  • 프롬프트 인젝션: 악의적인 입력을 통해 모델 출력을 조작하는 방식으로, DeepSeek-R1도 이에 취약한 것으로 밝혀졌습니다.
  • 추론 중단 공격: 특정 입력이 모델의 추론을 중단시키는 현상으로, 서비스 안정성 저하를 초래할 수 있습니다.
  • 안전성 부족: 부적절한 콘텐츠 생성 가능성이 존재하며, 안전성 평가 결과도 낮았습니다.

개발자를 위한 보안 강화 팁

  1. 로컬 환경 실행: 민감한 데이터를 다룰 때는 클라우드 대신 로컬에서 모델을 운영하세요.
  2. 접근 제어 강화: 인증 체계를 확실히 하고, 권한 관리를 철저히 해야 합니다.
  3. 정기적인 보안 점검: 외부 침투 테스트 및 안전성 검사를 주기적으로 수행하세요.
  4. AI 안전성 도구 사용: OpenAI Eval이나 Holistic Evaluation Tool과 같은 도구를 통해 모델의 응답을 점검하세요.

마무리

DeepSeek 사건은 AI 성능 경쟁에 가려졌던 보안 취약성의 경각심을 다시금 일깨워줍니다. 오픈소스 AI를 사용하는 우리는 성능뿐만 아니라 보안과 신뢰성 또한 동일한 무게로 고려해야 합니다.

코멘트

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다