[카테고리:] Exp

개발하며 쌓이는 경험들을 기록합니다.
  • Unity Sentis로 ONNX 모델을 활용한 대화형 NPC 만들기

    Unity의 새로운 AI 프레임워크인 Sentis를 활용하면 ONNX 형식의 AI 모델을 손쉽게 Unity 프로젝트에 통합할 수 있습니다. 특히 GPT-2, KoGPT2 같은 언어 생성 모델을 불러와 대화형 NPC를 구현하는 데 매우 유용하죠.

    1. ONNX 모델 준비하기

    먼저 사용할 모델을 ONNX 형식으로 확보해야 합니다. ONNX Model Zoo 또는 Hugging Face를 활용하거나, 직접 학습한 모델을 변환할 수도 있습니다.

    2. Unity 프로젝트 설정

    Unity 에디터에서 com.unity.sentis 패키지를 설치하고, ONNX 파일을 Assets 폴더에 배치하면 자동으로 임포트됩니다. 모델 임포트 후 Model Asset Import Settings에서 입출력 형태를 확인하고, 런타임 직렬화 옵션을 설정할 수 있습니다.

    3. C#에서 모델 실행

    ModelLoader.Load()를 통해 모델을 로드하고, IWorker를 사용해 입력 텐서를 전달한 뒤 추론 결과를 얻습니다. using Unity.Sentis; IWorker worker = WorkerFactory.CreateWorker(WorkerFactory.Type.GPUCompute, runtimeModel); worker.Execute(input); float[] result = ((TensorFloat)worker.PeekOutput()).ToReadOnlyArray(); worker.Dispose(); 결과는 디코딩하여 NPC의 대화 텍스트로 활용할 수 있습니다. 멀티스레딩이나 Job System을 활용하면 퍼포먼스도 최적화할 수 있습니다.

    4. 실전 팁

    • 모델 경량화: --quantize 옵션으로 8비트 양자화 수행
    • 호환성 문제: CustomLayer 구현으로 해결 가능
    • 퍼포먼스 분석: Unity Profiler로 CPU/GPU 병목 확인
    ONNX 모델을 Unity Sentis로 통합해 NPC 대화 시스템으로 연결하는 다이어그램
    더 읽어보세요:
  • 오픈소스 AI의 그림자: DeepSeek 보안 사고로 본 LLM의 취약성

    오픈소스 AI의 그림자: DeepSeek 보안 사고로 본 LLM의 취약성

    2025년 1월, 중국 AI 스타트업 DeepSeek는 자사의 오픈소스 대규모 언어 모델 DeepSeek-R1을 공개하며 주목을 받았습니다. 그러나 곧이어 발생한 보안 사고는 오픈소스 AI 모델의 보안 리스크를 여실히 보여주는 사례가 되었습니다.

    DeepSeek 보안 사고의 전말

    클라우드 보안 기업 Wiz는 DeepSeek의 ClickHouse 데이터베이스가 인증 없이 외부에 노출되어 있다는 사실을 발견했습니다. 이로 인해 사용자 채팅 기록, API 키, 운영 정보 등 100만 건 이상의 민감한 데이터가 유출될 수 있는 위험에 처했습니다. 특히 oauth2callback.deepseek.com:9000dev.deepseek.com:9000 서버를 통해 데이터베이스 접근이 가능했던 것으로 밝혀졌습니다. 다행히 DeepSeek는 Wiz의 보고 후 신속하게 보안을 강화했습니다.
    DeepSeek 보안 취약점 관련 이미지 DeepSeek는 ClickHouse 설정 오류로 데이터가 외부에 노출되었다.

    오픈소스 AI 모델이 안고 있는 리스크

    • 프롬프트 인젝션: 악의적인 입력을 통해 모델 출력을 조작하는 방식으로, DeepSeek-R1도 이에 취약한 것으로 밝혀졌습니다.
    • 추론 중단 공격: 특정 입력이 모델의 추론을 중단시키는 현상으로, 서비스 안정성 저하를 초래할 수 있습니다.
    • 안전성 부족: 부적절한 콘텐츠 생성 가능성이 존재하며, 안전성 평가 결과도 낮았습니다.

    개발자를 위한 보안 강화 팁

    1. 로컬 환경 실행: 민감한 데이터를 다룰 때는 클라우드 대신 로컬에서 모델을 운영하세요.
    2. 접근 제어 강화: 인증 체계를 확실히 하고, 권한 관리를 철저히 해야 합니다.
    3. 정기적인 보안 점검: 외부 침투 테스트 및 안전성 검사를 주기적으로 수행하세요.
    4. AI 안전성 도구 사용: OpenAI Eval이나 Holistic Evaluation Tool과 같은 도구를 통해 모델의 응답을 점검하세요.

    마무리

    DeepSeek 사건은 AI 성능 경쟁에 가려졌던 보안 취약성의 경각심을 다시금 일깨워줍니다. 오픈소스 AI를 사용하는 우리는 성능뿐만 아니라 보안과 신뢰성 또한 동일한 무게로 고려해야 합니다.