-
1.5B 파라미터를 가진 Sweep Next-Edit 모델은 사용자의 다음 코드 수정을 예측해 자동완성 기능을 제공
-
로컬 환경에서 500ms 이하의 속도로 실행되며, 4배 이상 큰 모델보다 높은 성능을 보임
-
Q8_0 GGUF 양자화 형식으로 제공되어, 경량화된 상태에서도 긴 8192 토큰 컨텍스트 길이를 지원
-
Qwen2.5-Coder를 기반으로 하며, JetBrains 플러그인과 연동 가능
-
Apache 2.0 라이선스로 공개되어, 오픈소스 AI 개발자에게 실험과 통합에 유용한 모델임
모델 개요
-
Sweep Next-Edit 1.5B는 코드 자동완성을 위한 next-edit 예측 모델
- 사용자가 코드를 수정하기 전에 다음 편집을 예측해 제안
-
로컬 노트북 환경에서도 500ms 이하의 지연으로 실행 가능
-
Speculative decoding을 활용해 빠른 응답 속도 제공
-
4배 이상 큰 모델보다 높은 성능을 next-edit 벤치마크에서 기록
모델 세부 정보
-
파라미터 수: 1.5B
-
형식: GGUF (Q8_0 양자화)
-
컨텍스트 길이: 8192 토큰
-
기반 모델: Qwen2.5-Coder
-
라이선스: Apache 2.0
사용 방법
-
run_model.py와 모델 파일을 다운로드 후 실행
- 설치 명령:
uv pip install llama-cpp-python huggingface_hub
python run_model.py
-
로컬 실행 중심 구조로, 별도의 클라우드 인퍼런스 제공자는 없음