-
SAM 3는 이미지와 비디오에서 객체를 자동으로 분할하는 최신 세그멘테이션 모델
-
Meta AI가 개발했으며, 이전 버전보다 정확도와 처리 효율이 향상된 구조
- 정적 이미지뿐 아니라 동영상 프레임 간 일관된 객체 추적 기능 지원
- 다양한 비전 태스크에 활용 가능하며, 오픈소스 생태계와 연구 커뮤니티 확장을 목표로 함
- 컴퓨터 비전 분야에서 범용 세그멘테이션 모델 발전의 주요 단계로 평가됨
SAM 3 개요
-
Segment Anything Model 3 (SAM 3) 는 Meta AI가 공개한 범용 객체 세그멘테이션 모델
- 이미지와 비디오에서 객체를 자동으로 식별하고 분리하는 기능 제공
- 기존 SAM 시리즈의 후속 버전으로, 정확도와 속도 모두 개선된 성능을 갖춤
- 모델은 다양한 입력 형식에 대응하며, 대규모 데이터셋 학습 기반으로 동작
주요 기능
-
정적 이미지 세그멘테이션뿐 아니라 비디오 내 객체 추적 기능 지원
- 프레임 간 객체의 위치와 형태를 일관되게 유지
-
사용자 입력 없이 자동 분할이 가능하며, 필요 시 프롬프트 기반 세그멘테이션도 수행
- 다양한 해상도와 장면 복잡도에서도 안정적인 결과 제공
기술적 특징
-
효율적 아키텍처를 통해 연산 비용을 줄이면서도 높은 정확도 유지
-
멀티모달 입력을 처리할 수 있는 구조로 설계
- 이전 버전 대비 모델 크기와 추론 속도 최적화
활용 가능성
-
컴퓨터 비전 연구, 로보틱스, AR/VR 콘텐츠 제작, 의료 영상 분석 등 다양한 분야에 적용 가능
- 오픈소스로 공개되어 연구자와 개발자 커뮤니티의 협업 촉진
의의
- SAM 3는 범용 세그멘테이션 모델의 진화 단계로, 이미지 이해 기술의 확장 기반 제공
- Meta AI의 AI 연구 인프라 강화와 비전 모델 표준화 노력을 보여주는 사례
- 원문에 추가 정보 없음