-
대규모 언어 모델(LLM) 이 업무 방식을 근본적으로 바꾸고 있으며, Oxide는 이를 조직 내에서 어떻게 사용할지 명확히 정의함
- Oxide 는 온프레미스 데이터 센터를 위한 통합 하드웨어 및 소프트웨어를 만드는 온디맨드 컴퓨팅 인프라 스타트업
- LLM 활용의 핵심 원칙으로 책임, 엄밀함, 공감, 팀워크, 긴급성의 균형을 제시
- 문서 요약·이해, 코드 리뷰, 디버깅 등에서는 유용하지만, 글쓰기나 코드 작성 시 인간의 판단과 책임이 필수임
- LLM이 생성한 결과물은 항상 인간이 검토·책임지는 구조를 유지해야 함
- Oxide는 LLM 사용을 장려하되, 제품·고객·동료에 대한 책임감을 전제로 함
LLM 사용의 가치 기준
- Oxide는 LLM 사용을 조직의 핵심 가치에 따라 평가함
-
책임(Responsibility) : LLM은 도구일 뿐이며, 결과물의 책임은 전적으로 인간에게 있음
-
엄밀함(Rigor) : 신중히 사용하면 사고를 정교하게 다듬을 수 있으나, 부주의하면 사고의 질을 떨어뜨림
-
공감(Empathy) : 언어의 수신자와 작성자 모두 인간임을 인식하고, 인간 중심의 소통을 유지해야 함
-
팀워크(Teamwork) : LLM 사용이 동료 간 신뢰를 훼손하지 않도록 주의해야 하며, 사용 사실의 공개가 책임 회피로 비치지 않도록 함
-
긴급성(Urgency) : 속도 향상이 가능하더라도, 다른 가치들을 희생해서는 안 됨
LLM의 다양한 활용 방식
LLMs as Readers
- LLM은 문서 요약과 질의응답에 매우 뛰어나며, 방대한 자료를 빠르게 이해할 수 있음
- 단, 데이터 프라이버시를 보장해야 하며, 업로드된 문서가 모델 학습에 사용되지 않도록 설정 필요
- 문서 이해 보조 도구로는 유용하지만, 직접 읽어야 하는 상황을 대체해서는 안 됨
LLMs as Editors
-
완성된 문서의 구조·문체 개선에 효과적이며, 후반 단계에서 활용 시 유용함
- 그러나 LLM은 과도하게 긍정적인 반응을 보이는 경향이 있어, 비판적 분석이 부족할 수 있음
- 초안 단계에서 사용하면 작성자의 고유한 목소리를 잃을 위험이 있음
LLMs as Writers
- LLM이 생성한 글은 진부하거나 자동 생성의 흔적이 뚜렷한 경우가 많음
- 자동 생성된 글은 사고의 진정성과 독자의 신뢰를 훼손할 수 있음
- 독자는 작성자가 내용을 이해했다고 전제하지만, LLM 작성물은 그 전제를 무너뜨림
- Oxide는 구성원이 모두 글쓰기 능력을 갖추고 있음을 전제로, LLM을 글쓰기 주체로 사용하지 않음
- 단, 아이디어 정리나 보조 도구로는 제한적으로 활용 가능
LLMs as Code Reviewers
- LLM은 특정 유형의 코드 문제 탐지에 유용하지만, 인간 리뷰를 대체할 수 없음
- 제안이 비논리적이거나 맥락을 놓칠 수 있으므로, 보조적 도구로만 사용
LLMs as Debuggers
- LLM은 디버깅 아이디어를 유도하는 ‘러버덕’ 역할로 활용 가능
- 실제 문제 해결 능력은 제한적이지만, 새로운 접근을 떠올리게 하는 자극으로 유용함
LLMs as Programmers
- LLM은 코드 생성 능력이 매우 뛰어나며, 실험적·보조적 코드 작성에 적합함
- 제품 코드에 가까울수록 검증과 책임이 중요함
- LLM이 작성한 코드는 작성자가 직접 검토(self-review) 해야 하며, 동료 리뷰 전에 반드시 확인 필요
- 코드 리뷰 중 전체 재생성으로 대응하는 행위는 금지, 반복 검토가 불가능해짐
- 코드 생성 시에도 책임, 엄밀함, 공감, 팀워크를 유지해야 함
운영 및 지침
- LLM 사용의 기술적 세부사항과 내부 가이드라인은 GitHub의 내부 문서에 정리되어 있음
- Oxide는 LLM 사용을 권장하되, 책임 있는 활용을 전제로 함
- 제품 품질, 고객 신뢰, 동료 간 협업에 대한 책임 의식을 최우선으로 함