AI는 코드를 쓴다. 결정도 한다. 책임만 못 진다.

4 hours ago 1

"그건 제 R&R이 아닌데요"의 종말

  • R&R은 책임을 명확히 하기 위한 도구이지, 책임을 피하기 위한 방패가 아니다 — 구조조정 책임은 경영진의 사업 판단에 있지만, 커리어의 안전을 그 판단과 회사의 선의에 맡겨두는 것도 더 이상 안전하지 않다는 게 글의 출발점

지금의 채용 한파 = AI가 아니라 2023년에 이미 시작된 정상화

  • 2021~2022년 코로나 유동성 과잉 → 개발자 초봉 6,000만 원, 부트캠프 출신 즉시 입사 → 과채용 시기. 자금 마르자 망한 회사 출신과 과채용 인력이 시장에 쏟아짐
  • 금융위 자료로 2023년 상반기 국내 벤처투자 전년 동기 대비 42% 감소. 스타트업얼라이언스로는 2023년 전체 투자금 52% 감소
  • "AI가 개발자 시장을 갑자기 망가뜨린 게 아니다. AI는 이미 무너지고 있던 고용 계약의 민낯을 더 빨리 드러낸 것뿐이다"
  • 가장 안일했던 사람은 당시 회사 경영진. 시장이 얼자마자 그들의 사업 실패가 고스란히 개인 직원의 대가로 전가된 것

AI가 흡수하는 것은 코드가 아니라 스페셜리즘 그 자체

  • Google: 2024 Q3 어닝콜에서 새 코드의 25%가 AI 생성 → 2026-04 Cloud Next에서 75%까지 상승. 1년 반 만에 3배. 핵심 표현은 "AI-generated and approved by engineers" — 작성은 AI, 승인과 책임은 엔지니어
  • Meta Mark Zuckerberg, Q4 2025 어닝콜: "예전에는 큰 팀이 필요했던 프로젝트가 이제는 정말로 뛰어난 한 명에 의해 끝나는 모습이 보이기 시작했다"
  • 10명이 하던 일을 한 명이 한다는 건 효율 문제가 아니라, 큰 팀이 나눠 갖던 판단·조율·검증·배포 이후의 책임까지 그 한 사람에게 압축된다는 뜻. 채용 기준이 quantity → quality로 이동
  • AI는 전문성을 없애는 게 아니라, 전문성만 가진 사람의 안전지대를 없애고 있다. 시장이 얼면 자기 직무 안에 머무르는 사람부터 사라진다

Taste·결정 능력도 안전지대가 아니다

  • "AI가 이런 걸 하니까 사람은 Taste·결정 능력에 집중해야 한다"는 프레임은 AI와 사람을 동일선상에서 비교하는 함정. 그 말은 곧 어느 레벨/섹터에선 Taste·결정도 충분히 대체될 수 있다는 뜻
  • ThePrimeagen(20년차, I suck 발표 2026-05-02): 6개월 슬럼프에서 두 가설을 차례로 지웠다. 취향(taste)? 아니다. 코드 양? 아니다. 결론: "한 줄 코드의 비용이 극적으로 떨어졌다면, 올바른 한 줄 코드의 비용은 극적으로 상승한다"
  • 양쪽 데이터: GitHub Copilot 실험(arXiv 2302.06590)에서는 55.8% 빠른 완료. 반대로 METR 2025 연구에서는 숙련된 오픈소스 개발자가 자기가 잘 아는 코드베이스에서 AI 썼더니 오히려 19% 더 느림. AI는 산출 비용은 낮추지만 맥락 이해와 올바른 선택의 비용까지 자동으로 낮춰주지 않는다
  • 디자인 시안, 코드 1차 리뷰, 아키텍처 트레이드오프 정리 — 필자 워크플로우에서도 "내가 결정하든 AI가 결정하든 결과 차이가 미미한" 영역이 늘어나는 중. 그 차원에서 Taste가 흡수되고 있다는 신호
  • AI가 못하는 것은 더 예쁜 선택이 아니라, 선택의 결과를 책임지는 것이다

AI는 책임을 못 진다 — 본질적 차이

  • Air Canada 챗봇 사건(2024): 챗봇이 고객에게 잘못된 환불 정보 제공 → 회사는 챗봇을 별도 주체로 보려 했으나 캐나다 분쟁조정기관은 "정보가 정적 페이지에서 나오든 챗봇에서 나오든 책임은 회사에 있다"고 판단. AI가 답변을 만들 수는 있지만 그 답변을 노출하기로 결정하는 책임은 사람과 조직에 있다
  • 필자 자기 폭로: CTO 2년차에 회사가 투자 유치에 어려움을 겪자 그제서야 재무팀에 매달 자료를 보내달라고 요청. "CTO가 왜 이걸 이제 와서 보냐"는 재무팀장 표정이 기억에 남음. 무지가 무책임의 다른 이름이라는 걸 그때 깨달았다
  • Anthropic Careers 페이지에 박힌 채용 기준: "When it comes to our mission, none of us are bystanders. We each take personal ownership over making our mission successful." AI를 가장 잘 만드는 회사가 직접 박은 채용 기준이 ownership
  • 책임지는 사람 vs 회피하는 사람의 행동 패턴이 정반대. 한쪽은 "결과가 고객에게 어떤 가치로 도달하는지, 회사의 어떤 지표와 연결되는지"를 묻고 잘 안 됐을 때 "제가 무엇을 놓쳤는지"를 설명한다. 다른 쪽은 R&R 안에 머물고 outcome이 나빠도 자기 output을 포기하지 못한다
  • Taste, 결정, 원리 이해, 커뮤니케이션은 책임을 수행하기 위한 능력이지 책임의 대체물이 아니다

개인이 던져야 할 5가지 질문

  • ① 내가 지금 하는 일이 어떤 고객 문제를 해결하는가 — 답을 못하면 외부 시장 가치와 끊긴 일
  • ② 이 일이 어떤 비즈니스 KPI(매출/비용/리텐션)와 어떻게 연결되는가 — 한 줄 설명 못하면 회사가 내 자리를 어떻게 평가할지 모른다는 뜻
  • ③ 내가 만든 결과가 실제로 쓰였는가, 실패했을 때 원인을 3문장으로 설명할 수 있는가 — 배포 ≠ 사용, 만든 것 ≠ 도달한 것
  • ④ AI를 써서 더 많이 만드는 게 아니라 더 빨리 검증하고 있는가 — AI 시대 가장 큰 함정. 책임지는 사람은 양이 아니라 검증 속도에 자원을 쓴다
  • ⑤ "내 R&R이 아닌데"의 변종 — 결과에 중요한데 직무 경계 밖이라는 이유로 손을 떼면 책임도 같이 떨어져 나간다

기업도 보상 체계를 바꿔야 한다 — 일방적 글이 아니다

  • 글이 개인에게만 책임을 묻는 방향으로 가지 않도록 후반부에서 명시: "기업에서 그만큼 직원에게 책임을 지우려면 그만큼의 보상도 지불해야 한다"
  • 제너럴리스트로 일하면서 책임지고 고객 가치를 챙기던 사람들은 그동안 제대로 평가받지 못한 영역. 스페셜리즘이 AI에게 흡수되는 시대에 그들의 가치는 그 어느 때보다 높다
  • Jasmine Sun, NYT Opinion 2026-04-30: "내가 아는 AI 업계 사람들 대부분은 평범한 사람은 망했다고 생각한다. 그리고 어떻게 해야 할지 전혀 모른다." 실리콘 밸리가 마주한 진짜 악몽은 rogue AI가 아니라 평범한 사람이 자동화로 경제적 레버리지를 잃는 시나리오
  • 마무리 한 줄: "AI는 우리의 일을 대신할 수 있다. 하지만 우리의 책임까지 대신해주지는 않는다. 그래서 AI 시대에 가장 귀한 사람은 더 많이 만드는 사람이 아니라, 끝까지 책임지는 사람이다."
Read Entire Article