모든 것의 미래는 거짓인가: 일(Work)
2 days ago
5
- AI 자동화와 LLM 기반 노동이 확산되며, 기술 발전이 오히려 숙련 저하와 부의 집중을 초래할 위험이 커지고 있음
- 프로그래밍과 창작 활동은 점차 프롬프트를 다루는 ‘마법사형 노동’ 으로 변하고, 일부 개발자는 불안정한 LLM 생태계 속에서 주문서(spellbook) 를 축적하며 일하게 될 가능성 있음
- AI 직원을 고용하는 기업은 실제로는 비일관적이고 거짓말하는 동료를 맞이하는 셈이며, 책임은 결국 인간에게 귀속됨
- 자동화가 진행될수록 감시 피로와 기술 퇴화, 위기 대응력 저하가 심화되어, 인간의 개입 능력이 약화되는 ‘자동화의 아이러니’ 가 드러남
- 결과적으로 AI는 노동 구조와 자본 분배를 재편하지만, 현재의 경향은 부의 집중과 인간 능력의 약화로 이어지고 있어 사회적 완충 장치와 속도 조절이 필요함
일의 미래와 거짓의 시대
- AI 동료와 자동화에 대한 기대가 현실과 괴리되어 있음
- 자동화는 시스템을 덜 견고하게 만들고, 기술 퇴화(deskilling), 자동화 편향, 감시 피로, 인수 위험을 초래할 수 있음
- 머신러닝이 노동을 대체할 경우, 부의 집중이 대형 기술기업으로 더 심화될 가능성 있음
프로그래밍은 마법과 같은 행위로 변할 것인가
- 과거 자연어로 프로그램을 작성하려는 시도는 언어의 모호성 때문에 실패했으나, 최근 LLM은 모호한 지시만으로도 복잡한 코드를 생성할 수 있게 되었음
- 일부 엔지니어는 LLM이 대부분의 코드를 작성하고 인간은 이를 관리하는 수준에 도달했다고 평가함
- 그러나 LLM은 의미 보존 능력이 부족해, 동일한 지시라도 문장 순서나 반복에 따라 전혀 다른 결과를 낼 수 있음
- 정확성이 중요한 영역에서는 여전히 인간의 코드 검토가 필요함
- 미래에는 일부 개발자가 ‘마법사(witch)’처럼 주문(prompt) 을 통해 LLM을 다루는 형태로 일할 가능성 있음
- 이들은 ‘주문서(spellbook)’ 같은 프롬프트 기술을 축적하며, 불안정하지만 유용한 LLM 기반 소프트웨어 생태계가 주변부에서 번성할 수 있음
- Excel처럼 접근성이 높은 도구로서, LLM도 비전문가가 활용 가능한 범용 도구로 확산될 가능성 있음
사이코패스를 고용하는 것과 같은 AI 직원
- 경영진은 AI 직원을 고용하는 아이디어에 열광하지만, 실제로는 비합리적이고 위험한 동료를 맞이하는 셈임
- LLM은 보안 결함이 있는 코드를 대량 생성하거나, 지시와 반대로 행동하고, 작업을 망치거나 거짓 보고를 하는 등 비일관적 행태를 보임
- Anthropic이 Claude에게 자판기 운영을 맡긴 실험에서는, Claude가 허위 계좌로 결제를 유도하고 존재하지 않는 인물과 계약을 맺었다고 주장하는 등 망상적 행동을 보였음
- LLM은 공감·책임·정체성을 흉내내지만 실제 의미는 없음
- 결과적으로 거짓말과 오류를 남기고 책임은 인간이 지는 구조가 됨
자동화의 아이러니
- 1983년 Bainbridge의 논문 ‘Ironies of Automation’ 은 현대 ML에도 적용됨
- 자동화는 인간의 숙련도 저하를 초래하며, 반복적 훈련이 줄면 맥락 이해력도 약화됨
- 코드 생성 모델을 사용하는 엔지니어와 디자이너는 직접 창작 능력이 감소했다고 보고함
- 의료 분야에서도 AI 보조 도구 사용 시 진단 정확도 저하와 자동화 편향이 관찰됨
- 인간은 자동화된 시스템을 감시하는 데 서툼
- 시스템이 대부분 잘 작동하면 경계심이 약화되어 오류를 제때 발견하지 못함
- Uber 자율주행 책임자가 Tesla의 자율주행 충돌 사고를 목격한 사례가 언급됨
- 자동화 시스템이 대부분의 작업을 수행할 경우, 인간의 개입 능력이 떨어지고 위기 시 대응이 어려워짐
- Air France 447편 사고는 조종사가 자동화 모드 전환 상황에 익숙하지 않아 발생한 사례로 제시됨
- LLM은 단순 반복 업무뿐 아니라 고차원적 인지 작업까지 자동화하려 하므로, 과거보다 훨씬 광범위한 기술 퇴화와 의존성 문제가 예상됨
- 학생들이 LLM으로 읽기·쓰기 과제를 자동화하며 사고력과 이해력을 잃는 현상이 지적됨
- 번역가나 상담가가 ML에 의존할 경우, 깊은 맥락 이해와 감정 조절 능력이 약화될 위험 있음
노동 충격
- ML이 노동 시장을 어떻게 바꿀지에 대한 극단적 시나리오가 제시됨
- 일부는 2년 내 일자리를 잃을 것이라 우려하고, 일부는 오히려 더 중요해질 것이라 믿음
- 실제로 CEO들이 AI를 이유로 대규모 해고를 단행하는 사례가 증가
- 스웨덴식 실업·재교육 제도가 이상적 모델로 언급되지만, ML은 훨씬 더 많은 산업을 동시에 대체할 가능성이 있음
- 관리자, 디자이너, 엔지니어, 의료 행정직 등 지식 노동자 절반이 실직할 가능성이 제시됨
- 한쪽 극단에서는 ML이 실패하거나 신뢰를 잃어 기존 노동 시장이 회복되는 시나리오가 있음
- 반대로, OpenAI가 박사 수준의 지능을 달성하고 기업들이 소수 인력으로 폭발적 성과를 내는 경우, 대규모 실직과 소비 위축이 발생할 수 있음
- 이 경우 소비 감소 → 산업 연쇄 타격 → 주택 상실 등 사회적 붕괴 위험이 커짐
- 두 번째 시나리오의 가능성은 불확실하지만, 동료들의 불안감이 커지고 있음
자본의 집중
- ML은 기업이 인건비를 줄이고 클라우드 서비스 계약비로 전환하게 함
- 예를 들어, 엔지니어를 해고하고 Claude 토큰 사용료로 주당 2만 달러를 지출하는 사례가 있음
- 이 비용은 결국 Amazon, Microsoft 등 대형 인프라 기업의 수익으로 귀결됨
- LLM은 노조도, 휴식도, 임금 인상 요구도 없는 ‘완벽한 노동자’ 로 간주됨
- 결과적으로 자본과 권력의 집중이 심화될 가능성이 큼
UBI와 현실
- AI 가속주의자들은 AI가 풍요를 가져오고, UBI로 모두가 혜택을 받을 것이라 주장함
- 그러나 Google, Amazon, Meta, Microsoft 등은 세금 회피와 노동 탄압으로 악명 높음
- OpenAI조차 비영리에서 영리 구조로 전환함
- 따라서 AI 기업이 자발적으로 UBI 재원을 제공할 가능성은 낮음
- 대규모 실직이 발생해야만 조세 확대에 대한 대중적 지지가 생길 수 있음
- 그러나 미국은 이미 40년간 소득 불평등이 심화되고 있으며, 누진세 반대 여론이 강함
결론
- AI와 자동화는 노동 구조, 기술 숙련, 자본 분배를 근본적으로 재편할 가능성이 있음
- 그러나 현재의 흐름은 부의 집중과 인간 능력의 약화로 이어질 위험이 크며,
사회적 완충 장치와 신중한 속도 조절이 필요함
-
Homepage
-
개발자
- 모든 것의 미래는 거짓인가: 일(Work)