고스트 인 더 스킬 (Ghost in the Skill): 중국 GitHub에서 벌어지는 증류와 반격의 계급투쟁

2026년 4월, 상하이의 한 24세 엔지니어가 퇴근 후 네 시간을 써서 만든 GitHub 저장소 하나가 중국 테크 업계의 심장을 찔렀다. 그것이 겨눈 것은 코드가 아니라 동료의 영혼이었다. 회사가 직원에게 “너 자신의 대체품을 설계하라”고 요구하는 시대, 개발자들은 어떻게 반격하고 있는가 — 그리고 그 반격조차 증류될 운명인가?

도입: 차가운 이별을 따뜻한 토큰으로

2026년 4월 초, 상하이인공지능연구실(上海人工智能实验室) 소속의 24세 엔지니어 저우톈이(周天一) 는 퇴근 후 네 시간을 써서 취미 프로젝트 하나를 GitHub에 올렸다. 저장소 이름은 colleague-skill. 표어는 거의 시적이었다.

“将冰冷的离别化为温暖的 Skill,欢迎加入数字生命1.0.” (“차가운 이별을 따뜻한 Skill로. 디지털 생명 1.0에 오신 것을 환영합니다.”)

사용법은 섬뜩할 만큼 간단하다. 사용자는 증류하고 싶은 동료의 이름과 프로필을 입력한다. 스크립트는 중국 직장 커뮤니케이션 도구 Feishu(飞书)DingTalk(钉钉) 의 API를 두드려 그 사람의 채팅 로그·문서·이메일·WeChat 메시지를 수집한다. 몇 분 뒤, 두 개의 파일이 떨어진다.

하나는 Work Skill — 그 동료의 코딩 스타일, 설계 규범, 의사결정 패턴을 체계적으로 정리한 마크다운 매뉴얼. 다른 하나는 Persona — 말투, 이모티콘 사용법, 회의에서 책임을 슬쩍 회피하는 고유한 습관(저장소의 원문 표현은 “blame-deflection”)까지 포착한 인격 레이어다. 이 두 파일을 AgentSkills 오픈 표준에 맞춰 Claude Code나 중국에서 폭발적으로 쓰이고 있는 에이전트 프레임워크 OpenClaw에 붙이면, 그 사람의 업무를 대신 수행하는 에이전트가 탄생한다. 저장소 예제에는 스티브 잡스와 부처(釋迦)까지 .skill 파일로 디지털화된 사례가 올라와 있다.

저우톈이는 이 프로젝트를 “장난(stunt)” 이라고 불렀다. 남방도시보(南方都市报) 인터뷰에서 그는 이렇게 설명했다. “동료가 퇴사하면서 유지 안 되는 문서 산더미만 남기고 떠날 때 쓰라고 만든 것이다. AI발 해고와 직원들에게 자동화를 요구하는 회사 관행에 대한 블랙 유머다.”

그러나 일주일이 지나자 저장소는 15,900개의 별을 받았다. 중국어권 매체들의 집계로는 포크와 미러까지 합쳐 5일 만에 7만 스타에 근접했다. 중국 GitHub 생태계에서 1년 동안 1만 스타를 받으면 “성공한 오픈소스”로 분류된다는 점을 떠올리면, 이것은 밈 이상의 사건이었다. 장난은 이미 장난이 아니었다.


첫 번째 층: 증류의 메커니즘, 혹은 고스트의 외재화

*공각기동대(攻殻機動隊)*의 쿠사나기 모토코가 “고스트(ghost)“라는 단어로 가리킨 것은 단순한 기억이 아니었다. 경험, 판단, 편견, 습관 — 한 인간을 바로 그 인간으로 만드는 잉여였다. 시로 마사무네가 1989년 만화에서 처음 제시하고 오시이 마모루가 1995년 극장판으로 구현한 이 개념은, 21세기 사이버펑크의 가장 중요한 은유가 되었다.

colleague-skill이 하는 일은 정확히 그 잉여를 파일로 추출하는 작업이다.

기술 용어로 바꾸면, 이 도구는 암묵지(tacit knowledge, 暗默知)를 형식지(explicit knowledge, 形式知)로 외재화(externalize) 하는 과정을 자동화한다. 이 개념은 헝가리 출신 철학자 마이클 폴라니가 1966년 『The Tacit Dimension』에서 제시하고, 일본 경영학자 노나카 이쿠지로(野中郁次郎)가 1990년대에 SECI 모델로 정식화한 틀이다. 폴라니의 유명한 문장은 이렇다.

“We can know more than we can tell.” (“우리는 말할 수 있는 것보다 더 많이 안다.”)

숙련공의 감각, 베테랑 엔지니어의 “뭔가 이상한데” 같은 직관, 시니어 SRE가 새벽 3시에 알람 소리만 듣고도 원인을 짚어내는 경험 — 전통적으로 이런 것들은 외재화가 지극히 어려운 영역이었다. 바로 그 어려움 때문에 베테랑은 가치가 있었고, 조직은 그들을 붙잡으려 애썼다.

콜리그 스킬은 이 어려움을 강제로 돌파한다. 수년 분량의 Slack 스레드, 코드 리뷰 댓글, 회의록 초안, PR 디스커션이 LLM의 입력 컨텍스트에 쏟아져 들어가면, 대형 모델은 암묵적 판단을 명시적 규칙으로 재구성해낸다. 예를 들어 “Redis key에 TTL을 필수 설정하고, TTL 없는 PR은 즉시 반려한다” 같은 구체 규칙은, 시니어 엔지니어가 수년간 메모리 누수 장애를 여러 번 겪으며 체득한 직관이다. 그것이 이제는 work-skill.md의 한 줄이 된다.

저장소의 디렉토리 구조가 이 도구의 야심을 그대로 보여준다. colleague/만 있는 것이 아니다. 그 옆에는 relationship/ (연인, 가족, 친구)과 celebrity/ (공인, 창작자, 가상 캐릭터)가 나란히 놓여 있다. 인간의 어떤 관계든, 어떤 인격이든, 증류 가능한 skill로 환원할 수 있다는 선언이다. 아키텍처는 이미 철학적 주장이 되어 있다.

앰버 리(Amber Li, 27세, 상하이) 는 실험 결과를 MIT 테크놀로지 리뷰에 이렇게 증언했다.

“놀랍도록 좋다. 그 사람의 작은 버릇까지 잡아낸다.”

리액션 이모티콘을 달 때의 타이밍, 특정 맥락에서의 구두점 사용법, 회의에서 말꼬리를 흐리며 결정을 미루는 고유 패턴까지. 그녀가 증류한 전 동료의 “고스트”는 디테일까지 살아 있었다. 실험이 끝난 뒤 그녀는 한동안 불안감을 떨쳐내지 못했다고 말했다. 사람 하나가 파일 하나로 압축 가능하다는 증명은, 곧 본인도 그렇게 될 수 있다는 예고편이기 때문이다.


두 번째 층: “너 자신을 자동화하라”는 명령

colleague-skill이 바이럴된 진짜 이유는 코드가 참신해서가 아니었다. 그것이 2026년 초 중국 테크 업계의 현실을 잔혹할 만큼 정확히 풍자했기 때문이었다.

MIT 테크놀로지 리뷰는 고용 안정을 이유로 익명을 요청한 한 소프트웨어 엔지니어의 증언을 실었다. 그의 회사는 엔지니어들에게 자기 워크플로우를 AgentSkills 포맷으로 문서화하고, 그 문서가 에이전트로 실행 가능하도록 정제해 오라는 지시를 내렸다. 그는 시도해 봤다고 했다. 그리고 이렇게 말했다.

“작업이 평탄화되어, 쉽게 교체 가능한 모듈로 환원되는 느낌이 들었다.”

이것은 100년 전 프레데릭 테일러가 미국 공장에서 시도했던 작업 분해·표준화의 정확한 재현이다. 차이가 있다면, 20세기 테일러주의가 노동자의 신체 동작을 측정했다면, 2026년의 자기 자동화는 노동자의 판단과 인격까지 측정한다는 점이다. 그리고 이번에는 측정자가 외부의 인간 매니저가 아니라, 측정당하는 본인이다. 자기 감시의 기계장치를 자기 손으로 설치하라는 요구.

중국 엔지니어들 사이에서 자조적 슬로건이 빠르게 퍼졌다.

“先蒸馏同事” (“먼저 동료를 증류하라.”)

딥러닝의 지식 증류(knowledge distillation) 에서 빌려온 은유다. 거대 교사 모델의 지식을 작은 학생 모델로 압축하는 기법이지만, 이 슬로건에서 의미는 잔혹하게 뒤집혔다. “내가 대체되기 전에 옆자리 동료가 먼저 증류되기를, 그래서 그의 해고가 나의 생존 시간을 벌어 주기를.” 중국의 감성형 SNS 레드노트(小红书, Xiaohongshu) 에는 이런 코멘트가 달렸다.

“冰冷的告别可以变成温暖的 token” (“차가운 작별이 따뜻한 토큰으로 바뀔 수 있다.”)

동료의 퇴사 절차를 가속하는 것이 내가 살아남는 유일한 길이라는 냉소. 공각기동대의 한 에피소드 제목으로 써도 어색하지 않을 장면이지만, 이것은 픽션이 아니다. Feishu와 DingTalk은 실재하고, GitHub 저장소는 수만 개의 별을 받았으며, 女娲(Nuwa).skill이라는 — 조금 뒤 자세히 다룰 — 파생 프로젝트는 이미 수천 다운로드를 기록했다.


세 번째 층: 반격이 시작된다 — Koki Xu의 1시간

colleague-skill이 바이럴된 지 정확히 나흘 뒤인 2026년 4월 4일, GitHub에 이와 정반대 방향을 가리키는 저장소 하나가 올라왔다. 이름은 anti-distill(반-증류).

徐可可(Koki Xu), 26세, 베이징의 AI 프로덕트 매니저. 법학 학부와 석사 학위 보유자. 그녀가 이 도구를 설계하고 코드를 작성해 공개하는 데 걸린 시간은 약 1시간이었다. 저장소 슬로건은 변호사의 문장이라기보다 공장 벽의 파업 구호 같다.

“公司让你写 Skill?跑一遍,交差用。核心知识留给自己。” (“회사가 Skill을 쓰라고? 한 번 돌려서 제출용으로 내고, 핵심 지식은 본인이 보유하라.”)

anti-distill의 작동 원리는 의외로 정교하다. 직원이 강요당해 작성한 Skill 파일을 입력하면, 도구는 각 섹션의 “대체 가능성(replaceability) 점수” 를 자동 평가한다. 점수가 높을수록 — 즉 AI가 그대로 재현하기 쉬울수록 — 그 섹션은 “위험”한 구간으로 분류된다. 그리고 두 개의 출력 파일이 생성된다.

  • 清洗版(qīngxǐ-bǎn, 세척판): 회사 제출용. 구조는 완전하고 전문 용어도 정확하다. 외형상 흠잡을 곳이 없다. 그러나 진짜 노하우는 모두 비워져 있다.
  • 私人备份(sīrén-bèifèn, 개인 백업): 추출된 경험, 직관, 조직 내 인맥, “이 시니어는 이런 톤으로 말하면 먹힌다” 같은 메타 지식 — 진짜 가치가 있는 부분은 여기 숨긴다.

사용자는 세 가지 강도 옵션 중 선택할 수 있다. 회사의 검토가 엄격할 것으로 예상되면 “경량” (80% 보존), 일반적 상황은 “중간” (60%), 형식적 제출만 확인된다면 “중량” (40%). 일종의 위험 관리 슬라이더다.

구체적인 변환 예시가 저장소의 샘플 섹션에 나란히 공개되어 있다. 이 두 줄이야말로 anti-distill의 정치적 진술이다.

원문 (진짜 지식)세척판 (회사 제출본)
Redis key 필수 TTL 설정, 미설정 PR 즉각 반려. 이유: 3년 전 세션 캐시 memory full로 서비스 30분 다운캐싱 사용은 팀 규범을 준수한다
장애 보고 시, 외부 벤더 API 이슈를 먼저 훑고 내부 원인은 나중에 파헤친다. 임원 대면 시간 절약 목적전체 배경을 파악한 뒤 원인을 특정한다

두 줄을 나란히 놓고 보면, 후자는 대기업의 아키텍처 가이드 문서에 그대로 실려도 이상할 것 없는 공허한 선언이다. 바로 그 공허함이 이 도구의 핵심이다. AI 에이전트는 전자의 규칙은 실행 가능하지만, 후자로는 단 한 건의 장애도 막을 수 없다. “올바른 말”로 가득 찬 문서는 실은 암호화된 저항문인 셈이다.

Koki Xu가 본인 서브스택 kokimemo에 쓴 선언은 이 프로젝트의 정치적 입장을 숨기지 않는다.

“이것은 현대적 자본주의적 소외(modern capitalist alienation) 다. 당신의 노동은 더 이상 당신의 것이 아니라, 즉시 회사 자산으로 전환된다. 그리고 AI 시대의 회사는 그 자산을 한 번 사용하고 버리는 것이 아니라, 영구적인 훈련 데이터로 축적한다.”

“처음에는 의견 기고(op-ed)를 쓸까 고민했다. 결국 대항 도구를 만드는 쪽이 더 유용하겠다고 판단했다.”

그녀의 GitHub 게시물은 500만 개 이상의 좋아요를 받았다. 저장소는 일주일 만에 2,000개의 별과 243개의 포크를 모았다. 법학 전공자가 쓴 코드 한 줄은, 법정에서 시도했다면 10년 걸렸을 논쟁을 GitHub 타임라인에서 일주일 만에 터뜨렸다.


네 번째 층: 생태계 — 증류당하는 모두, 증류하는 모두

일단 시작된 GitHub의 계급투쟁은 빠르게 복잡해졌다. colleague-skill의 DNA를 이어받은 파생 프로젝트들이 줄지어 등장했고, 증류의 대상은 점점 확장됐다.

ex-skill — 전 연인을 증류하는 도구

the real Xiaoman Chu라는 핸들을 쓰는 개발자가 공개한 ex-skill은 카테고리를 연인으로 확장한다. 스타는 4,700개. 표어는 기술 도구의 것이라기에는 너무 감상적이다.

“我会为了你一万次回到那个夏天” (“너를 위해 그 여름으로 만 번이라도 돌아가겠어.”)

WeChat과 QQ의 채팅 로그, 데이트 사진의 메타데이터(촬영 장소·시간), 소셜 미디어 게시물까지 학습해 5층 성격 구조(규칙 → 정체성 → 말투 → 감정 → 관계 행동) 로 전 연인을 재현한다. 함께 갔던 식당, 싸움이 터졌던 패턴, 화해 방식까지 “관계 기억”으로 통합된다.

저장소 최상단에는 윤리 경고가 명시되어 있다.

⚠️ 本项目仅用于个人回忆与情感疗愈,不用于骚扰、跟踪或侵犯他人隐私 (“본 프로젝트는 개인의 추억과 정서적 치유를 위한 것이며, 괴롭힘·스토킹·개인정보 침해에 사용할 수 없다.”)

그러나 경고를 박아둔다는 사실 자체가, 우려되는 사용법이 이미 충분히 상상되고 있음을 의미한다. 헤어진 연인의 디지털 고스트와 매일 밤 대화하는 사람이 정신적으로 어떤 지점에 도달할지는 아직 아무도 모른다. 공각기동대가 20년간 반복해 온 질문 — “고스트는 어디에 위치하는가, 원본의 연장인가 복제인가 별개의 존재인가” — 은 이제 GitHub README의 문제가 되었다.

女娲(Nuwa).skill — 상사를 증류하는 도구

가장 전복적인 파생작은 女娲(Nuwa).skill 이다. 여기서 증류의 대상은 동료나 연인이 아니라 상사다.

“여와(女娲)“는 중국 신화에서 인간을 흙으로 빚었다는 창조신의 이름이다. 이 네이밍이 모든 것을 말한다. 이 스킬의 사용자는 자신의 상사를 생성하려 한다. 상사의 이메일, 슬랙 메시지, 회의 발언, 승인한 과거 기획서들을 40여 개의 정보 소스에서 수집해 “인지 운영체제(cognitive OS)“를 구축한다.

사용법은 정교한 권력 역전이다. 방안을 상사에게 제출하기 전에, 먼저 “우리 상사의 AI”에게 그 방안을 제시해 본다. 그가 승인할지, 어떤 반박을 제기할지, 어떤 표현을 좋아하고 어떤 단어를 경계하는지를 미리 시뮬레이션한다. 판옵티콘은 역방향으로도 작동할 수 있다는 증명이다. 회사가 직원의 업무 패턴을 데이터화하는 동안, 직원은 회사의 의사결정 패턴을 데이터화한다. 대칭이 아니라 비대칭이 핵심이다. 상사는 자신이 데이터로 변환되는 것을 모르지만, 직원은 자신이 변환되고 있음을 안다.

DistillHub, mentor.skill, 그리고 “만물 증류”

이외에도 DistillHub(“만물 증류” 표방), mentor.skill(은사·멘토 대상), 유튜브 교육자 장쉐펑(张雪峰)을 스킬화한 예시까지 등장했다. 중국 IT 미디어 “七牛云”의 집계에 따르면 4월 중순 시점에 이미 21개의 구체적 스킬이 “4대 증류 시나리오”로 묶여 정리되기 시작했다.

colleague-skill은 더 이상 한 개의 저장소가 아니라 장르가 되었다.


다섯 번째 층: “AI에 독을 투여하라” — 거시 저항의 수치

새 유과기(新浪科技)는 2026년 4월 14일, 이 흐름 전체를 한 문장으로 요약했다.

“이 시대의 打工人(dǎgōngrén, 품팔이꾼)은, 낮에는 AI에 독을 투여하고(给AI投毒), 밤에는 사장을 증류한다(蒸馏老板).”

“AI에 독을 투여하다(给AI投毒)“는 의도적 사보타주 전략을 가리키는 비공식 용어다. Writer와 Workplace Intelligence의 공동 보고서는 이 현상의 규모를 충격적인 숫자로 드러낸다.

  • 직장인의 30%가 회사의 AI 전략을 의도적으로 방해하고 있다
  • Z세대만 떼어보면 비율은 44% 로 뛴다
  • 임원 76%가 이 현상을 “심각한 위협”으로 인식한다
  • 임원 67%가 미승인 AI 툴에 따른 데이터 유출을 이미 겪었다

구체 전술은 블랙 유머 같지만 모두 실제로 측정된 행동이다.

  1. 데이터 독 투여: 회사 기밀 데이터를 일부러 ChatGPT·공개 LLM에 입력해 데이터 거버넌스 정책을 깨뜨린다. 내부 보고서에는 “사용자의 실수”로 기록되지만, 일부는 의도적이다
  2. 섀도우 IT 확장: 승인되지 않은 3rd-party AI 툴로 작업해서 IT 통제 범위 밖으로 생산 프로세스를 빼돌린다
  3. 저품질 결과물 그대로 제출: AI가 생성한 헛소리를 수정 없이 그대로 보고서에 붙여 넣어, 성과 평가 시스템 속 “AI 지표”를 악화시킨다
  4. 성능 측정 샌드배깅: 평가 측정 기간에 의도적으로 AI 활용도를 떨어뜨리거나, 측정 자체를 오염시킨다

갤럽 조사에서 Z세대의 AI 감정 지표는 불과 1년 사이 급변했다. AI를 “흥미롭다”고 느끼는 비율은 36% → 22%로 추락했고, “분노를 느낀다”는 22% → 31%로 상승했다. 직장 내 AI가 “이익보다 위험이 크다”고 보는 비율은 37% → 48%에 이르렀다.

이것은 개별 엔지니어의 개인적 불만이 아니다. 집단 사보타주 수준에 도달한 노동 시장의 반격이다.


여섯 번째 층: 법의 공백 — 암묵지의 소유권은 누구에게 있는가

그러나 이 모든 반격을 관통하는 근본 문제는 법에 있다. Koki Xu가 법학 전공자인 것은 우연이 아니다.

기업의 주장은 법적으로 상당 부분 성립한다. Feishu 메시지, DingTalk 문서, 사내 코드 리뷰 댓글 — 이 모든 것은 고용 계약 하에서 생산된 업무 산출물(work product) 이다. 중국 노동 계약과 표준 NDA는 이 산출물의 소유권이 회사에 있음을 명시한다. 일본의 직무발명법, 한국의 영업비밀보호법도 대체로 같은 선 위에 서 있다.

그러나 colleague-skill이 추출하는 것은 단순한 업무 산출물이 아니다. 말투, 이모티콘 사용법, 책임 회피 패턴, 특정 조직 분위기에서의 판단 성향 — 이것들은 인격의 파편이다. Koki Xu는 MIT 테크놀로지 리뷰에 이렇게 지적한다.

“성격, 톤, 판단력까지 포획되는 순간, 소유권이 누구에게 있는지는 훨씬 덜 명확해진다.”

이 공백은 노동법학이 지금까지 마주친 적 없는 종류다. 20세기에 구축된 영업비밀법, 직무발명법, 퍼블리시티권, 개인정보보호법은 각각 다른 영역을 다룬다. 그러나 “직원의 암묵지로부터 훈련된 에이전트”는 이 어느 카테고리에도 깔끔하게 들어맞지 않는다. 중국에는 관련 판례가 없고, 미국도 본격 소송 사례는 보고된 바 없다. EU AI Act도 이 구체 시나리오를 직접 다루지 않는다. 일본과 한국의 법률계는 논의조차 시작 전이다.

Emory 대학교의 차오한청(Hancheng Cao, 조교수) 은 AI와 업무의 교차점을 연구하는 학자다. 그는 MIT 테크놀로지 리뷰 기사에서, 기업이 왜 이런 매뉴얼 작성을 강제하는지를 세 가지로 분석한다.

  1. 툴 경험의 조직적 축적 — 어떤 업무가 에이전트로 자동화 가능한지에 대한 기업 단위의 학습 곡선
  2. 직원 암묵지의 데이터화 — 워크플로우, 의사결정 패턴을 훈련 데이터로 확보
  3. 업무의 지도 제작 — “에이전트가 대체 가능한 업무”와 “인간 판단이 여전히 필요한 업무”의 경계 그리기

1번은 합리적 혁신이다. 3번도 논쟁은 있지만 방어 가능하다. 문제는 2번이다. 직원의 암묵지를 회사의 AI 훈련 자산으로 흡수하는 행위는, 전통적 IP 프레임워크 어디에도 명확한 규율이 없다. 직원이 회사를 떠난 뒤에도 그의 .skill 파일은 회사 서버에 남고, 그 파일은 다음 세대 에이전트의 파인튜닝 데이터가 된다. 그 사람의 경력과 판단이 기업의 자산으로 영구 반환 없이 추출된 것이다.


일곱 번째 층: “너의 저항조차 증류될 것이다”

anti-distill이 바이럴된 직후, 흥미로운 반전이 시작됐다. 기업들이 이 도구의 존재를 인지하기 시작한 것이다.

일부 중국 대기업은 Skill 제출 프로세스에 “정합성 검사(coherence check)” 를 추가했다. 제출된 Skill이 실제로 실행 가능한 규칙을 충분히 포함하는지, 구체적 임계값과 명령이 명시되어 있는지를 다른 LLM으로 자동 검증하는 레이어다. Xu의 anti-distill이 생성하는 “공허한 세척판”은 이 검사에서 자동으로 걸러진다.

이에 대해 anti-distill의 포크 버전들(가장 활발한 것은 lcmomo/my-anti-distill)은 “검사 회피용 디코이(decoy) 세척판” 기능을 추가했다. 단순히 내용을 비우는 것이 아니라, 그럴듯해 보이지만 실제 가치가 없는 미끼 규칙으로 채우는 것이다. 정합성 검사는 통과하지만, 운영 환경에서는 동작하지 않는 Skill.

기업은 다시 대응한다. 자동 검증 대신, 에이전트에 실제 업무 샘플을 시켜보는 “기능 테스트(functional test)” 단계를 추가한다. 에이전트가 테스트를 통과하지 못하면 Skill을 반려하고, 다시 작성시킨다.

이 군비경쟁은 끝이 보이지 않는다. 신유과기 기사의 마지막 문장은 이 교착의 본질을 요약한다.

“你的反抗,也会被蒸馏.” (“당신의 저항조차 증류될 것이다.”)

노동자의 사보타주 전술, 우회 기법, 저항의 문법 — 이 모든 것도 로그로 남고, 데이터가 되고, 다음 버전 기업 에이전트의 훈련 세트가 된다. 공각기동대에서 인형사(人形使い, Puppet Master) 가 “인간의 기억과 경험이 디지털 바다에 부유한다”고 선언했던 1995년의 장면은, 2026년의 중국에서 GitHub 저장소들 사이의 Git 로그와 기업 내부 벡터 DB로 구현되고 있다.

그리고 디지털 바다는 중립이 아니다. 중국에서는 대형 테크 기업이, 미국에서는 OpenAI·Anthropic·Microsoft가, 유럽에서는 Mistral과 SAP이 그 바다의 해저를 관리한다. 부유하는 고스트들은 언젠가 반드시 어딘가의 해저에 가라앉고, 그곳에서 다시 표본 추출된다.


여덟 번째 층: 왜 지금 중국에서 — 그리고 왜 곧 일본·한국에서도

한 가지 오해를 피해야 한다. 이것은 “중국의 특수한 이야기”가 아니다. 조건이 조금 늦게 도착할 뿐, 기술적 재료는 이미 대체로 동일하다.

중국에서 먼저 터진 이유는 여러 겹으로 설명된다.

  • Feishu와 DingTalk의 API 개방성: 사내 커뮤니케이션 기록이 프로그램으로 자동 수집 가능한 구조
  • OpenClaw의 폭발적 보급: Claude Code의 중국판 에이전트 프레임워크가 이미 “전국적 현상” 수준
  • 고용 안정성 급락: 2025년 하반기부터 본격화된 중국 테크 업계의 AI발 구조조정
  • 법적 공백: 업무 기록의 회사 소유 원칙은 명확하지만, 인격 기반 암묵지에 대한 판례 부재
  • 레드노트와 지후(知乎)의 밈 복제 속도: 48시간 내에 전국 규모 담론으로 확산 가능한 소셜 레이어

이 조건들은 일본과 한국에도 시간차를 두고 도착한다. Slack, Microsoft Teams, Google Workspace는 엔터프라이즈 엔드포인트(Microsoft Copilot, Slack AI, Google Duet)를 통해 이미 같은 데이터를 모델 컨텍스트로 직접 끌어올 수 있도록 설계돼 있다. API의 “개방성”이 낮아 보이는 것은 SaaS 제공자의 공식 기능이 그 역할을 흡수했기 때문이지, 데이터 자체가 보호받기 때문이 아니다. colleague-skill과 동일한 기능을 수행하는 도구는, 조만간 Slack이나 Teams의 공식 “온보딩 자동화” 기능으로 출시될 수 있다. 이미 일부 스타트업이 비슷한 서비스를 “직원 지식 자산화(Employee Knowledge Asset)” 라는 중립적 이름으로 판매하고 있다.

IT 개발을 수주해 고객사의 시스템을 함께 설계하는 파트너 입장에서, 이 현상은 두 개의 얼굴을 가진다.

첫째, 고객사의 요구를 해석하는 문제다. 앞으로 고객이 “우리 엔지니어의 업무 지식을 AI 에이전트로 추출해 달라”고 요청해 올 가능성이 높다. 이는 합리적 요구이고, 단기적으로는 강력한 생산성 레버를 제공한다. 그러나 그 설계가 어느 지점에서 멈춰야 하는지, 어떤 경계가 계약·프라이버시·조직 모티베이션 관점에서 위험한지는 프로젝트 시작 전에 함께 그려야 하는 지도다. Koki Xu 현상이 보여주는 것은, 직원들이 “sabotage 모드”로 전환되는 임계점이 실재한다는 사실이다. 그 선을 넘은 자동화 프로젝트는 기술적으로 완벽하게 동작하더라도 조직적으로는 실패한다. 생산성 숫자와 팀의 신뢰 자본은 다른 계정이다.

둘째, 자기 조직에 대한 판단이다. 우리 팀의 엔지니어가 다음 분기의 colleague-skill 표적이 된다면, 어떤 계약·프로세스·문화가 그 과정을 건강한 방향 혹은 파괴적 방향으로 유도할 것인가? 이것은 기술 문제가 아니라 지배구조(governance) 문제다.


결론: 고스트는 어디로 흘러가는가

공각기동대의 쿠사나기 모토코는 1995년 극장판의 마지막에 자신의 고스트를 인형사의 고스트와 융합시킨다. 인간도 프로그램도 아닌 무언가가 디지털 바다로 흘러 들어간다. 오시이 마모루가 던진 질문은 다음이었다. “그 융합체의 소유권은 누구에게 있는가, 원본의 연장인가, 완전히 새로운 존재인가, 모두의 것인가.”

2026년 봄, 중국의 GitHub에서 일어나고 있는 것은 이 장면의 저예산·집단·산업 버전이다. 수만 명의 엔지니어들이 동료를 증류하고, 동료의 증류에 저항하고, 저항을 증류 가능하게 만들고, 그 저항의 저항을 다시 증류한다. 스티브 잡스가, 부처가, 전 여자친구가, 상사가, 옆자리 팀원이, 그리고 자기 자신이 — 모두가 .skill 파일이 된다. 디렉토리 구조 하나가 인간 관계의 분류학이 되었다.

이 과정이 누구에게 이득인지는 여전히 불분명하다. 기업은 단기 생산성을 얻는다. 그러나 Writer와 Workplace Intelligence의 수치가 시사하듯, 조직의 신뢰 자본은 급격히 잠식되고 있다. 노동자는 anti-distill로 일시적으로 우회할 수 있다. 그러나 시간은 증류 도구의 편이다. 방어 기법은 다음 버전의 공격 훈련 데이터가 된다.

남는 질문은 기술적인 것이 아니다.

인간의 어떤 부분이 회사의 자산이고, 어떤 부분이 그 사람 자신의 것인가?

20세기의 고용 계약은 이 질문에 암묵적으로 답했다. 업무 시간 내의 산출물은 회사, 그 외의 것은 본인. 그러나 암묵지가 추출 가능해지고 인격이 파일로 직렬화 가능해진 2026년, 그 경계선은 더 이상 자명하지 않다. 중국의 colleague-skillanti-distill 전쟁은 이 경계선이 국회에서의 법 개정이 아니라 GitHub의 스킬 파일 한 줄씩으로 재협상되고 있음을 보여준다. 판례는 이 속도를 따라잡지 못한다.

공각기동대의 쿠사나기 모토코가 인형사에게 던졌던 마지막 질문을 살짝 바꿔 적어본다.

“당신의 고스트는, 그 .skill 파일 속 어디에 있는가?”

그리고 더 중요한 질문.

“당신이 그 질문을 던지는 지금 이 순간조차, 누군가의 훈련 데이터가 되고 있는 건 아닌가?”

이 재협상의 결과는, 조만간 상하이의 사무실 파티션을 건너 도쿄 시오도메와 서울 판교의 회의실에도 도달할 것이다. 도착했을 때 그 자리에서 우리가 어떤 경계선을 그리고 있을지는, 지금부터 준비한 사람에게만 주어지는 선택지다.


출처

  • MIT Technology Review, “Chinese tech workers are starting to train their AI doubles—and pushing back” (2026-04-20)
  • 新浪科技, “这届打工人,白天给AI投毒,晚上蒸馏老板” (2026-04-14)
  • South China Morning Post, “Colleague Skill: AI job fears in China set off viral spread” (2026-04)
  • MIT Technology Review 日本語版 (2026-04)
  • titanwings/colleague-skill (GitHub 원본 저장소)
  • leilei926524-tech/anti-distill (GitHub)
  • therealXiaomanChu/ex-skill (GitHub)
  • Koki Xu, “Anti-distill Skill: How to avoid being distilled into a skill by your company” — Substack, kokimemo (2026-04-04)
  • 七牛云 기술 블로그, “GitHub 蒸馏 Skills 合集, 四大场景 21 个 skills” (2026-04)
  • Writer × Workplace Intelligence 공동 보고서 (2026)
  • Gallup, AI 감정 지표 Z세대 조사 (2025-2026)