AI 시대, 질문하는 법이 달라졌다 — 프롬프트가 바꾼 사고의 지형
AI 시대, 질문하는 법이 달라졌다 — 프롬프트가 바꾼 사고의 지형
Claude Code를 쓰기 시작한 뒤, 나는 문장이 길어졌다. 코드를 짜달라고 말하기 전에 내가 무엇을 원하는지 정리하는 시간이 늘었다. 그리고 어느 날 서점에서 시집을 집어 들었다. AI는 나의 사고를 비추는 거울이 되었다.
1. 나는 문장이 길어졌다
변화를 알아챈 건 사소한 순간이었다.
Claude Code에 작업을 지시하려고 프롬프트를 쓰는데, 한 문장으로 끝나지 않았다. “이 파일 리팩터링해줘”라고 치려다 손이 멈췄다. 리팩터링의 방향이 뭔지, 어떤 제약 조건이 있는지, 최종 결과물이 어떤 모습이어야 하는지 — 내가 먼저 정리하지 않으면 돌아오는 답이 쓸모없다는 걸 몇 번의 실패로 배웠기 때문이다.
AI에게 모호하게 물으면 모호한 답이 돌아온다. “적당히 고쳐줘”라고 하면 AI는 정말 “적당히” 고친다. 내가 원하는 것이 무엇인지 나 자신도 모르면서 AI에게 답을 기대하는 것이 얼마나 무모한 일인지, 프롬프트 창 앞에서 처음으로 자각했다.
그래서 문장이 길어졌다. 코드를 짜는 시간보다 질문을 정리하는 시간이 늘었다. 처음에는 비효율이라 생각했다. 예전에는 바로 키보드를 두드리며 코드부터 짰는데, 이제는 멍하니 앉아서 내가 뭘 만들려는 건지 생각부터 한다. 그런데 이상하게도, 이 “비효율”이 결과물의 질을 높였다. 프롬프트를 정교하게 쓸수록 AI의 출력이 정확해졌고, 무엇보다 내가 만들고 싶은 것이 내 안에서 명확해졌다.
이 경험이 나만의 것인지 궁금했다. 다른 개발자, 다른 AI 사용자도 비슷한 변화를 겪고 있는 걸까?
2. 프롬프트 리터러시 — 질문이 곧 사고다
Andrej Karpathy가 2023년에 던진 한 마디가 있다.
“The hottest new programming language is English.”
농담처럼 들리지만, 이 말은 정확하다. AI 시대에 가장 중요한 프로그래밍 능력은 자연어로 의도를 정확하게 전달하는 능력이다. 변수명을 잘 짓는 것, 함수를 깔끔하게 분리하는 것 — 이런 전통적 코딩 미덕이 이제 프롬프트 작성이라는 영역으로 확장되었다.
이것은 낯선 개념이 아니다. 프로그래머라면 누구나 아는 **러버덕 디버깅(Rubber Duck Debugging)**이 있다. 고무 오리 인형 앞에서 버그를 설명하다 보면 스스로 답을 찾게 된다는 그 기법. 러버덕 디버깅의 핵심은 설명하는 행위 자체가 메타인지(metacognition) — 자기 사고에 대한 사고 — 를 활성화한다는 데 있다.
AI에게 프롬프트를 쓰는 행위는 러버덕 디버깅의 강화 버전이다. 고무 오리는 대꾸하지 않지만, AI는 대꾸한다. 그것도 때로는 날카롭게. “당신의 요구사항이 모순됩니다”라거나 “이 부분이 명확하지 않습니다”라는 피드백이 돌아올 때, 프롬프트를 다시 읽게 되고, 내 사고의 허점을 발견하게 된다.
2024년 ACM CHI 학회에서 발표된 논문은 이 현상을 학술적으로 포착했다. 연구진은 생성형 AI와의 상호작용이 사용자에게 “meta-awareness and ambiguity tolerance” — 메타인식과 모호성 감내력 — 을 요구한다고 분석했다. AI의 출력이 항상 정확하지 않다는 것을 알기에 사용자는 비판적으로 검토해야 하고, 자신의 질문이 충분히 명확했는지 되돌아봐야 한다. 이 과정 자체가 인지적 훈련이 된다.
Mitchell Hashimoto(HashiCorp 창업자)는 AI 코딩 도구를 사용하면서 작업을 분해하는 능력이 핵심이 되었다고 말했다. 큰 문제를 작은 단위로 쪼개고, 각 단위의 기대 결과를 명확히 정의하고, 순서를 설계하는 것 — 이것이 AI 시대의 프로그래밍이다. 코드를 직접 치는 것보다 아키텍처를 사고하는 것이 더 중요해졌다.
질문하는 법이 곧 사고하는 법이다. 프롬프트는 AI에게 보내는 명령이 아니라, 자기 사고를 구조화하는 도구다.
3. AI는 거울이다 — Cognitive Mirror
스탠퍼드 철학자 Shannon Vallor는 2024년 저서 The AI Mirror에서 이렇게 썼다.
“AI is a mirror that can show us what we are now, but it cannot tell us who we might become.” — AI는 지금의 우리를 보여주는 거울이지만, 우리가 무엇이 될 수 있는지는 말해주지 못한다.
이 비유가 정확히 내 경험과 겹친다. 모호한 프롬프트를 쓰면 모호한 결과가 돌아온다. 논리적으로 치밀한 프롬프트를 쓰면 정교한 결과가 돌아온다. AI의 출력 품질은 나의 사고 품질을 그대로 반영한다. 거울 앞에 선 사람의 모습이 거울에 비치듯이.
Psychology Today는 이 현상을 분석하면서, AI와의 대화가 **“내면의 인지적 지도(internal cognitive map)“**를 생성하는 효과가 있다고 보도했다. 챗봇에게 자신의 생각을 설명하는 과정에서, 스스로도 인식하지 못했던 사고의 구조와 편향이 드러난다는 것이다.
2025년 Frontiers in Artificial Intelligence에 발표된 논문은 이를 “Cognitive Mirror” 프레임워크로 공식화했다. 이 프레임워크에 따르면, AI 시스템은 인간의 인지 패턴을 반사(reflect)하는 동시에 증폭(amplify)한다. 명확한 사고는 더 명확하게, 혼란스러운 사고는 더 혼란스럽게 돌아온다.
여기서 중요한 것은 거울의 한계를 아는 것이다. Vallor가 경고하듯, AI 거울은 현재의 나를 비출 뿐이다. 미래의 가능성, 아직 형성되지 않은 아이디어, 직관의 영역 — 이것들은 거울에 비치지 않는다. AI가 보여주는 것은 내가 이미 언어로 표현할 수 있는 것의 범위다. 그 너머는 여전히 인간의 몫이다.
그러니 프롬프트를 잘 쓰려는 노력은 단순한 기술 습득이 아니다. 자기 사고의 품질을 높이려는 노력이고, 거울에 비친 자신의 모습을 더 선명하게 만들려는 시도다.
4. 개발자가 시집을 읽기 시작했다
나에게 일어난 가장 예상 밖의 변화는 이것이다. 시집을 읽기 시작했다.
20년간 기술 문서와 코드를 읽어온 엔지니어가, 어느 날 서점에서 윤동주의 시집을 집어 들었다. 철학 입문서를 사고, 외국어 학습에 시간을 쏟기 시작했다. 처음에는 내가 왜 이러는지 몰랐다. 번아웃인가? 중년의 위기인가?
나중에야 깨달았다. AI와 대화하면서 언어의 정밀도에 민감해진 것이다. 같은 뜻이라도 어떤 단어를 선택하느냐에 따라 AI의 응답이 달라진다. “빠르게”와 “효율적으로”는 다르고, “간단하게”와 “핵심만”은 다르다. 단어 하나의 뉘앙스가 결과를 바꾼다. 이 경험이 언어 자체에 대한 감수성을 깨운 것이다.
그런데 이런 변화가 나만의 것이 아니라는 증거가 곳곳에서 나타나고 있다.
AI 학습 데이터 기업 Scale AI와 Appen은 시인과 창작 작가를 시간당 $50로 고용하고 있다. AI 모델의 언어적 품질을 평가하고 개선하기 위해서다. 소프트웨어 엔지니어가 아니라 시인이 AI 시대의 핵심 인력이 되고 있다는 사실은 시사적이다. 기계가 더 잘 말하게 만들려면, 사람이 먼저 잘 읽을 줄 알아야 한다.
코넬대학교의 Laurent Dubreuil 교수는 AI가 인문학의 질적 기준선을 재설정하고 있다고 분석했다. AI가 평범한 수준의 에세이, 시, 분석을 쏟아내는 시대에, 인간의 글쓰기와 사고가 가치를 갖으려면 AI가 도달하지 못하는 깊이를 가져야 한다. 역설적으로, AI의 등장이 인문학적 역량의 가치를 높이고 있는 것이다.
개발자 커뮤니티에서도 이런 대화가 늘고 있다. “AI가 코드를 대신 짜주는 시대에, 개발자의 정체성은 어디에 있는가?” “코드를 치는 기술자(coder)에서 시스템을 설계하는 건축가(architect)로, 그리고 문제를 정의하는 사상가(thinker)로의 전환.” 장인정신(craftsmanship)과 창작의 의미에 대한 논의가 활발하다.
시를 읽는 개발자. 철학을 공부하는 엔지니어. AI 시대에 이것은 취미가 아니라 핵심 역량의 확장일 수 있다.
5. 반론 — AI가 사고를 퇴화시킨다?
여기서 불편한 질문을 피할 수 없다. AI가 정말 사고를 깊게 만드는가? 반대로, 사고를 퇴화시키는 것은 아닌가?
2025년 11월 Harvard Gazette는 **“cognitive atrophy(인지적 근육 위축)“**를 경고하는 기사를 실었다. AI에 의존할수록 스스로 생각하는 능력이 줄어든다는 것이다. 계산기의 등장 이후 암산 능력이 저하된 것과 같은 패턴이, 이번에는 비판적 사고와 창의성 영역에서 일어나고 있다고 경고한다.
2026년 1월 발표된 Anthropic의 자체 연구는 더 구체적이다. AI 코딩 도구를 사용하는 개발자의 코드 이해도가 17% 하락했다는 결과를 보여주었다. AI가 생성한 코드를 개발자가 충분히 이해하지 못한 채 사용하고 있다는 뜻이다. AI를 만드는 회사가 스스로의 제품에 대해 이런 경고를 발표했다는 점에서 무게감이 있다.
MIT Media Lab의 뇌 모니터링 연구도 주목할 만하다. AI를 활용해 글을 쓴 참가자 중 상당수가 1시간 후 자신이 쓴 내용을 정확히 기억하지 못했다. AI가 작성한 부분과 자신이 작성한 부분의 경계가 흐려지고, 자기 것이 아닌 텍스트에 대한 기억이 빠르게 소실되었다.
여론 조사도 이런 우려를 반영한다. Pew Research Center가 2025년 6월에 발표한 조사에서 **미국인의 53%**가 AI가 인간의 창의적 사고를 악화시킬 것이라고 응답했다.
이 데이터들은 무시할 수 없다. AI가 사고를 깊게 만든다는 나의 경험과 정면으로 충돌한다. 어떻게 이해해야 할까?
핵심은 **“어떻게 사용하느냐”**에 있다.
**Delegation(위임)과 Engagement(참여)**의 차이다. AI에게 생각을 위임하면 — “알아서 해줘”, “적당히 써줘” — 인지적 근육은 약해진다. 하지만 AI를 사고의 파트너로 참여시키면 — 자기 생각을 정리하고, AI의 출력을 비판적으로 검토하고, 피드백을 주고받으며 개선하면 — 인지적 근육은 오히려 강화된다.
같은 도구가 사람에 따라, 사용법에 따라 정반대의 효과를 낳는다. 이것은 AI에만 해당하는 이야기가 아니다. 인터넷도, 소셜 미디어도, 스마트폰도 같은 패턴이었다. 도구는 중립이고, 사용자의 의도가 결과를 결정한다.
6. 패턴을 찾아서 — 이 경험을 하는 사람들
AI와의 관계에서 의식적으로 사고를 깊게 가져가는 사람들의 패턴이 보이기 시작했다.
크게 두 부류가 있다. “먼저 쓰고 AI로 다듬는” 사람과 “AI에게 바로 시키는” 사람이다. 전자는 자기 생각을 먼저 언어로 정리한 뒤 AI를 편집자나 비평가로 활용한다. 후자는 처음부터 AI에게 결과물을 생성하게 한다. 인지적 효과는 극적으로 다르다. 전자는 사고의 주도권을 유지하고, 후자는 사고의 주도권을 넘겨준다.
Simon Willison(Django 핵심 개발자, LLM 도구 전문가)은 명확한 원칙을 세웠다. “AI가 절대 자기 목소리(my voice)로 말하게 하지 않는다.” AI를 리서치와 초안 작성에 활용하되, 최종적으로 독자에게 전달되는 모든 문장은 자기 손으로 쓴다. 이 원칙은 AI를 도구로 유지하면서 자기 사고와 표현의 정체성을 지키겠다는 선언이다.
Darius Foroux(작가, 생산성 전문가)는 더 직설적이다. “I want to out-human AI writing.” — AI의 글쓰기를 이기고 싶다, 더 인간적으로. AI가 쓸 수 없는 수준의 경험, 감정, 통찰을 담은 글을 쓰는 것이 목표라고 했다. AI의 등장이 오히려 자기 글쓰기의 기준을 높였다는 것이다.
Wharton 경영대학원의 Ethan Mollick 교수는 다른 접근을 권한다. “Just do stuff with AI for about 10 hours.” — 일단 10시간 정도 AI로 이것저것 해보라. 판단은 그 뒤에 하라. 이론적 분석이나 윤리적 논쟁 이전에, 직접 체험해야 자기만의 사용법을 찾을 수 있다는 것이다. 10시간의 실험이 100시간의 토론보다 낫다.
이 세 사람의 접근은 다르지만 공통점이 있다. AI를 자기 사고의 확장으로 사용하지, 대체로 사용하지 않는다는 것. 주도권은 항상 인간에게 있다.
통계적으로도 이 현상은 무시할 수 없는 규모다. 2025년 기준 **미국 성인의 52~56%**가 AI를 사용하고 있으며, **30세 미만에서는 76%**에 달한다. AI와의 상호작용이 사고에 미치는 영향은 더 이상 일부 얼리어답터만의 이야기가 아니라, 인구 전체에 영향을 미치는 문화적 전환이다.
7. 언어와 사고 — 사피어-워프 가설의 AI 버전
여기서 한 걸음 더 나아가보자. AI와의 대화가 사고를 변화시킨다면, 이것은 언어가 사고를 형성한다는 오래된 가설과 연결되지 않을까?
**사피어-워프 가설(Sapir-Whorf Hypothesis)**은 우리가 사용하는 언어가 우리의 사고 방식을 형성한다는 주장이다. 강한 버전(언어가 사고를 결정한다)은 학계에서 대체로 부정되지만, 약한 버전(언어가 사고에 영향을 미친다)은 여러 연구에서 지지를 받고 있다. 예를 들어, 시간을 수평으로 표현하는 영어 화자와 수직으로 표현하는 중국어 화자는 실제로 시간에 대한 공간적 인지가 다르다.
흥미로운 것은 이 가설이 프로그래밍 언어에도 적용된다는 주장이다. APL의 창시자 Kenneth Iverson은 1979년 튜링상 수상 강연에서 **“Notation as a Tool of Thought”**라는 제목으로, 표기법(notation)이 사고의 도구라고 역설했다. 프로그래밍 언어의 구조가 프로그래머의 사고 패턴을 형성한다는 것이다. Lisp 프로그래머는 재귀적으로 사고하고, SQL 프로그래머는 집합적으로 사고하고, Haskell 프로그래머는 타입 시스템으로 사고한다.
그렇다면 AI와의 대화는 어떤가? 프롬프트를 쓰는 것은 새로운 “언어”를 배우는 것과 유사하지 않을까?
AI에게 말할 때 우리는 독특한 방식으로 사고를 구조화한다. 맥락을 먼저 제공하고, 제약 조건을 명시하고, 기대 결과를 정의한다. 이것은 일상적 대화와도 다르고, 코드 작성과도 다르고, 에세이 쓰기와도 다른 — 새로운 종류의 언어적 행위다. 이 새로운 언어적 행위가 우리의 사고 패턴을 변화시키고 있다면, 사피어-워프 가설의 현대적 변주가 일어나고 있는 것이다.
옥스퍼드 철학자 Luciano Floridi는 AI 시대의 인식론적 변화를 분석하며 두 가지 개념을 제시했다. 하나는 “semantic pareidolia” — 의미의 변상증이다. 구름에서 사람 얼굴을 보듯, AI의 출력에서 실제로는 없는 이해와 의도를 읽어내는 인간의 경향. 다른 하나는 “onlife” — 온라인과 오프라인의 경계가 사라진 삶의 형태. AI와의 대화가 일상이 된 시대에, 사고와 언어와 기술의 경계가 녹아내리고 있다.
내가 AI를 쓰면서 시집과 철학에 관심을 갖게 된 것, 외국어 학습에 시간을 쓰기 시작한 것 — 이것은 어쩌면 새로운 “언어”를 배우는 과정에서 언어 자체에 대한 감수성이 깨어난 결과일지 모른다. 프롬프트라는 새로운 언어적 실천이, 언어의 본질에 대한 탐구로 이어진 것이다.
8. AI 시대에 인간이 길러야 할 능력
지금까지의 탐구를 정리하면, AI 시대에 인간에게 요구되는 능력의 지형이 보인다.
첫째, 메타인지(Metacognition)다. 자기 사고를 관찰하고, 구조화하고, 평가하는 능력. AI에게 좋은 프롬프트를 쓰려면 먼저 자기가 무엇을 원하는지 알아야 한다. “내가 진짜 풀려는 문제가 뭐지?”라는 질문을 스스로에게 던질 수 있는 능력. 이것이 AI 시대의 가장 기본적인 역량이다.
둘째, 질문의 기술이다. 답은 AI가 줄 수 있다. 하지만 질문은 인간만이 할 수 있다. 어떤 질문을 던지느냐가 어떤 답을 얻느냐를 결정한다. 좋은 질문은 좋은 답보다 희소하고, 따라서 더 가치 있다. AI 시대에 가치의 원천은 답이 아니라 질문이다.
셋째, 인문학적 감수성이다. 시, 철학, 언어, 역사 — 이것들은 AI 시대에 “소프트 스킬”이 아니라 **“코어 스킬”**이다. AI가 평균적인 코드, 평균적인 글, 평균적인 분석을 순식간에 생성하는 시대에, 인간의 차별적 가치는 AI가 도달하지 못하는 깊이에서 나온다. 그 깊이는 기술 문서만 읽어서는 닿을 수 없는 곳에 있다.
Scale AI가 시인을 고용하고, 개발자들이 철학을 공부하고, AI 연구자들이 인문학의 가치를 재발견하는 현상 — 이 모든 것이 같은 방향을 가리킨다. 기계가 더 인간적으로 될수록, 인간은 더 인간적이어야 한다.
돌아보면, Claude Code와의 작업이 내게 가르쳐준 것은 코딩 기법이 아니었다. 내 사고의 형태였다.
모호한 질문을 던지면 모호한 답이 돌아오고, 정교한 질문을 던지면 정교한 답이 돌아온다. 이 단순한 피드백 루프가 나를 변화시켰다. 문장이 길어졌고, 생각을 정리하는 시간이 늘었고, 언어에 대한 감수성이 깨어났고, 시집과 철학과 외국어에 손이 갔다.
AI가 거울이라면, 중요한 것은 거울의 해상도가 아니라 거울 앞에 선 사람의 깊이다. 거울은 더 선명해지고 있다. 우리는?
Shannon Vallor의 말을 빌리자면, AI 거울은 지금의 우리를 보여줄 뿐, 우리가 무엇이 될 수 있는지는 말해주지 못한다. 그 가능성은 거울 밖에 있다. 프롬프트 창을 닫고 서점으로 걸어가는 그 걸음 속에, 시집의 한 행을 느리게 읽는 그 시간 속에, AI가 보여줄 수 없는 미래의 자기가 형성되고 있다.
AI 시대에 가장 중요한 질문은 “AI에게 무엇을 시킬 것인가”가 아니다. **“AI 앞에서 나는 어떤 사람이 될 것인가”**다.
참고 자료
- Shannon Vallor, The AI Mirror (2024) — AI를 인간 자기인식의 거울로 보는 철학적 프레임워크
- Andrej Karpathy — “The hottest new programming language is English” (2023)
- ACM CHI 2024 — GenAI 사용자의 메타인지와 모호성 감내력에 관한 논문
- Frontiers in Artificial Intelligence (2025) — “Cognitive Mirror” 프레임워크 논문
- Harvard Gazette (2025.11) — AI 시대의 “cognitive atrophy” 경고
- Anthropic (2026.1) — AI 코딩 도구 사용 개발자의 코드 이해도 17% 하락 연구
- MIT Media Lab — AI 활용 글쓰기와 기억 소실에 관한 뇌 모니터링 연구
- Pew Research Center (2025.6) — AI가 창의적 사고에 미치는 영향에 대한 미국인 인식 조사
- Kenneth Iverson, “Notation as a Tool of Thought” (1979 튜링상 강연)
- Luciano Floridi — “semantic pareidolia”와 “onlife” 개념
- Simon Willison — AI 사용 시 자기 목소리 유지 원칙
- Ethan Mollick — “Just do stuff with AI for about 10 hours”
- Mitchell Hashimoto — AI 시대의 작업 분해 능력
- Darius Foroux — “I want to out-human AI writing”