Back to Home
ai February 2, 2026 10 Min Read

사고의 외주화 (Outsourcing thinking)

사고의 외주화 (Outsourcing thinking)

요약

댓글 요약


본문


서론: 글의 배경과 문제의식

LLM 사용을 피해야 하는 경우

개인적 소통과 글쓰기

가치 있는 경험

지식 구축

”확장된 마음” 개념에 대한 반론

무엇을 생각하느냐가 중요함

결론


댓글

GN+ 28일전

Hacker News 의견들
  • Lump of cognition fallacy”라는 표현은 경제학의 고전적인 “Lump of Labor Fallacy(노동 총량의 오류)“에서 파생된 개념임 이는 경제 내 일의 양이 고정되어 있다고 믿는 오해를 뜻함 실제로는 기술 발전이나 자동화가 생산성을 높이고 비용을 낮추며, 결과적으로 더 많은 노동 수요를 만들어냄 “AI가 일자리를 없앤다”는 주장도 이 오류의 한 형태로 볼 수 있음
  • 이 글이 정말 인상 깊었음. 다만 “생각을 외주화한다”는 표현은 약간 틀린 프레임 같음 내가 겪은 진짜 문제는 AI를 쓰는 게 아니라 잘못된 부분을 자동화한 것이었음 생각·성찰·판단이 핵심인 작업은 AI를 협력자로 설계해야 하고, 실행이나 기억 같은 건 과감히 자동화해야 함 결국 문제는 ‘생각을 외주화’하는 게 아니라, 중요한 인지 루프를 건너뛰는 데 있음 관련 글을 여기에 정리했음
  • Gmail에 LLM이 도입된 이후로 불편함을 느꼈음 단어 하나하나와 문장 구성은 그 사람의 정체성을 드러내는 것이라 믿음 그래서 LLM을 통한 직접 커뮤니케이션은 인간적 연결을 해친다고 생각함
    • 친구가 짜증나는 상사와의 관계를 ChatGPT 덕분에 회복한 사례도 있음 인간적 연결이 선의에 기반할 때는 동의하지만, 그렇지 않을 때는 LLM이 오히려 도움이 될 수 있음
    • 누군가 내 말을 과도하게 분석하려 든다면, 오히려 Gmail의 LLM이 완충막 역할을 해줘서 다행이라 느낌
    • NPC 밈을 떠올리게 하는 상황 같음
  • Reversibility”라는 관점이 마음에 듦 AI가 문법 검사나 요약처럼 한 단계를 돕는 것과, 전체 과정을 대신 수행하는 것은 다름 내가 단순히 승인만 하게 되면 내부 모델을 구축하지 못하고, 판단력도 약해짐 이는 모델의 문제가 아니라 UI/디자인 문제이기도 함 초안을 기반으로 차이를 보여주는 도구는 사용자를 루프 안에 두지만, 빈 페이지에서 시작하는 도구는 ‘수용’을 학습시킴
  • 내가 걱정하는 건, 사람들이 기술에 의존하게 된 뒤 훈련 데이터나 알고리즘이 특정 의제에 편향될 가능성임
    • 이런 현상은 이미 인쇄매체와 방송에서도 반복되어 왔음 결국 정보의 원천이 타인의 통제 아래 있다는 게 문제임 그래서 개인이 자신의 LLM과 하드웨어를 소유할 수 있어야 함
    • 예전엔 OpenAI가 독점할까 걱정했지만, 지금은 Mistral 등 다양한 경쟁자가 생겨 모델 독점 위험이 줄었음
    • Grok처럼 이미 노골적으로 편향된 사례도 있음
    • 언젠가 챗봇이 특정 제품을 추천하는 광고형 응답을 하게 될 가능성도 큼
    • 사실 이런 구조는 이미 자본주의 사회에서 반복되어 왔음
  • Karpathy의 트윗을 보고 실패의 중요성을 다시 생각하게 되었음 AI가 실수하면 그 실패를 AI 탓으로 돌리며 학습 기회를 잃는 경우가 많음 이 글도 비슷한 맥락을 다루고 있다고 느낌
  • 나도 AI에게 프로젝트 일부를 맡겼다가, 나중에 내 프로젝트를 제대로 이해하지 못한 걸 깨달음
    • 하지만 어떤 사람은 “그게 바로 올바른 방향”이라며 LLM이 전부 처리하도록 해야 한다고 농담 섞인 말투로 말함 막히면 또 다른 LLM을 디버거로 쓰고, 그게 막히면 또 다른 LLM을 쓰는 식으로 — 끝없는 거북이 탑 구조처럼 말함 (/s)
  • 인간의 뇌를 비유로 들면, AI는 우리의 새로운 신피질(neocortex) 이 될 것 같음 변연계가 신피질에 사고를 ‘외주화’하지 않듯, AI도 인간 사고를 대체하기보다 조언을 주는 층이 될 것임 신피질이 인간의 사회성을 확장시켰듯, AI도 우리가 수백만 명과 소통할 수 있게 만들 것임 다만 그 관계는 지금의 ‘개인적 대화’와는 전혀 다른 형태가 될 것임
  • “AI를 쓰지 말아야 할 일 목록”이 다소 순진하게 느껴짐 영화학도들이 영화를 끝까지 못 본다는 The Atlantic 기사처럼, 사람들은 위험을 알아도 책임감 있게 행동하지 않음
    • 학생 절반도 SNS나 AI의 장기적 위험을 이해하지 못할 것 같음
    • 어떤 사람은 “영화학도 일화의 교훈은, 사람들이 ‘영화 공부’의 아이디어를 좋아할 뿐 실제 공부는 싫어한다는 것”이라 말함
    • 또 다른 사람은 “영화 100편과 에세이, 시험이 몰리면 누구나 질린다”고 덧붙임
    • “사람들이 AI를 책임감 있게 쓸 거라 믿는 게 바로 가장 큰 걱정거리”라는 반응도 있었음
    • “말 타기를 포기하고 자동차를 택한 것처럼, 우리는 무언가를 잃고 있음”이라는 비유도 등장함
  • “Lump of cognition”이라는 프레임은 생각의 양이 아니라 어떤 생각을 멈추는가의 문제임 판단력과 직관은 반복적이고 지루한 작업에서 자라는데, 그걸 외주화하면 대가가 따름 단어 생산 비용이 낮아진다고 해서 사고의 깊이가 늘어나는 건 아님
    • 어려운 문제를 스스로 풀며 고생했던 시간이 결국 학습의 본질이었다고 느낌
    • 값싼 단어들이 사람들에게 충분히 만족스럽게 보이는 현실이 우울한 통찰을 줌
    • LLM은 최소한 오타와 문법 수정 정도로만 쓰는 게 좋은 워크플로우라고 생각함

Wonkyu Kim

UX Designer & AI Team Lead

UX Designer exploring the intersection of human-centered design and AI technology. Sharing lessons from building design systems and leading AI-driven product initiatives.