롱텀이즘이 무엇이고 왜 한국 개인에게 더 무서운가 — 철학적 원전부터 10년 프로젝트 가이드까지 2026-05-03 갱신 | 작성자: 원스 (Wons) | 분야: 시간 전략 / 미·중 AI 경쟁 분석 "AI 거품보다 무서운 건 롱텀이즘이다"라는 말이 작년 말부터 자주 보입니다. 듣기엔 추상적이지만 그 안에 정확한 학문적 정의가 있어요. 롱텀이즘(Long-termism)은 William MacAskill 옥스퍼드 교수가 2022년 책 "What We Owe the Future"에서 정립한 윤리·전략 프레임 입니다. 미국과 중국의 AI 투자 패턴을 이해하려면 이 정의에서 시작해야 합니다. 그 위에서 한국 개인이 무엇을 할 수 있는지가 따라옵니다. 출발점은 와이스트릿의 이경일 대표 인터뷰였지만, 이 글은 영상 요약이 아닙니다. 롱텀이즘의 학문적 원전 + 미·중의 실제 투자 데이터 + 한국 개인의 10년 프로젝트 실전 가이드 로 구성한 노트예요. AI 버블의 데이터적 진단은 별도 글에서 다뤘으니, 이번에는 "버블 너머의 시간 전략"에 집중합니다. 먼저, 롱텀이즘의 정확한 학문적 정의 MacAskill의 정의(2022)는 다음과 같습니다. "먼 미래의 더 많은 사람들에게 영향을 미치는 행동이 가까운 미래의 더 적은 사람들에게 영향을 미치는 행동보다 윤리적으로 우선한다" . Effective Altruism 운동 의 한 분파로 발전했고, 옥스퍼드의 Future of Humanity Institute (닉 보스트롬 설립)와 깊이 연결돼 있습니다. 핵심 주장이 두 가지예요: "인류 역사의 99.9%는 아직 일어나지 않았다" — 호모 사피엔스가 30만 년 살았지만, 평균 종 수명은 100만 년. 미래 인류가 과거·현재 인류보다 압도적으로 많을 것이라는 가설. ...