
2018년 4월의 어느 목요일, 구글 직원 3,100여 명이 한 장의 편지에 서명해 CEO 순다르 피차이(Sundar Pichai)에게 보냈습니다. 편지의 첫 문장은 이랬습니다.
"우리는 구글이 전쟁 산업에 뛰어들어서는 안 된다고 믿습니다."
이 편지는 구글이 미국 국방부와 체결한 '프로젝트 메이븐(Project Maven)'에 반대하는 집단행동의 출발점이었습니다. 프로젝트 메이븐은 드론 영상에 AI를 적용해 표적을 식별하는 시스템이었고, 구글은 이 프로젝트의 기술 파트너로 참여하고 있었지요. 직원들은 "우리가 만든 기술이 누군가를 살상하는 데 쓰이지 않기를 바란다"는 원칙을 들고 일어섰습니다. 결국 그해 6월, 구글은 계약을 갱신하지 않겠다고 발표했습니다. 기술 기업과 군사 산업의 관계에 관한 내부 윤리 원칙을 세우기로 한 결정이 뒤따랐지요.
그로부터 8년이 지난 2026년 2월, 저는 똑 닮은 한 장면을 다시 목격하고 있습니다. 이번에는 배우가 바뀌었습니다. 무대에 선 것은 오픈(AIOpenAI)이고, 객석에서 일어선 것은 일반 사용자들입니다.
▸ 무슨 일이 있었나
2026년 2월, 오픈(AI)는 미국 국방부 기밀망에 자사의 AI 모델을 배포하는 계약을 공식 발표했습니다. 일반 클라우드가 아닌 기밀 등급(Classified Level) 네트워크에 AI를 직접 배포하는 방식이라는 점에서 이전의 민간 클라우드 계약과는 질적으로 다른 수준의 결합이었습니다. 구체적 임무 내용은 공개되지 않았지만, 의사결정 지원·정보 분석·통신 시나리오 시뮬레이션 등 국방의 핵심 업무에 AI가 들어갈 수 있음을 암시했습니다.
이 발표가 나온 직후 몇 시간 만에, 소셜 미디어에서 #QuitGPT 해시태그가 확산되기 시작했습니다. 지지자가 불과 며칠 만에 250만 명을 넘어섰고, 앱스토어 통계에 따르면 챗GPT의 언인스톨(Uninstall) 비율이 295% 급증했습니다. 이것이 기술 기업을 상대로 한 소비자 항의 운동으로는 상당히 큰 규모입니다.
운동의 논리는 단순하면서도 묵직합니다. "내가 매일 쓰던 챗봇이 전쟁의 한가운데에도 서 있다면, 나는 그 기술을 일상에서 쓰고 싶지 않다." 오픈(AI)가 초창기에 내세웠던 '인류 전체에게 이로운 AI'라는 미션(Mission)과, 국방부 기밀망 계약의 결이 맞지 않는다는 정서가 확산의 연료가 되었습니다.
▸ 오픈(AI)의 입장 : 변화의 배경
오픈(AI)의 입장도 들어봐야 공정합니다.
원래 오픈(AI)는 2023년까지 이용 정책(Usage Policy)에 '군사(Military) 및 전쟁(Warfare)'을 명시적 금지 항목으로 두고 있었습니다. 이것이 2024년 초 조용히 수정되면서 '물리적 상해를 입히는 무기 개발 및 사용은 금지하지만, 국방 관련 활용은 허용될 수 있다'는 취지의 조항으로 바뀌었지요. 미국 국방부 및 방산 업계와의 협력은 이 시기부터 가시화되기 시작했습니다.
이번 2026년 2월의 계약은 이 흐름의 연장선상에 있습니다. 샘 올트먼(Sam Altman)은 여러 인터뷰에서 "미국의 안보와 동맹의 안전을 지원하는 것은 책임 있는 AI 기업의 역할"이라는 논리를 일관되게 펼쳐왔고, 이번 계약도 그 연장에서 설명되고 있습니다. 중국 AI의 급속한 성장과 미국 국방의 AI 도입 필요성이라는 현실적 압박도 배경에 있습니다.
이 논리를 지지하는 관점에서 보면, AI가 이미 국가 경쟁의 핵심 자산이 된 시대에 어떤 기업이든 완전히 민간에 머무르기가 어려워지고 있다는 점은 부인할 수 없습니다. 마이크로소프트, 아마존, 구글 모두 이미 다양한 형태로 국방 및 정보기관 계약을 보유하고 있지요. 오픈(AI)의 이번 결정은 이 흐름의 한 정점일 뿐 예외는 아니라는 주장도 설득력이 있습니다.
!꺼진 컴퓨터 화면 앞의 빈 의자, 창가로부터 비추는 오후의 빛
▸ 그렇지만 : 8년 전과 다른 변수들
이쯤에서 한 발 물러서서 생각해볼 것이 있습니다. 왜 2018년의 구글과 2026년의 오픈(AI)는 비슷한 상황에서 다른 선택을 했을까요.
첫째, 직원의 입장이 다릅니다. 2018년 구글의 반대 운동은 직원들이 먼저 일어섰습니다. 회사 내부의 윤리적 저항이 바깥의 항의보다 앞섰지요. 2026년 오픈(AI)에서는 이런 내부 저항이 크게 드러나지 않았습니다. 2023년 11월의 샘 올트먼 해임-복귀 소동 이후 회사의 지배구조가 상당히 재편되었고, 당시 윤리 중심이던 인물들의 상당수가 이미 회사를 떠난 상태입니다. 내부 제동장치가 약화된 것이지요.
둘째, 경쟁 환경이 다릅니다. 2018년에는 구글이 AI 분야에서 독보적이었고, 계약을 포기해도 시장 지배력에 영향이 없었습니다. 2026년에는 앤트로픽, 구글, xAI, 중국의 딥씨크까지 여러 경쟁자가 비슷한 수준의 모델을 내놓고 있습니다. 어떤 계약이든 '우리가 안 하면 경쟁사가 할 것'이라는 논리가 설득력을 갖는 구조가 되었습니다.
셋째, 사용자의 입장이 다릅니다. 2018년에 구글은 대중이 매일 사용하는 서비스였습니다. 검색과 메일. 그런데 2026년 챗GPT는 일상의 동반자에 가깝습니다. 공부, 업무, 고민 상담, 글쓰기, 코딩. 매일 수 시간을 함께 보내는 대상이지요. 이 친밀한 관계의 맞은편에 '국방부의 파트너'가 서게 되었을 때, 그 거리감이 생각보다 큽니다. '내 일기장을 읽는 AI가 군사 기밀망에서도 돌아간다'는 느낌이 사람들을 움직이게 만든 것입니다.
▸ '누구의 AI인가'라는 질문
#QuitGPT 운동이 드러낸 가장 본질적인 질문은 이것입니다. "AI는 누구의 것인가."
초기 오픈(AI)의 창업 선언은 비영리 연구소였습니다. 인류 전체의 이익을 위한 AI를 만들겠다는 미션을 내걸고 출발했지요. 일론 머스크(Elon Musk)가 초기 투자자였고, 샘 올트먼이 CEO였으며, 공익적 목적의 연구 기관이라는 정체성이 분명했습니다. 2019년 영리 자회사를 만들면서 구조가 바뀌기 시작했고, 마이크로소프트의 대규모 투자, 챗GPT의 상업적 성공, GPT-4·GPT-5로 이어지는 수익화 과정을 거치며 완전히 다른 조직이 되었습니다. 2025년 이후 사실상 상업 회사로의 전환이 가속화되었고, 2026년 현재의 오픈(AI)는 과거의 오픈(AI)와 같은 이름을 가진 전혀 다른 회사라는 평가까지 나오고 있습니다.
이 변화의 정점이 바로 이번 국방부 계약입니다. 공익 연구소에서 시작한 조직이 군사 기밀망 파트너가 되기까지 걸린 시간은 10년도 채 되지 않았습니다. 이 속도 앞에서 많은 사용자가 "내가 알던 그 회사가 맞는가"를 묻고 있는 것이지요.
▸ 한국 사용자에게 던지는 실질적 고민
한국의 기업과 개인 사용자에게 이 사건은 멀리 떨어진 미국의 일이 아닙니다. 챗GPT는 한국에서도 가장 널리 쓰이는 AI 서비스 중 하나이고, 많은 기업이 이미 챗(GPT API) 위에 내부 시스템을 구축해두었기 때문이지요. 이 상황에서 던져볼 질문이 몇 개 있습니다.
첫째, 한국 기업이 업무 시스템을 특정 회사의 AI에 강하게 종속시키는 것이 장기적으로 현명한가. 이번 사건 같은 정치·윤리적 이슈가 언제든 재발할 수 있고, 그때마다 플랫폼을 바꾸는 것은 쉬운 일이 아닙니다. 멀티 벤더(Multi-vendor) 전략과 프로토콜 기반 설계(MCP 등)의 중요성이 다시 부각되는 순간입니다.
둘째, 한국 정부가 공공 AI 계약을 맺을 때의 기준은 무엇인가. 미국 국방부와 깊이 결합된 AI를 한국의 공공 서비스가 사용하는 것이 데이터 주권 관점에서 문제는 없는가. 이번 사건을 계기로 이 질문이 정책 논의의 테이블에 올라와야 합니다.
셋째, 개인 사용자의 입장에서 대안은 실제로 존재하는가. 클로드, 제미나이, 그리고 한국어 특화 모델들. 각자의 장단점이 있고, 완벽한 대안은 없지만 선택의 자유가 있다는 사실 자체가 기술 생태계의 건강함을 지탱합니다. 한 회사에만 의존하지 않는 것이, 설령 그 회사가 가장 편리하더라도, 장기적으로 바람직한 소비자 행동이지요.
!여러 개의 같은 창문이 나란히 선 건물 외벽, 일부 창은 불이 켜져 있고 일부는 꺼져 있다
▸ 기술에는 정체성이 있다
기술은 중립이라는 말이 오랫동안 통용되어 왔습니다. 망치 하나에 선악이 없다, 쓰는 사람이 정한다는 식의 논리입니다. 저도 이 말의 기본 취지에 동의합니다. 다만 현대의 기술, 특히 AI 같은 거대 인프라 기술은 어느 회사가, 어느 목적으로, 어느 고객을 위해 만드는가에 따라 그 성격이 근본적으로 달라집니다. 같은 언어 모델도 상담 봇으로 쓰이느냐, 전투 시뮬레이션 시스템으로 쓰이느냐에 따라 완전히 다른 존재가 됩니다. 그리고 한 회사가 이 두 용도를 동시에 서비스할 때, 사용자는 자신이 어느 쪽 편에 서 있는지를 결정해야 하는 입장에 놓이게 되지요.
#QuitGPT는 이 결정을 집단적으로 표현한 사건입니다. 250만 명이 챗GPT를 삭제했다는 사실 자체는 일회성 이벤트일 수 있습니다. 많은 이들이 며칠 뒤 다시 설치할 수도 있겠지요. 하지만 이 사건이 남긴 파장은 여기에 머물지 않을 것입니다. 'AI 기업의 정체성'을 소비자가 평가한다는 감각이 뿌리내린 순간이기 때문입니다. 앞으로 모든 AI 기업은 미션과 실제 사업 사이의 간극을 줄이거나, 그 간극을 정당화할 더 나은 서사를 준비해야 할 것입니다.
▸ 떠나는 자유와 남는 자유
여러분은 어떻게 생각하시나요. 챗GPT를 지금도 쓰고 계신다면, 이번 국방부 계약 뉴스를 알고도 계속 쓰실 건가요. 아니면 클로드나 제미나이로 갈아타실 건가요. 혹은 "내 업무에는 아직 챗GPT가 가장 편해서" 쓰면서도, 속으로는 그 회사의 행보를 주시하실 건가요.
어느 쪽이든 의식적 선택이라면 존중받을 일입니다. 문제는 대안이 있다는 사실조차 모른 채, 혹은 불편하다는 이유로, 한 서비스에 머무르는 태도입니다. 2018년 구글 직원들이 일어섰을 때 그들이 지킨 것은 '기술의 선택권'이었습니다. 2026년 #QuitGPT 운동에 참여한 250만 명이 지키고자 한 것도 같은 선택권입니다.
AI를 자유자재로 다루는 인간이 그렇지 못한 인간을 대체한다는 이 책의 주장을, 저는 오늘 한 발 더 확장하고 싶습니다. AI를 의식적으로 선택하는 인간이, 그저 주어진 AI를 쓰는 인간의 자리를 대신하게 됩니다. 기술을 쓰는 것과 기술에 끌려다니는 것은 종이 한 장 차이 같아 보이지만, 이 한 장의 두께가 시대마다 사람을 나눕니다.
전체 사이트에서 댓글·관련 글을 함께 보시려면
이야기 공장에서 보기 →