AI와 전쟁 ⑤ 왜 이 선이 필요한가 - 개발자, 신학자, 시민단체가 앤트로픽을 지지한 이유
OpenAI와 구글, 구글 딥마인드의 개발자들, 가톨릭 도덕 신학자들, 그리고 ACLU 같은 시민자유 단체. 출발점도 언어도 다른 이들이 결국 같은 결론에 도달합니다. “앤트로픽이 그은 선은 필요하다.” 디프레임은 그중 “왜 이 선이 필요한가”를 각자의 관점에서 논증한 의견서들을 읽었습니다.
법원에 제출된 의견서들은 단순한 응원이 아니다. 미국 법원에는 ‘법정 조언자 의견서(amicus curiae brief)’라는 제도가 있다. 소송 당사자가 아닌 제3자가 사건의 의미와 파급력을 자신의 관점에서 법원에 문서로 전달하는 절차다. 한국 법원에는 없는 제도이고, 미국에서는 누가 어떤 논리로 의견서를 냈는지가 사건의 무게를 가늠하는 지표가 된다.
경쟁사 개발자 37명, “이건 이념이 아니라 기술적 판단이다”
앤트로픽이 소송을 제기한 당일인 3월 9일, OpenAI·구글·구글 딥마인드 소속 엔지니어·연구자·과학자 37명이 개인 자격으로 캘리포니아 연방법원에 의견서를 냈다. 구글의 수석 과학자(Chief Scientist) 제프 딘(Jeff Dean)도 서명자에 이름을 올렸다. 앤트로픽의 경쟁사 직원들이 경쟁사를 지지하는 문서에 이름을 올린 것이다.
정부가 앤트로픽을 공급망 위험으로 지정한 것은 부적절하고 자의적인 권한 행사로, 우리 산업 전체에 심각한 파급 효과를 미친다.
이들의 논리는 이렇다. 오늘날의 AI는 그럴듯한 거짓말을 지어내는 ‘환각(hallucination)’ 문제가 있다. 모델이 왜 그런 답을 내놓았는지는 그 모델을 만든 개발자조차 설명하지 못한다. 무엇보다도 사람의 목숨이 걸린 상황에서 저지른 실수는 되돌릴 수 없다. 그렇기 때문에 앤트로픽이 자율살상무기와 미국 내 대량 감시에 선을 그은 것은 이념이 아니라, 기술적 현실에 따른 판단이라는 것이다.
현재 최고 수준의 AI 시스템도 완전 자율적인 치명적 표적 선정을 안전하고 신뢰할 수 있게 수행할 수 없으며, 미국 시민에 대한 대규모 국내 감시에 사용돼서는 안 된다.
이들이 의견서에서 든 비유도 인상적이다. “어린이 세발자전거를 물리적으로 고속도로에서 탈 수는 있다. 하지만 그 환경에서 그 기술을 사용하는 위험 때문에 우리는 허용하지 않는다. 대규모 국내 감시와 자율살상무기 시스템은 오늘날의 최신 AI 모델에게 그에 상응하는 무모한 영역이다.”
개발자들은 AI 대량 감시 시스템이 사람의 행동 자체를 바꿔놓는다는 점을 특히 강조했다. 의견서에 따르면, AI 대량 감시 시스템은 카메라, 위치 데이터, 거래 내역, 소셜 네트워크, 데이터 중개 정보를 하나로 결합해 실시간 인구 모니터링 도구를 만들 수 있다. 이들은 이를 ‘판옵티콘 효과’라고 불렀다. 감시 시스템이 존재한다는 사실 자체가, 실제로 감시당하지 않더라도 사람들의 행동을 바꾼다. 예를 들어 기자는 군 내부 소식통에게 연락하기 전에 한 번 더 생각하게 되고, 내부고발자는 입을 닫게 된다.
이들은 현행 법의 공백도 짚었다. 미국에는 군사·정보기관의 AI 사용을 실질적으로 규제하는 연방법이 없다. 이 공백 상황에선 AI 기업이 자사 제품에 스스로 거는 용도 제한이 사실상 유일한 안전장치다.
가톨릭 도덕 신학자 14명, “기술이 완벽해져도 이 선은 필요하다”
3월 13일에는 미국 가톨릭 대학들의 도덕 신학자와 윤리학자 14명이 캘리포니아 연방지방법원에 의견서를 냈다. 사흘 뒤에는 같은 의견서를 D.C. 연방법원에도 제출했다.
앞서 개발자들은 “오늘날의 AI를 아직 신뢰할 수 없다”고 말했는데, 이 논리는 “기술이 충분히 발전하면 풀릴 수 있는 문제”로도 해석 가능하다. 하지만 신학자들은 그 여지를 닫는다. 기술이 완벽해져도 이 선은 필요하다고 주장한다.
의견서의 표현을 빌리면, 신학자들의 입장은 앤트로픽보다 “더 엄격하다(more strident).” 앤트로픽이 “현재 기술의 한계”를 근거로 제한을 걸었다면, 신학자들은 기술을 완벽히 신뢰할 수 있다고 입증되더라도 자율살상무기 사용에 반대한다.
자율살상무기에 대한 이들의 논리는 이렇다. 사람을 죽일지 말지의 판단은 데이터에서 패턴을 찾아내는 것과 본질적으로 다르다. 이 무력이 상황에 맞는지, 민간인이 보호되는지 등의 판단에는 상황마다 달라지는 인간의 숙고가 필요하다.
무력이 과도하지 않은지, 민간인이 구별되는지에 대한 판단은 단순한 패턴 매칭이 아니라 신중한 도덕적 숙고다. 그래서 인간의 개입이 필수적이다.
인간의 판단 없이는 전쟁에서의 폭력이 도덕적으로 정당화될 수 없으므로, 자율살상무기는 원천적으로 그 조건을 충족할 수 없다는 논리다.
대량 감시에 대해서는, 교황 프란치스코가 2023년 “감시 사회”의 부상을 경고하며 AI에 대한 국제 조약의 필요성을 주장한 것을 인용한다. 정부가 시민 전체를 실시간으로 감시하는 것은 인간의 존엄을 훼손하며, “알 권리가 없는 자에게 진실을 밝힐 의무는 없다”는 가톨릭 교리문답의 프라이버시 원칙에도 위배된다는 주장이다.
ACLU와 CDT, “감시 인프라는 이미 존재한다”
미국 시민자유연맹(ACLU)과 민주주의 및 기술 센터(CDT)가 3월 16일, 워싱턴 D.C. 연방법원에 공동 의견서를 제출했다. ACLU는 150만 명 이상의 회원을 가진 미국 최대 시민자유 단체이고, CDT는 30년 넘게 디지털 시대의 프라이버시와 표현의 자유를 다뤄온 기술정책 기관이다.
개발자들이 AI 대량 감시 시스템이 갖게 될 위력을 짚었다면, ACLU와 CDT는 ‘감시 인프라는 이미 작동 중이며, 미국 정부가 전부터 사용하고 있다’고 말한다.
의견서에 따르면, 미국 정부는 이미 시민의 위치 데이터, 웹 브라우징 기록, 소셜 미디어 활동을 민간 데이터 브로커로부터 대규모로 구매하고 있다. 국방정보국(DIA)은 비밀 해제 문서에서 미국 스마트폰 위치 데이터를 2년 반 동안 구매해왔다고 인정했다. 미군 특수작전사령부는 ‘Locate X’라는 도구를 구매했는데, 이 도구는 지도 위에 영역을 그리면 그 안의 모든 추적 대상 기기를 보여주고 특정 기기의 이동 경로를 따라갈 수 있게 해준다.
미국 국가정보국장실(ODNI)조차 자체 보고서에서 이렇게 인정했다. “정부가 수십억 명에게 항시 위치추적 장치를 휴대하라고 강제하거나, 대부분의 사회적 상호작용을 기록하라고 요구하는 것은 허용되지 않았을 것이다. 그런데 스마트폰, 커넥티드카, 웹 추적 기술, IoT가 바로 그 효과를 만들어냈다.”
여기에 AI가 결합되면 감시 능력이 질적으로 달라진다. 익명의 휴대폰 이동 경로에 이름을 붙이고, 여러 종류의 데이터를 통합해 한 사람의 삶을 재구성하는 일을, AI는 인간 분석관보다 빠르게, 그리고 대규모로 할 수 있다.
그래서 펜타곤이 앤트로픽에 요구한 “모든 합법적 사용(all lawful uses)” 조건이 문제가 된다. 미국의 감시 관련 법률은 수십 년 전에 만들어져 데이터 브로커를 통한 구매를 규제하지 못하고, 정부는 “합법적”의 의미를 비밀리에 확장해온 역사가 있다.
이를 뒷받침하는 사례로 의견서는 NSA의 영장 없는 도청 프로그램 StellarWind와 CIA의 고문 프로그램을 꼽았다. 두 프로그램 모두 처음에는 법무부 내부 변호사들이 비공개로 "합법"이라고 판단했다. 하지만 수년 뒤 내용이 공개되자 법원도, 의회도, 국제사회도 해당 프로그램을 불법이라 결론 내렸다.
“합법적 사용”이라는 단어 자체가 보호장치가 되지 못하는 상황에서, AI 기업이 자사 기술에 거는 제한이 사실상 현재 유일한 실질적 안전장치라는 것이 의견서의 결론이다.
같은 결론, 다른 출발점
세 그룹은 서로 다른 곳에서 출발해 같은 결론에 도달한다. 기술적으로 안 된다(개발자), 도덕적으로도 안 된다(신학자), 이미 벌어지고 있다(시민자유 단체). 이 세 그룹의 의견서는 현재 AI의 군사적 대량 감시와 자율살상무기를 막을 법은 없고, 기술은 준비되지 않았고, 도덕적 정당성도 없다는 사실을 보여주고 있다. AI 기업이 자사 기술에 거는 제한이 사실상 유일한 안전 장치였는데, 트럼프 행정부가 그것마저 건드린 것이다.
의회도, 규제기관도, 국제기구도 아직 이 기술 앞에서 자신의 언어로 선을 긋지 못한 자리에서, 개발자와 신학자와 시민자유 변호사가 먼저 같은 자리에 모여 있다는 사실 자체가 지금의 공백을 보여준다. 이번 소송에서 그들이 지지한 것은 한 회사의 사용약관 두 줄이지만, 그 두 줄이 지금 그 자리에 서 있는 거의 유일한 선이기 때문이다.
출처
- 경쟁사 개발자 의견서 (Brief of Amici Curiae Employees of OpenAI and Google in Their Personal Capacities) — 37명 서명, 14쪽, 2026.03.09 캘리포니아 연방법원 제출
- 가톨릭 도덕 신학자·윤리학자 의견서 (Brief of Amici Curiae Catholic Moral Theologians and Ethicists) — 14명 서명, 9쪽, 2026.03.13 캘리포니아 연방법원 제출
- ACLU·CDT 의견서 (Brief of Amici Curiae American Civil Liberties Union and Center for Democracy and Technology) — 46쪽, 2026.03.16 D.C. 연방법원 제출