
OpenAI 및 Anthropic과 같은 주요 AI 개발자는 미국 군에 소프트웨어를 판매하기 위해 세밀하게 작업 중입니다: 펜타곤이 자사의 AI가 사람을 죽이지 않고 더 효율적으로 카르달에 팔 수 있게끔 만듭니다.
오늘날 그들의 도구는 무기로 사용되고 있지는 않지만 AI는 국방부에게 위협을 식별하고 추적, 평가하는 데 “상당한 장점”을 제공하고 있다고 테크크런치와의 전화 인터뷰에서 펜타곤의 최고 디지털 및 AI 책임자인 라다 플럼박사가 말했습니다.
“명백히 우리는 지휘관들이 우리의 군대를 지키기 위해 올바른 시간에 반응할 수 있도록 킬 체인을 실행하는 방법을 더욱 빠르게 증가시키고 있습니다,”라고 플럼은 말했습니다.
‘킬 체인’은 군의 위협을 식별, 추적 및 제거하는 과정을 나타내며, 센서, 플랫폼 및 무기의 복합 시스템을 가져왔습니다. 플럼에 따르면 생성 AI는 킬 체인의 계획 및 전략 수립 단계에서 유용하게 쓰이고 있습니다.
펜타곤과 AI 개발자 간의 관계는 상대적으로 새로운 것입니다. OpenAI, Anthropic 및 메타는 2024년에 그들의 AI 시스템을 미 국가 안보기관 및 국방기관이 사용할 수 있도록 정책을 변경했습니다. 그러나 그들은 아직 자사의 AI가 사람을 상해주지 않는 것을 허용하지는 않습니다.
플럼이 ‘펜타곤이 AI 모델 제공 업체와 어떻게 협업하는지’라고 물었을 때, 플럼은 “우리는 그들의 기술을 어떻게 사용할지에 대해 매우 분명히 하고 있습니다,”라고 말했습니다.
이러한 변경은 AI 기업과 방어 업체 사이의 스피드 데이팅 라운드를 촉발시켰습니다.
메타는 11월에 Llama AI 모델을 방어 기관에 제공하기 위해 Lockheed Martin 및 Booz Allen과 협력했습니다. 같은 달, Anthropic은 Palantir와 협력했습니다. 12월에 OpenAI는 Anduril과 유사한 계약을 맺었습니다. 조용히 Cohere도 Palantir와 함께 모델을 배포하고 있습니다.
펜타곤에서 생성 AI가 유용성을 입증하는 가운데, 실리콘밸리를 AI 사용 정책을 완화하고 더 많은 군사적 용도를 허용할 수 있습니다.
플럼이 말했습니다. “다양한 시나리오를 생각해보는 것은 생성 AI가 도움이 되는 부분입니다. 그것은 지휘관들이 사용 가능한 모든 도구의 전체 범위를 활용할 수 있지만 잠재적인 위험이나 위협군 세트가 처벌할 필요가 있는 환경에서 다양한 응답 옵션과 잠재적인 트레이드 오프를 창의적으로 생각할 수 있게 해줍니다.”
이 작업을 위해 펜타곤이 어느 회사의 기술을 사용하고 있는지는 불분명합니다. 생성 AI를 킬 체인에서 사용하는 것은(조차 초기 계획단계에서도) 몇몇 선두 모델 개발자의 사용 정책을 위반하는 것처럼 보입니다. 예를 들어, Anthropic의 정책은 자사의 모델을 사용하여 인간의 생명을 해롭게 할 수 있는 시스템을 생성하거나 수정하는 것을 금지하고 있습니다.
우리의 질문에 대한 대답으로, Anthropic은 최근 금융 타임즈와의 인터뷰에서 CEO 다리오 아모데이의 군사 작업을 옹호했습니다.
AI를 국방 및 정보 분야에서 결코 사용해서는 안된다는 입장은 나에게는 이해되지 않습니다. AI를 원하는 대로 사용해 무엇이든 만들어 낼 수 있다는 입장도 미친 얘기입니다. 우리는 중간지점을 찾으려고 노력하고 책임있게 일을 진행하려고 노력하고 있습니다.
OpenAI, Meta 및 Cohere는 TechCrunch가 제의한 댓글 요청에 답하지 않았습니다.
생명과 죽음, 그리고 AI 무기
최근 몇 달간, AI 무기가 생사 결정을 내릴 수 있을지에 대한 군사 기술 논쟁이 벌어졌습니다. 일부는 미국 군이 이미 그러한 무기들을 보유하고 있다는 주장을 합니다.
Anduril CEO 팔머 럭키는 최근 X에서 미국 군이 CIWS 터렛과 같은 자율 무기 시스템을 구입하고 사용해온 장기간 역사를 언급했습니다.
“국방부는 수십 년 동안 자율 무기 시스템(수도권 포함!)을 구입하고 사용해 왔습니다. 그들의 사용(및 수출!)은 매우 잘 이해되어 있으며 엄격히 정의되어 있으며 자발적이 아닌 규정에 의해 명시적으로 규제되고 있습니다,” 럭키는 말했습니다.
그러나 테크크런치가 펜타곤이 완전히 자율적인 무기를 구매하고 운영하는지 물었을 때, 플럼은 원칙적으로 그 아이디어를 거부했습니다.
“그것은 단답하게 ‘아니오’입니다,”라고 플럼이 말했습니다. “신뢰성과 윤리적으로 모두에 있어 우리는 언제나 본 결정을 내리기 위해 인간을 참여시킬 것이며, 그것은 우리의 무기 시스템에 대한 부분도 포함됩니다.”
‘자율성’이라는 용어는 다소 모호하며, AI 코딩 에이전트, 자율 주행 자동차 또는 자율 발사 무기와 같은 자동화된 시스템이 언제 진정으로 독립적이게 되는지에 대한 논쟁을 전업 업계 전반에 일으켰습니다.
플럼은 자동화된 시스템이 생사 결정을 독자적으로 내린다는 아이디어가 “너무 이진적이라고”하고 현실은 조금 덜 “과학 소설 같다”고 말했습니다. 오히려 플럼은 펜타곤의 AI 시스템 사용이 사실은 인간과 기계 사이의 협업이며, 수석 지도자들이 전 과정 동안 적극적인 결정을 내리고 있다고 제안했습니다.
펜타곤의 AI 안전
군사 제휴가 실리콘밸리 직원들과 항상 원활하게 이뤄진 것은 아닙니다. 작년에 수십 명의 아마존과 구글 직원들이 이스라엘과의 군사 계약에 항의한 후 해고되고 체포된 일이 있었습니다. 이 계약은 “프로젝트 님부스”라는 암호명 하에 구름 거래에 해당되었습니다.
비교적으로, AI 커뮤니티로부터는 다소 진정한 응답이 돌아왔습니다. 일부 AI 연구자들은 Anthropic의 에반 허빙거와 같은 사람들은 군에서 AI 사용이 불가피하며, 그것을 올바르게 사용하기 위해 군과 직접 협력하는 것이 중요하다고 말합니다.
허빙거는 온라인 포럼 LessWrong에 지난 11월 글을 올리며 “AI의 재앙적 위험을 진지하게 생각한다면 미국 정부는 매우 중요한 주체이며, 미국 정부가 AI를 사용하지 못하게 막으려고 하는 것은 실용적인 전략이 아닙니다,”라고 말했습니다. “재앙적 위험에만 초점을 맞춘다면 충분하지 않습니다. 정부가 모델을 오용할 수 있는 모든 방법을 방지해야 합니다."
}