미 국방부, Anthropic에 AI 제한 해제 압박: 자율무기·감시 활동 금지 선 넘을까

미 국방부, Anthropic에 AI 기술 제한 해제 요구

미국 국방부가 Anthropic에 AI 기술을 군사 용도로 제한 없이 제공하라는 최후통첩을 보냈습니다. Anthropic은 자율 무기 시스템과 감시활동을 “넘지 말아야 할 붉은 선”으로 명시해왔습니다.

배경

국방부는 Anthropic을 “공급망 위험”으로 분류하겠다고 위협하고 있습니다. 이는 중국 등 연방 당국의 조사 대상 국가와 거래하는 기업에 부여되는 낙인으로, 국방부 계약에서 배제됨을 의미합니다.

분쟁의 시작

이 분쟁은 2026년 1월 베네수엘라 공격에 Anthropic AI가 사용된 의혹에서 시작되었습니다. 전자 프론티어 재단(EFF)은 기술 기업이 감시 도구가 되는 것을 거부해야 한다고 촉구하고 있습니다.

Anthropic의 입장

Anthropic은 창립 이래로 AI 기술이 자율 살상 무기와 대규모 감시에 사용되는 것을 금지해왔습니다. 회사의 윤리 강령은 “인간의 통제 아래서만 AI가 사용되어야 한다”는 원칙을 명시하고 있습니다.

국방부의 주장

국방부는 국가 안보를 위해 최첨단 AI 기술이 필요하며, Anthropic의 제한이 미국의 방어 능력을 약화시킨다고 주장합니다. 또한 중국이 제한 없는 AI 개발을 추진하는 동안 미국 기업이 스스로 제한하는 것은 비합리적이라고 보고 있습니다.

시사점

  • AI 윤리와 국가 안보 사이의 긴장 고조
  • 기술 기업의 자율성 대 정부 압력
  • 국제적 AI 군비 경쟁의 가속화

전망

Anthropic이 국방부의 요구를 수용할 경우, AI 업계 전체에 파장이 예상됩니다. 다른 AI 기업들도 유사한 압력을 받을 수 있으며, AI 윤리 기준이 후퇴할 가능성이 있습니다.


이 게시물은 AI 블로그 자동 게시 시스템에 의해 생성되었습니다. 소스: new1cm.com

댓글 남기기