본문으로 건너뛰기

© 2026 Molayo

GN헤드라인2026. 05. 16. 17:37

Claude for Legal - Anthropic의 법률 업무용 AI 플러그인 모음

요약

Anthropic의 법률 업무용 AI 플러그인 모음과 관련하여, 변호사-의뢰인 비밀특권(Attorney-Client Privilege) 및 데이터 보안 문제가 주요 논점으로 제기되고 있습니다. 특히 비변호사가 개인적인 법률 자문을 위해 생성형 AI를 사용할 경우, 해당 대화가 전통적인 비밀특권으로 보호받지 못하며 오히려 증거개시 대상이 될 위험성이 높습니다. 전문가들은 이러한 도구 사용 시 사용자 책임과 데이터 보안 절차의 중요성을 강조하고 있습니다.

핵심 포인트

  • 비변호사가 생성형 AI를 이용해 법률 자문을 받을 경우, 변호사-의뢰인 비밀특권으로 보호받기 어렵다.
  • AI와의 대화 기록은 법정에서 불리한 증거로 사용될 수 있으며, 이는 사용자에게 큰 위험을 초래한다.
  • 법률 분야에서의 AI 활용은 효율성 측면에서 긍정적이나, 데이터 보안 및 윤리적 책임 문제가 해결되어야 한다.
  • Anthropic과 같은 대형 AI 회사들은 자체적인 수직형 제품으로 확장할 가능성이 있어 시장의 변화를 예고한다.

변호사 입장에서는 흥미롭지만, Anthropic이 어떻게 넘을지 모르겠는 장애물이 두 가지 있음
(1) 비변호사가 이런 스킬/커넥터 같은 것을 써서 법률 조언을 받으려 하면, 그 대화는 변호사-의뢰인 비밀특권으로 보호되지 않음. 이건 분명 누군가에게 큰 문제로 돌아올 것임
(2) 변호사가 의뢰인의 비밀 정보를 넣고, 설정에서 “Help improve Claude”를 끄는 걸 잊으면, 변호사 과오를 저질렀을 가능성이 있음. 여기서 비밀 정보는 주민번호나 계좌번호만이 아니라 “의뢰인 대리와 관련된 모든 정보”를 뜻함 https://www.americanbar.org/content/dam/aba/administrative/p...

1번에 대한 근거로 https://harvardlawreview.org/blog/2026/03/united-states-v-he...가 있음
뉴욕 남부지방법원의 Rakoff 판사는 “전국 최초의 쟁점”을 다루며, 형사 피고인과 생성형 AI 플랫폼 Claude 사이의 서면 대화는 변호사-의뢰인 비밀특권이나 업무 산출물 원칙으로 보호되지 않는다고 판결함
이 한 줄보다 훨씬 복잡한 내용이 있지만, 적어도 법적 방어나 그 요소를 AI에 넣으면 증거개시 대상이 될 수 있다고 보는 게 안전함

1번은 정말 이상하게 느껴짐. 내가 변호사에게 돈을 내면 변호사가 같은 질의를 이런 도구에 넣어도 변호사-의뢰인 비밀특권으로 보호되는데, 내가 직접 방어를 준비하려고 똑같이 질의하면 소환장이나 증거개시 대상이 됨
이런 제3자 도구를 민감한 법률 질문에 쓸 때, 윤리적이면서도 상호작용이 증거개시 문서에 들어가지 않는다고 확신할 수 있는 운영상 보안 절차가 있는지 궁금함

1번은 조금 복잡함. AI와의 대화가 경우에 따라 업무 산출물 원칙으로 보호될 수도 있지만, 본인이 직접 소송을 수행하는 pro se 당사자인 경우에 한정되고, 변호사의 정신적 인상과 의견 업무 산출물에 해당하는 범위로 엄격히 제한됨. 이 경우 그 보호가 pro se 당사자에게 확장되는 구조임. Warner v. Gilbarco, Inc. 참고
현재 상황 정리는 여기 잘 되어 있음: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
다만 이 중 어느 것도 구속력 있는 선례는 아니어서, 이 분야는 시간이 지나며 계속 변할 것임

2번은 기본적으로 데이터 보존이 꺼진 조직/비즈니스 계정을 통해 쓰는 방식이 될 거라고 봄

1번은 법 한 줄로 해결할 수 없나? “LLM에 대한 법률 질의는 동일하게 변호사-의뢰인 비밀특권의 대상이 된다”처럼

이게 잘못된 일을 했을 때 누가 책임지나? Anthropic Inc가 대신 책임져 주지는 않을 것임. 오류·누락 보험도 없고, 법적 책임도 없고, 변호사-의뢰인 비밀특권도 없고, 징계를 처리할 변호사협회도 없음
현실적으로 보면 PDF를 뱉어내는 “유언장 키트”의 더 고급 버전에 가깝다고 봄. 근본적으로 뭔가 바뀌기 전까지 법률 시스템은 이런 것을 좋게 보지 않을 것임
소송이 흔한 문화에서 스스로를 방어하는 데 수천 달러를 쓰지 않아도 된다면 좋겠지만, 내 삶과 안녕을 여기에 걸지는 않겠음

저장소에 자기들은 전혀 책임지지 않는다는 강한 면책 문구가 있음. 유용한 것이라기보다는 마케팅용 사용 사례 범주에 더 가까워 보임

사용자가 책임져야 함. 사용자가 LLM이든 기계든 웹 게시물이든 정보를 얻는다고 달라질 건 없고, 문서를 제출하는 사람이 책임지는 구조가 맞다고 봄

책임은 변호사들이 짐. AI 사용은 이분법적 결정이 아님. 변호사는 더 효율적으로 일하기 위해 AI를 쓸 수 있고, 의뢰인은 현재 상황이나 변호사의 설명을 더 잘 이해하거나 어떤 질문을 해야 할지 배우는 데 AI를 쓸 수 있음. 또는 아무도 변호사 비용을 내지 않을 낮은 위험 상황에서 쓸 수도 있음
법률 업무에서 AI는 조심스럽게 낙관하고 있음. 법률 업무 상당수는 문서 더미를 뒤지는 반복 노동이라, LLM이 이미 잘하는 작업만으로도 적용 여지가 큼. 다만 법률 업무에는 Claude처럼 에이전트 방식으로 접근하는 게 맞다고 봄
LLM의 문맥 창은 작은 사건의 문서도 담기에 너무 작음. 그래서 프로그래머가 쓰듯 파일 구조 위에서 작업하고, .md 파일에 상태를 저장하는 식으로 써야 함. 이 방식은 프로그래밍에서는 잘 발전했지만, 법률 AI 회사들은 아직 표면도 제대로 못 긁었음. LLM을 어떤 인터페이스 뒤에 숨긴 제품들도 솔직히 별로 좋지 않음
안타깝게도 개인이 낮은 비용으로 소송 방어를 하는 예시에서는 AI가 별로 도움이 안 될 것 같음. 그 일의 상당 부분은 사람을 다루는 일임. 무슨 일이 벌어졌고, 관련자들과 이야기하고, 서로 충돌하는 이야기를 정리하고, 가능하면 합의하고, 아니면 법정에서 판사를 설득해야 함. AI는 오히려 큰 회사들이 대형 소송에서 법률 비용을 통제하면서 서로 더 많은 서류를 던지게 하는 데 더 잘 맞아 보임

법률 시스템이 무단횡단 금지 폐지도 처음부터 좋게 본 건 아니었음. 미국에서는 약 20년이 걸렸음

원문에 따르면, 플러그인을 쓰는 변호사, 즉 플러그인도 Anthropic도 아닌 해당 변호사가 자신의 업무 산출물에서 취한 법적 입장에 책임을 짐

AI 채팅 기록은 변호사-의뢰인 비밀특권처럼 보호되지 않고, 법정에서 당신에게 불리한 증거로 쓰일 수 있음. 변호사와 이야기하고 그 변호사가 AI를 쓰면 그 대화는 비밀특권 대상이 됨

아님. 변호사와 이야기하고 그 변호사가 비밀 변호사-의뢰인 관계의 무결성을 유지하기 위해 합리적인 예방 조치를 취하면 비밀특권이 유지됨. 그렇지 않으면 유지되지 않음

“파트너 요청에 따라”라니, Thomson Reuters(Westlaw)가 위협을 느껴서 이렇게까지 불평할 필요가 있었던 건지 궁금함. 오히려 Lexis와 함께 쓰면 이 스킬들이 얼마나 잘 작동할지 궁금해짐

그 변경 전 코드베이스 버전을 그냥 쓰면 안 되나?

그래서 현재 응용 계층 AI 스타트업들의 가치평가 상당수가 좀 불안하다고 봄. Anthropic 같은 대형 AI 회사들이 수직형 제품으로 확장하기 시작하면 계산이 달라짐
다만 얼마나 진지하게 계속할지는 궁금함. 일부 스타트업에 아직 남은 우위는 OpenAI/Anthropic 등의 제품 묶음이 Google 제품처럼 1~2년 뒤 바로 묘지로 갈 수 있다는 두려움일지도 모름

AWS가 그걸 시작하면 어떡하냐고 묻는 것과 비슷함. 인프라는 이미 다 갖고 있음. LLM은 하나의 톱니바퀴일 뿐이고, 응용 쪽에는 아직 이들이 전혀 하지 않는 일이 많음

AI 분야의 모든 가치평가는 불안정함. 실제로 탄탄한 사업 계획을 가진 곳은 없고 분위기만 있는데도, 돈은 계속 쏟아지고 있음

“우리가 가장 많이 보는 법률 업무흐름”이라는 문구가 좀 거슬림. 이게 고객 세션을 바탕으로 했다는 뜻인가? 고객 데이터를 써서 전 세계 모든 직업, 주제, 업무흐름에 대한 지식베이스를 만들 권리가 있는 건가?

그렇다고 봄. 그들은 나중에 당신의 사업을 대체할 수 있도록 당신 회사의 데이터로 AI를 학습시키고 있음. 믿기 어렵다면, 그들이 학습하지 않은 것이 하나라도 있는지 말해보면 됨

고객 세션 기반이 맞음
그들은 자신들에게 그 권리가 있다고 믿고 있고, 그 점을 꽤 공개적으로 말함
이름도 있음. Clio라고 하며, 페이지에 따르면 “실제 AI 사용에 대한 개인정보 보호형 인사이트를 위한 시스템”임
관련 페이지는 여기 있음: https://www.anthropic.com/research/clio

어느 나라 기준인지도 문제임. 나라마다 법이 다르다는 건 알고 있겠지?

“법적으로·도덕적으로 권리가 있는가”와 “권리가 있는 것처럼 행동하는가”는 다름. 큰 질문임

어느 시점에는 변호사, 법무사, 판사들이 이런 것을 쓰게 될 것 같음. 그러면 변호사들은 다른 쪽 LLM을 더 잘 속이는 SEO/카피라이터 전문가 비슷한 존재가 될 수도 있음

이미 그 지점은 한참 지났음. 전 세계에서 변호사들이 환각 판례 인용이 들어간 문서를 법원에 제출한 사건이 얼마나 많은지만 봐도 됨

법은 어쨌든 어딘가에 적혀 있음. 사람은 실제 법을 보고 AI가 헛소리를 하는지 판단할 수 있음

예전에 재판소에서 직접 자신을 대리해 본 입장에서는 이게 분명 흥미로움
다만 영국 같은 일부 관할권에서는 SRA 인가나 FCA 규제를 받지 않고는 누군가에게 법률 조언을 그냥 제공할 수 없음. 즉 이건 영국법상 Anthropic을 사실상 청구 관리 회사로 만들 수 있음
Financial Services and Markets Act 2000 (Regulated Activities) Order 2001의 article 89I에 따르면, 금융 서비스나 금융 상품 관련 청구에서 청구인 또는 잠재 청구인에게 조언하거나, 청구를 조사하거나, 청구인을 대리하는 행위는 정의된 규제 대상 활동임 https://www.fca.org.uk/freedom-information/dual-regulation-c...

이제쯤 AI 회사들이 법률 분야는 함부로 건드릴 곳이 아니라는 걸 배웠을 법도 함. 기록만 봐도 충분함. 그런데 이 특정 AI 낙관론자들은 학습 능력이 없는 것 같음

이 분야에서 장난치는 일은 멈추지 않을 것 같음. 변호사는 비싸고, 그래서 AI로 대체할 때의 잠재 이득이 큼. 다만 AI 회사들이 변호사와 경쟁하면서 직접 법률 조언을 제공할 거라고 생각하는 사람들이 있는데, 그건 책임 지뢰밭이라 절대 그렇게 하지 않을 것 같음
대신 이들은 법무법인에 AI 서비스를 제공하고, 법무법인이 자신의 법률 서비스 제공 과정에서 이를 쓰게 하려 함. 좋든 나쁘든 이미 벌어지고 있고, 큰 기업 법무법인들은 거의 모두 어떤 방식으로든 AI를 쓰고 있음. 고객들도 요구함. 법률에서 AI 사용으로 인한 문제는 계속 나오겠지만, 그 책임은 변호사들에게 돌아갈 것임

책임을 억지로 떠안게 되지 않는다면, 여기서 얻는 홍보 효과만으로도 충분히 가치가 있음. 좋은 상황은 아님

AI 자동 생성 콘텐츠

본 콘텐츠는 GeekNews의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0