건설할 것인가, 안 할 것인가? AI 시스템의 비개발 또는 중단으로 이어지는 요인들
요약
본 논문은 배포된 AI 시스템의 사용과 영향 검토에 초점을 맞추는 기존 책임 있는 AI 연구의 한계를 지적하며, AI 시스템을 처음부터 구축하려는 사전 결정 단계에서 비개발 또는 중단으로 이어지는 요인들을 조사합니다. 학술 문헌, 시민사회 자원, 언론 보도 등 다양한 회색 문헌 검토와 실제 사례 데이터 수집을 통해, AI 개발 중단을 유발하는 6가지 범주의 요인을 분류했습니다: 윤리적 우려, 이해관계자 피드백, 개발 라이프사이클상의 도전 과제, 조직 역학, 자원 제약, 법적/규제적 우려. 연구 결과는 AI 개발 중단이 반드시 윤리적 위험에 국한되지 않으며, 조직의 다양한 레버리지(levers)에 의해 발생함을 보여주며, 향후 책임 있는 AI 연구가 이 격차를 메우고 적절한 참여를 지원할 기회를 제시합니다.
핵심 포인트
- AI 시스템 개발 중단 요인 조사를 통해 기존 책임 있는 AI 연구의 초점(배포 후 영향 검토)을 확장함.
- AI 비개발 및 중단을 유발하는 6가지 범주(윤리적 우려, 이해관계자 피드백 등)를 분류체계로 제시함.
- 실제 사례 분석 결과, AI 개발 중단은 반드시 윤리적 문제에 국한되지 않는 다양한 조직적/운영적 요인들(레버리지)에 의해 발생함을 입증함.
- 본 연구는 책임 있는 AI 공동체가 놓치고 있는 '개발 초기 단계의 비참여'라는 중요한 영역을 식별하고, 이를 지원할 방안을 제시함.
책임 있는 AI 연구는 일반적으로 배포된 AI 시스템의 사용과 영향을 검토하는 데 중점을 둡니다. 그러나 이러한 시스템을 처음부터 구축하려는 사전 배포 결정에 대한 가시성은 현재 제한적입니다. 개발 초기 단계에서 내려진 결정들은 궁극적으로 출시되는 시스템들을 형성하며, 따라서 잠재적이지만 아직 충분히 탐구되지 않은 개입 지점들을 대표합니다. 이에 따라 본 논문은 개발 라이프사이클 전반에 걸쳐 AI 비개발과 중단을 이끄는 요인들을 조사합니다. 구체적으로, 우리는 먼저 학술 문헌, 시민사회 자원, 그리고 언론 보도 및 산업 보고서 등 회색 문헌을 포함한 범위를 검토 (scoping review) 수행합니다. 이러한 출처들의 주제 분석 (thematic analysis) 을 통해 AI 중단에 기여하는 6 가지 범주의 요인에 대한 분류체계를 개발합니다: 윤리적 우려, 이해관계자 피드백, 개발 라이프사이클상의 도전 과제, 조직 역학, 자원 제약, 그리고 법적/규제적 우려입니다. 그런 다음, 우리는 AI 사고 데이터베이스와 실무자 설문 조사를 통해 시스템 배포 전후로 중단을 이끄는 요인들을 증거화하고 비교하기 위해 실제 사례의 AI 시스템 중단에 대한 데이터를 수집합니다. 학술적 책임 있는 AI 공동체는 종종 AI 개발을 하지 않는 이유로 윤리적 위험을 강조하지만, 이러한 사례들에 대한 우리의 경험적 분석은 조직이 AI 개발을 중단하게 만드는 다양하며 종종 윤리 관련이 없는 레버리지 (levers) 를 입증합니다. 우리의 분류체계와 관련된 사례 연구 분석에서 도출된 증거를 종합하여, 현재 책임 있는 AI 연구의 격차와 기회를 식별합니다: (1) 조직이 AI 개발을 중단하게 하는 다양한 범주의 레버리지에 참여하고, (2) AI 시스템 개발에 대한 적절한 (비)참여를 더 잘 지원하기 위해.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기