AMD Versal AIE-ML 기반 CRONet 가속을 통한 저지연 위상 최적화
요약
본 연구는 구조 건전성 모니터링과 같은 중요 인프라 분야에 필수적인 저지연 및 에너지 효율적인 위상 최적화(Topology Optimization)를 위해, 신경망 기반의 계산 방법인 CRONet을 AMD Versal AI Engine-ML (AIE-ML) 아키텍처에서 하드웨어 가속하는 방법을 제시합니다. 기존의 DNN 기반 구현은 높은 지연 시간과 낮은 에너지 효율성을 보였으나, 본 연구는 모든 중간 활성화 값(activations)과 네트워크 가중치(weights)를 온칩(on-chip)에 유지하여 DRAM 의존성을 완전히 제거
핵심 포인트
- 위상 최적화(Topology Optimization)의 계산 집약도를 낮추기 위해 DNN 기반 방법인 CRONet을 활용했습니다.
- AMD Versal AIE-ML 아키텍처를 사용하여 CRONet을 구현한 최초의 엔드투엔드 신경망 가속 사례입니다.
- 모든 중간 활성화 값과 네트워크 가중치를 온칩에 배치하여 DRAM 의존성을 제거함으로써 성능을 극대화했습니다.
- 실험 결과, 동일 전력 예산(Nvidia T4)에서 기존 ML 최적화 GPU 대비 최대 2.49배의 지연 시간 개선 및 4.18배의 에너지 효율성 개선을 달성했습니다.
구조 건전성 모니터링과 같은 중요 인프라 분야에서 요구되는 위상 최적화(Topology Optimization)는 구조물의 무게를 최소화하면서도 하중 및 경계 조건을 만족시키는 최적의 재료 분포를 결정하는 핵심 계산 방법입니다. 특히 디지털 트윈(Digital Twin) 환경에서는 낮은 지연 시간과 높은 에너지 효율성이 필수적입니다.
전통적으로 위상 최적화는 유한 요소 해석(Finite Element Analysis, FEA)에 의존해 왔는데, 이는 계산 비용이 매우 높습니다. 최근 딥 신경망(Deep Neural Networks, DNNs)의 발전은 데이터 기반 대안을 제시하며 계산 시간을 크게 단축시켰으나, 이들 DNN 모델을 추론용 GPU(inference-class GPUs)에서 구현할 경우 높은 지연 시간과 낮은 에너지 효율성 문제가 발생했습니다.
본 연구는 이러한 한계를 극복하기 위해, 신경망 구조를 활용한 위상 최적화 네트워크인 CRONet을 AMD Versal AI Engine-ML (AIE-ML) 아키텍처에서 하드웨어 가속하는 방안을 제시합니다. 저희의 접근 방식은 AIE-ML 엔진이 가진 병렬성(parallelism)과 메모리 계층 구조(memory hierarchy)를 효율적으로 활용하여 다양한 신경망 연산자(neural network operators)의 실행을 최적화했습니다.
가장 중요한 기술적 진보는, 모든 중간 활성화 값(intermediate activations)과 네트워크 가중치(network weights)를 온칩(on-chip)에 완전히 배치함으로써 DRAM 의존성을 원천적으로 제거한 최초의 엔드투엔드 신경망 구현이라는 점입니다. 이는 데이터 이동으로 인한 병목 현상을 해소하고 전력 효율을 극대화합니다.
실험 결과는 이 아키텍처의 잠재력을 명확히 보여줍니다. 동일한 전력 예산(Nvidia T4)에서 비교했을 때, 본 구현은 최대 2.49배의 지연 시간 개선과 최대 4.18배의 에너지 효율성 개선을 달성했습니다. 이러한 결과는 Versal AIE-ML 기반 가속이 낮은 지연 시간 및 고효율 위상 최적화 시스템을 실현하는 데 매우 효과적임을 입증합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.AR의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기