본문으로 건너뛰기

© 2026 Molayo

arXiv중요논문2026. 04. 24. 00:50

SRAM 기반 메모리 내 컴퓨팅 가속기 설계 프레임워크 (AccelCIM)

요약

본 논문은 높은 연산 밀도와 에너지 효율을 자랑하는 SRAM 기반 메모리 내 컴퓨팅(Compute-in-Memory, CIM) 가속기의 한계를 극복하기 위해 'AccelCIM'이라는 체계적인 데이터 흐름 탐색 프레임워크를 제안합니다. 기존 연구들은 DNN 모델 전체가 온칩에 적재된다고 가정하여 대규모 모델의 데이터 이동 오버헤드를 간과했습니다. AccelCIM은 CIM 매크로 구성과 배열 구조 전반을 아우르는 체계적인 설계 공간을 정의하고, 사이클 정확도의 시뮬레이션 및 PPA 분석을 통해 엄격한 평가를 수행합니다. 이를 통해 실제

핵심 포인트

  • AccelCIM은 SRAM 기반 CIM 가속기의 데이터 흐름 설계를 체계적으로 탐색하는 프레임워크입니다.
  • 이 프레임워크는 대규모 DNN 모델의 온/오프칩 데이터 이동 오버헤드 문제를 해결합니다.
  • AccelCIM은 CIM 매크로 구성과 배열 구조를 포괄하는 설계 공간을 정의합니다.
  • 사이클 정확도 시뮬레이션 및 PPA 분석을 통해 가속기 설계를 엄격하게 평가합니다.

SRAM 기반 메모리 내 컴퓨팅(Compute-in-Memory, CIM)은 딥 신경망(DNN) 가속기에 높은 연산 밀도와 에너지 효율성을 제공하지만, 용량 제한으로 인해 대규모 DNN 모델의 온/오프칩 데이터 이동 오버헤드가 발생합니다. 기존 연구들은 모델 전체가 온칩에 들어간다고 가정하여 효율적인 데이터 흐름 설계 부분을 간과했습니다.

본 논문은 이러한 문제를 해결하기 위해 'AccelCIM'이라는 체계적인 데이터 흐름 탐색 프레임워크를 소개합니다. AccelCIM은 CIM 매크로 구성부터 배열 구조 전반에 걸친 포괄적인 설계 공간을 정의하는 것이 특징입니다. 또한, 사이클 정확도의 아키텍처 시뮬레이션과 배치 후(post-layout) PPA 분석을 통해 엄격한 설계 평가를 수행합니다.

연구진은 광범위한 설계 공간 탐색을 진행하고, 실제 대규모 언어 모델(LLM) 애플리케이션에 AccelCIM을 적용하여 CIM 가속기의 원칙적인 설계를 위한 실질적인 통찰력을 제공했습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.AR의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
2

댓글

0