SafeTune: RTL 코드 생성을 위한 LLM 파인튜닝中的数据 독소 공격 완화
요약
SafeTune은 대형 언어 모델(LLMs)을 사용하여 RTL 코드와 같은 하드웨어 코드를 생성할 때 발생할 수 있는 데이터 독소 공격에 대응하기 위해 설계된 프레임워크입니다. 이 프레임워크는 구조적 속성을 모델링하는 그래프 신경망(GNN)과 텍스트 임베딩 및 XGBoost 분류기를 활용한 의미론적 검증 모듈을 결합합니다. SafeTune은 이러한 구조적 지식과 의미론적 지식을 통합하여, 학습 데이터의 무결성을 유지하면서도 독소 공격에 대한 LLM 기반 RTL 생성의 견고성과 신뢰성을 크게 향상시킵니다.
핵심 포인트
- LLMs가 하드웨어 코드(RTL) 생성에 사용되면서, 보안 검증이 부족한 데이터셋으로 인한 '데이터 독소 공격' 위험이 증가하고 있습니다.
- SafeTune 프레임워크는 LLM 기반 RTL 생성을 독소 공격에 강건하게 만드는 것을 목표로 합니다.
- 핵심 구성 요소로는 ① 이상 패턴 식별을 위한 그래프 신경망(GNN)과 ② 의미론적 보안 평가를 위한 검증 모듈이 있습니다.
- SafeTune은 구조적 지식과 의미론적 지식을 결합하여, 데이터 손실 없이도 독소 입력을 효과적으로 걸러낼 수 있습니다.
대형 언어 모델 (LLMs) 이 하드웨어 작업, 예를 들어 RTL 코드 생성과 같은 작업에 점점 더 많이 파인튜닝됨에 따라 고품질 데이터셋의 부족은 빠르게 조립되거나 생성된 학습 데이터를 사용하게 만듭니다. 이러한 데이터셋은 종종 보안 검증을 거치지 않아 데이터 독소 공격 (data poisoning attacks) 에 매우 취약합니다. 이러한 독소는 모델이 표준 기능 검사를 우회하는 문법적으로 유효하지만 보안을 확보하지 못한 하드웨어 모듈을 생성하도록 할 수 있습니다. 이를 해결하기 위해 우리는 하드웨어 트로이안 (HT) 삽입에 특히 초점을 맞춰 LLM 기반의 RTL 생성을 독소 공격에 견고하게 만드는 SafeTune 프레임워크를 제시합니다. SafeTune 은 두 가지 핵심 구성 요소를 통합합니다: (i) 파인튜닝 동안 이상한 회로 패턴을 식별하기 위해 구조적 속성을 모델링하는 그래프 신경망 (GNN), 그리고 (ii) 텍스트 임베딩과 XGBoost 분류기를 사용하여 프롬프트 보안을 평가하는 의미론적 검증 모듈입니다. 구조적 지식과 의미론적 지식을 결합함으로써 SafeTune 은 정당한 데이터를 희생하지 않으면서 독소 입력을 효과적으로 걸러냅니다. 실험 결과는 SafeTune 이 기본 모델 아키텍처의 수정 없이도 LLM 파인튜닝의 견고성과 신뢰성을 현저히 향상시킨다는 것을 보여줍니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.AR의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기