본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 13. 04:20

jNO: 신경 연산자 및 파운데이션 모델 학습을 위한 JAX 라이브러리

요약

jNO(jax Neural Operators)는 데이터 기반 및 물리 정보 기반 학습을 모두 통합적으로 지원하는 JAX 네이티브 라이브러리입니다. 이 라이브러리는 도메인, 모델 호출, 잔차 평가, 지도 손실 등 모든 요소를 단일 심볼릭 언어로 작성하고 하나의 최적화 파이프라인으로 컴파일할 수 있게 합니다. 이를 통해 사용자는 복잡한 연산자 회귀부터 PDE 제약 학습까지 별도의 코드 재구성을 거치지 않고 통합적인 워크플로우를 구축할 수 있습니다.

핵심 포인트

  • jNO는 데이터 기반(data-driven) 및 물리 정보 기반(physics-informed) 학습을 모두 지원하는 통합 라이브러리입니다.
  • 모든 핵심 구성 요소(도메인, 모델 호출, 잔차, 손실 등)를 단일 심볼릭 언어로 작성하고 최적화 파이프라인으로 컴파일합니다.
  • 사용자는 연산자 회귀와 PDE 제약 학습 사이를 별도의 코드 재구성 없이 원활하게 전환할 수 있습니다.
  • 다중 모델 구성, 매개변수 수준의 세밀한 제어, 하이퍼파라미터 튜닝 등 고급 워크플로우 기능을 제공합니다.

jNO (jax Neural Operators)는 데이터 기반(data-driven) 및 물리 정보 기반(physics-informed) 학습 모두에 대한 통합 지원을 제공하는 신경 연산자 및 파운데이션 모델을 위한 JAX 네이티브 라이브러리입니다. 핵심 설계는 도메인, 모델 호출, 잔차(residuals), 지도 손실(supervised losses), 진단(diagnostics)이 하나의 심볼릭 언어로 작성되고 단일 최적화 파이프라인으로 컴파일되는 추적 시스템입니다. 이를 통해 사용자는 주변 코드를 재구성할 필요 없이 연산자 회귀(operator regression), 메쉬 인식 잔차 평가(mesh-aware residual evaluation), 및 PDE 제약 학습(PDE-constrained training) 사이를 이동할 수 있습니다. jNO는 또한 다중 모델 구성(multi-model compositions), 매개변수 수준의 세밀한 제어(모델, 옵티마이저, 학습률), 하이퍼파라미터 튜닝, 그리고 번역된 PDE 파운데이션 모델 패밀리를 위한 JAX 네이티브 워크플로우를 지원합니다. 소스 저장소는 https://github.com/FhG-IISB/jNO에서 확인할 수 있습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
2

댓글

0