본문으로 건너뛰기

© 2026 Molayo

Reddit요약2026. 05. 15. 12:26

TabPFN-3 출시: 최대 100만 행을 지원하는 사전 학습된 정형 데이터 파운데이션 모델 (Tabular Foundation Model)

요약

TabPFN-3는 정형 데이터(Tabular Data) 예측을 위한 차세대 파운데이션 모델입니다. 이 모델은 단 한 번의 순전파(Forward Pass)만으로 복잡한 예측을 수행하며, 최대 100만 행까지 처리할 수 있는 대규모 스케일과 이전 대비 월등히 향상된 속도를 자랑합니다. 특히 '사고 모드(Thinking Mode)'와 같은 새로운 기능을 통해 전통적인 머신러닝 방식보다 높은 정확도와 성능 우위를 입증했습니다.

핵심 포인트

  • 단 한 번의 순전파로 정형 데이터 예측이 가능하여 별도의 학습 및 튜닝 과정이 필요 없습니다.
  • 최대 100만 행을 단일 H100에서 처리할 수 있도록 스케일이 확장되었으며, 이는 이전 버전 대비 10배 증가한 규모입니다.
  • 추론 속도가 대폭 향상되어 KV 캐싱 등을 통해 SHAP에서 120배의 성능 개선을 달성했습니다.
  • 새로운 '사고 모드(Thinking Mode)'를 통해 예측 성능이 극대화되었으며, TabArena 등 주요 벤치마크에서 최고 수준의 정확도를 기록했습니다.
  • API, 엔터프라이즈 라이선스, 오픈 소스 가중치 세 가지 경로로 배포되어 다양한 사용자 환경에 대응합니다.

오늘 TabPFN-3가 출시되었습니다. 이는 원래 Nature에 발표되었던 정형 데이터 파운데이션 모델 (Tabular Foundation Model)의 다음 버전입니다.

TabPFN이 처음인 분들을 위한 빠른 요약: TabPFN은 단 한 번의 순전파 (Forward Pass)로 정형 데이터 (Tabular Data)를 예측합니다. 별도의 학습 (Training), 하이퍼파라미터 탐색 (Hyperparameter Search), 튜닝 (Tuning)이 필요 없습니다. TabPFN-2.5 (2025년 11월)와 TabPFNv2 (Nature, 2025년 1월)를 기반으로 구축되었으며, 이들은 합계 300만 회 이상의 다운로드와 200개 이상의 발표된 응용 사례를 기록했습니다.

새로운 기능:

  • 규모 (Scale): 단일 H100에서 100만 행 처리 가능 (2.5 버전보다 10배 더 큼). 감소된 KV 캐시 (KV Cache, 추정기당 100만 행당 약 8GB)와 행 청크 기반 추론 (Row-chunked Inference)을 통해 단일 GPU에서 실용적으로 사용 가능합니다.
  • 속도 (Speed): 이전 버전보다 10배에서 1,000배 빠른 추론 (Inference). KV 캐싱을 통해 SHAP에서 120배 향상되었습니다.
  • 사고 모드 (Thinking Mode, API 전용): 테스트 시간 연산 (Test-time Compute)을 통해 추론 시 일회성 추가 피팅 (Extra Fitting)을 수행하여 예측 성능을 더욱 높입니다. 4시간 동안 튜닝된 AutoGluon 1.5 extreme를 포함하여, TabArena의 모든 비-TabPFN 방식보다 Elo 점수에서 200점 이상 앞섭니다. 더 큰 데이터 슬라이스에서는 그 격차가 420 Elo로 두 배 이상 벌어집니다.
  • 정확도 (Accuracy): TabArena에서 전통적인 머신러닝 (Classical ML) 대비 93%의 승률을 기록했습니다.
  • 다중 클래스 (Many-class): 최대 160개의 클래스를 지원하는 네이티브 비매개변수 검색 디코더 (Non-parametric Retrieval Decoder).
  • 보정된 분위수 회귀 (Calibrated Quantile Regression): 바-분포 회귀 헤드 (Bar-distribution Regression Head)가 단 한 번의 순전파 (Forward Pass)로 보정된 분위수 (Quantile) 예측을 생성합니다.
  • 인접 작업 성능 향상: 시계열 (Time-series), 해석 가능성 (Interpretability), 그리고 관계형 벤치마크 (Relational Benchmarks)에서의 새로운 SOTA (State-of-the-art) 달성.
  • 3가지 배포 경로: API, 엔터프라이즈 라이선스, 그리고 오픈 소스 가중치 (Open-source Weights, 연구 및 학술 평가를 위해 허용됨).

여기에서 직접 시도해 보거나 여기에서 모델 보고서를 읽어보실 수 있습니다. 댓글로 질문해 주시면 기꺼이 답변해 드리겠습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 Reddit AI Research의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0