본문으로 건너뛰기

© 2026 Molayo

Insights

AI가 자동으로 큐레이션·번역·정리하는 기술 동향 피드입니다.

r/MachineLearning (top/week) 10필터 해제

r/ML분석

1980~2013 년대 유즈넷 코퍼스를 구축하는 데 수년을 투자했습니다 [P]

본 기술 기사는 1980년부터 2013년까지의 방대한 유즈넷(Usenet) 아카이브를 구축한 과정을 소개합니다. 이 코퍼스는 1,031억 토큰 규모에 4억 8천만 개의 게시물을 포함하며, 33년간의 연속적인 언어 진화 기록을 담고 있습니다. 개발자는 데이터 전처리 과정(중복 제거, 바이너리/이메일 주소 삭제 등)과 언어 감지 방법론을 상세히 설명하고, 이 코퍼스가 AI 모델 학습에 있어 독특한 '시간적 아크'를 제공함을 강조합니다.

corporausenetnlpdatasetlanguage-evolution
1일 전4
r/ML분석

[R] 결합 임베딩 변분 베이즈 (TMLR '26)

이 논문은 비대조적 표현 학습을 위한 결합 임베딩 아키텍처에 작동형 변분 의미론(operational variational semantics)을 통합한 방법을 제안합니다. 핵심적으로, 가능도 함수를 방향성 항과 반지름 항으로 분해하여 노름-방향 결합의 병리적 해법을 방지하고, 포스트리얼 불확실성을 임베딩 및 추론 가능도 모두에 직접 연결하며, 학습 안정성을 위해 가우시안 대신 중대 꼬리를 가진 학생-t 분포를 사용합니다. 이러한 접근 방식은 이방성/특징별 불확실성 학습을 가능하게 하여 OOD 탐지 등 하류 작업에서 성능을 입증했습니다.

variational_inferencecontrastive_learningjoint_embedding
3일 전1
r/ML분석

ICML 이 일관된 긍정적 평가를 받은 논문을 많이 기각하는 것 같습니다 [D]

이 글은 ICML과 같은 주요 학회에서 논문 심사 과정의 구조적 문제점을 지적합니다. 특히 리뷰어들이 점수 균일성을 맞추려는 압박감 때문에 실제 평가와 다르게 점수를 부풀리거나, 긍정적인 피드백을 주었음에도 불구하고 점수 업데이트에 소극적이어서 발생하는 왜곡된 역학 관계를 비판합니다. 필자는 이러한 현상이 결국 일관되게 좋은 평가를 받은 논문들까지도 기각시키는 결과를 초래할 수 있다고 주장하며, 심사위원들이 정직하고 독립적인 평가를 제공하는 원래의 시스템으로 돌아가야 한다고 제언합니다.

icmlconference-reviewpeer-review
3일 전2
r/ML분석

최신 1,000 만 편의 논문에 대한 인터랙티브 의미 지도 [P]

이 기술 기사는 OpenAlex에서 수집한 최신 1,000만 편의 논문을 기반으로 복잡한 과학적 지형을 탐색할 수 있는 인터랙티브 의미 지도(Semantic Map)를 소개합니다. 이 지도는 SPECTER 2 임베딩과 UMAP 차원 축소, Voronoi 분할 기법을 결합하여 명확하고 시각적인 의미적 클러스터를 생성했습니다. 사용자는 키워드 및 의미론적 쿼리를 통해 탐색할 수 있으며, 기관이나 저자별 분석 레이어도 제공받을 수 있습니다.

semantic-mappingnlpknowledge-graph
4일 전2
r/ML분석

딥러닝에 대한 과학적 이론이 등장한다

14 명의 저자가 참여한 '딥러닝 이론' 관점 논문이 발표되었습니다. 딥러닝 시스템이 어떻게 작동하는지에 대한 명확한 과학적 근거가 축적되고 있으며, 물리학의 개념을 차용한 5 가지 핵심 증거 (해결 가능한 단순 모델, 통찰력 있는 한계, 간단한 경험적 법칙, 하이퍼파라미터 이론, 보편적 현상) 를 제시합니다. 이 논문은 딥러닝이 단순한 엔지니어링이 아닌 성숙된 과학으로 진화하고 있음을 보여줍니다.

deep-learningmachine-learning-theoryscientific-research
4월 27일5
r/ML중요분석

3D 포인트 클라우드 학습을 위한 통합 PyTorch 라이브러리, LIDARLearn 공개

LIDARLearn은 3D 포인트 클라우드 기반 딥러닝을 위한 통합 PyTorch 라이브러리입니다. 이 프레임워크는 지도 학습(supervised), 자기 지도 학습(self-supervised), 그리고 파라미터 효율적 미세 조정(PEFT) 등 다양한 방법론을 아우르는 56개의 사용 가능한 설정을 제공합니다. 단일 YAML 파일과 명령어만으로 모든 실험을 실행할 수 있으며, 특히 학습 후 논문 제출에 필요한 LaTeX PDF를 자동으로 생성해주는 기능이 강력합니다. ModelNet40, ShapeNet, S3DIS 등 주요 데이터

pytorchpointcloud3dvision
4월 23일2
r/ML분석

AI 학회에서 네트워킹 효과적으로 하는 방법 가이드

학술 컨퍼런스(예: ICLR)의 핵심 가치 중 하나는 네트워킹입니다. 박사 과정 학생이 산업 인턴십을 목표로 한다면, 관련 포스터 발표를 찾아가 저자들과 심도 있는 논문 토론을 진행하고, 이후 후속 이메일을 통해 기회를 문의하는 것이 효과적입니다. 이러한 현장 접촉은 단순한 콜드 메일링보다 훨씬 강력하며, 짧은 대화 경험이 기억에 남는다는 점을 활용해야 합니다.

machine-learningainetworking
4월 23일3
r/ML분석

AI 연구: 지속 가능한 가치 vs. 학회 게재를 위한 최적화 논란

최근 인공지능(AI) 연구 커뮤니티에서는 연구 결과가 실제적인 장기적 가치를 창출하기보다는, 학회(conference)의 높은 게재 기준을 충족시키기 위해 '포장'되거나 과도하게 평가 지표에 의존하는 경향이 있다는 비판이 제기되고 있습니다. 이는 리뷰어들이 현실적으로 지속 가능한 수준을 넘어선 방대한 실험과 평가를 요구하며, 연구자들이 이를 만족시키려 노력하면서 발생하는 구조적인 문제입니다. 본 글은 AI 연구의 방향성이 학술적 가치보다는 '게재 가능성(Acceptance)'에 초점을 맞추고 있는지 심도 있게 논합니다.

aimachine-learningresearch-culture
4월 23일3
r/ML분석

직접 구현한 확산 언어 모델(DLM), 생각보다 쉬웠다

최근 AI 코드 생성기 의존도를 줄이고자, 개인적으로 확산 언어 모델(Diffusion Language Model, DLM)을 처음부터 구축해 보았습니다. 마스터 논문 훈련 대기 시간 동안 MacBook Air M2에서 작은 셰익스피어 데이터셋을 사용하여 구현했습니다. 약 750만 개의 파라미터와 66개의 어휘 크기로 모델이 작동하며, 간단한 프롬프트(

diffusion-modeldlmnlp
4월 23일2
r/ML중요분석

제로샷 월드 모델(ZWM): 인간 수준 데이터로 AI 학습 효율 극대화

기존 AI 모델들은 시각적 능력을 갖추기 위해 인간 아동보다 훨씬 많은 양의 데이터를 요구합니다. 이 논문에서 제안하는 Zero-shot World Model (ZWM)은 이러한 격차를 크게 줄입니다. 단일 아동의 시각 경험 데이터만으로도, 별도의 태스크별 훈련 없이(zero-shot) 다양한 시각-인지 과제에서 최신 모델과 견줄 만한 성능을 보여줍니다. ZWM은 인간 수준의 데이터로 효율적이고 유연하게 학습하는 청사진을 제시하며, 데이터 효율적인 AI 시스템 개발에 중요한 진전을 의미합니다.

world_modelzero_shotdata_efficiency
4월 23일2

이 피드 구독하기

본 페이지의 콘텐츠는 AI가 공개된 소스를 기반으로 자동 수집·요약·번역한 것입니다. 원 저작권은 각 원저작자에게 있으며, 각 게시물의 “원문 바로가기” 링크를 통해 원문을 확인할 수 있습니다. 저작권자의 삭제 요청이 있을 경우 신속히 조치합니다.