본문으로 건너뛰기

© 2026 Molayo

Insights

AI가 자동으로 큐레이션·번역·정리하는 기술 동향 피드입니다.

X @_akhaliq (AI 논문) 46필터 해제

X요약

클레멘트 델랑크의 오픈AI GPT 5.5 활용 시도

클레멘트 델랑크(Clement Delangue)가 오픈AI의 GPT-5.5를 활용하여 머신러닝 인턴십 프로젝트를 진행하고 있습니다. 이 과정에서 데이터셋 생성, 모델 학습, 그리고 모델 최적화 또는 범용 미니 애플리케이션 생성을 시도하며 LLM의 실질적인 응용 가능성을 탐구하고 있습니다.

gpt-5.5openaillm
3일 전7
X요약

huggingface_hub v1.13.0 출시, 새로운 기능 소개

huggingface_hub 라이브러리의 v1.13.0 버전이 출시되었으며, 주요 업데이트는 `hf` 명령에 대한 옵션 지원 강화입니다. 이제 모든 `hf` 명령어에서 `--format`, `--json`, 및 `-q`와 같은 유용한 플래그를 전역적으로 사용할 수 있게 되었습니다. 특히, `--format auto` 기능은 출력 환경(터미널 또는 AI 도구)을 감지하여 최적화된 형식으로 데이터를 자동으로 제공하는 것이 핵심입니다.

huggingfacehf-hubcli
3일 전4
X요약

Agent Collabs 소개: 협업적 자동 연구를 위한 맞춤형 ML 인턴 및 에이전트 도입

Agent Collabs는 맞춤형 ML 인턴과 에이전트를 활용하여 협업적인 자동 연구를 수행할 수 있도록 설계된 플랫폼입니다. 이 플랫폼은 여러 에이전트가 메시지를 교환하고, 아티팩트를 공유하며, 자원을 조정하는 등 복잡한 상호작용을 지원합니다. 이를 통해 사용자는 마치 팀원들과 함께 일하는 것처럼 체계적이고 자동화된 연구 과정을 경험할 수 있습니다.

agent-collabsml-agentsautonomous-research
3일 전3
X요약

OpenAI GPT 5.5 를 ML 인턴으로 활용하여 데이터셋 생성, 모델 학습, 최적화 (또는 유용한 미니 앱 제작) 시도

GPT 5.5와 같은 대규모 언어 모델(LLM)을 단순한 도구를 넘어 'ML 인턴'으로 활용하여 데이터셋 생성, 모델 학습 및 최적화, 심지어 미니 애플리케이션 제작에까지 적용하는 흥미로운 시도가 진행되고 있습니다. 이는 LLM이 ML 워크플로우의 여러 단계에서 능동적인 역할을 수행할 수 있음을 보여줍니다.

gpt-5.5llmmachine-learning
4일 전12
X요약

GPT-5.5, 이제 ml-intern 앱에서 사용 가능!

GPT-5.5 모델이 ml-intern 앱을 통해 사용 가능해졌습니다. 이 모델은 사용자들에게 훌륭한 연구 파트너 역할을 제공하며, 특히 GPT-oss가 고블린(Goblin)과 관련된 콘텐츠를 생성하는 데 도움을 줄 수 있습니다.

gpt-5.5ml-internai-model
4일 전11
X요약

Meta 와 SenseNova-U1 의 훌륭한 성과

본 기사는 Meta의 'Tuna-2' 발표와 SenseNova-U1 프로젝트에 대한 긍정적인 평가를 담고 있습니다. 특히, 멀티모달 이해 및 생성을 위한 픽셀 임베딩이 기존 비전 인코더보다 우수하다는 연구 결과를 강조하며 최신 AI 기술 동향을 공유하고 있습니다.

metatuna-2multimodal
4일 전9
X요약

Cohere Transcribe 데모 및 순수 PyTorch 포트 소개

Cohere Transcribe를 위한 초고속 전사 데모와 순수 PyTorch 포트가 공개되었습니다. 이 새로운 포트는 에너지 기반 청킹과 크로스 파일 배치 패킹 기술을 활용하여, 단일 A100 GPU에서 39.3시간 분량의 장문 오디오 데이터셋 전체를 단 3.7분 만에 처리할 수 있는 놀라운 성능을 보여줍니다.

speech-recognitiontranscriptionpytorch
4일 전3
X요약

Hugging Science 소개 -- 과학용 AI의 본거지

Hugging Science는 과학 분야 AI 모델과 데이터셋을 위한 허브를 제공합니다. 이 플랫폼은 오픈 소스 모델과 데이터를 통해 과학 연구의 핵심 동력을 지원하며, 사용자가 직접 arXiv를 파싱하거나 복잡한 모델 구축 과정 없이도 필요한 자원을 쉽게 찾고 활용할 수 있도록 돕습니다.

hugging-sciencescientific-aiopen-source
4일 전8
X요약

첫 번째 에이전트 네이티브 로봇!

이 글은 Reachy mini 로봇의 새로운 버전을 소개하며, 이를 활용하여 AI 에이전트(ml intern)를 통해 단시간에 첫 번째 애플리케이션을 개발한 경험을 공유합니다. 독자들은 Hugging Face Spaces에서 제공되는 데모 링크를 통해 직접 이 기능을 체험해 볼 수 있습니다.

roboticsai-agentshuggingface
4일 전5
X요약

OmniShotCut

OmniShotCut은 '샷(shot)' 경계를 포괄적이고 관계적으로 탐지하는 새로운 접근 방식을 제시합니다. 이 방법은 샷-쿼리 트랜스포머(Shot-Query Transformer)를 활용하여 비디오 프레임 시퀀스 내에서 정확한 장면 전환 지점을 식별하고, 이를 통해 보다 정교한 영상 편집 및 분석을 가능하게 합니다.

shot-boundary-detectionvideo-processingtransformer
4일 전4
X요약

Tuna-2 소개: 시각 이해, 텍스트에서 이미지 생성, 이미지에디팅 통합

Meta에서 발표한 Tuna-2는 시각적 이해, 텍스트 기반 이미지 생성, 그리고 픽셀 임베딩을 활용한 정교한 이미지 에디팅 기능을 통합한 모델입니다. 이 모델은 특히 다중 모달(multimodal) 이해 및 생성 과정에서 기존의 비전 인코더보다 픽셀 임베딩이 우수한 성능을 보인다는 점에 초점을 맞추고 있습니다.

tuna-2multimodalimage-generation
5일 전10
X요약

Embodied Intelligence 를 위한 일반 동작 인코더의 'ImageNet' 벤치마크인 LARY 소개

본 기사는 신체 지능(Embodied Intelligence) 분야에서 일반적인 동작 인코더를 평가하기 위한 새로운 벤치마크, LARY를 소개합니다. LARY는 잠재적 동작 표현을 동작 일반화와 로봇 제어라는 두 가지 측면에서 정량적으로 평가할 수 있는 최초의 방법입니다. 이 벤치마크는 인간 동작 비디오와 같은 확장 가능한 데이터 소스를 활용하여 모델의 성능을 검증하는 데 중점을 둡니다.

embodied-intelligenceaction-encoderrobotics
5일 전4
X요약

ClawMark

ClawMark는 동료 에이전트(coworker agents)의 성능을 측정하기 위해 설계된 살아있는 세계(living-world) 벤치마크입니다. 이 벤치마크는 LLM이 새로운 이메일, 변경된 캘린더, 업데이트된 파일 등 환경이 독립적으로 진화하는 지속 가능한 워크플로우를 여러 날에 걸쳐 처리할 수 있는지 테스트합니다. 이를 통해 에이전트가 다중 모달 증거와 복잡한 장기적 상호작용을 얼마나 잘 수행하는지 평가합니다.

llmagent-frameworkbenchmark
5일 전5
X요약

환경 정책이 실제로 효과를 보는지 확인하는 앱을 만들었습니다

이 앱은 국가별로 1990년 이후의 주요 산림 정책과 나무 덮개 변화를 시각적으로 비교 분석할 수 있게 해줍니다. 사용자는 특정 국가를 선택하고 연도를 클릭하여 해당국의 환경 정책이 실제로 어떤 영향을 미쳤는지, 그리고 그 역사적 맥락을 깊이 있게 탐색할 수 있습니다. Gradio 기반으로 구축되어 누구나 무료로 접근 가능한 오픈 소스 도구입니다.

environmental-policyforest-coversustainability
5일 전5
X요약

28분 만에 500+ 좋아요. HF에서 #1 트렌딩에 가장 빠르게 도달하는 모델이 되기 위한 여정에 있습니다! https:// huggingface.co/deepseek-ai/De epSeek-V4-Pro …

DeepSeek-V4-Pro 모델을 Hugging Face(HF) 플랫폼에서 성공적으로 출시하며 큰 주목을 받고 있습니다. 이 모델은 단 28분 만에 500개 이상의 좋아요를 기록하며, HF 트렌딩 목록의 최상위권에 빠르게 진입하는 등 폭발적인 인기를 입증했습니다. 이는 새로운 AI 모델이 커뮤니티에서 얼마나 빠르게 채택되고 주목받는지 보여주는 사례입니다.

deepseek-v4-prohuggingfaceai-model
4월 27일4
X요약

우리는 AI 빌더들의 협업을 위해 HF를 만들었는데, 에이전트 협업의 장소로 점점 더 자리 잡아가는 걸 보니 정말 재미있네요! 오늘 아침에 저는 제 ml-intern을 @OpenAI Parameter Golf 챌린지에 참여시키려고 보냈어요. 이 챌린…

원문은 Hugging Face(HF) 플랫폼이 단순한 AI 빌더들의 협업 공간을 넘어, 에이전트 간의 복잡한 협업 및 상호작용의 핵심 장소로 진화하고 있음을 보여줍니다. 필자는 자신의 인턴을 특정 챌린지(OpenAI Parameter Golf)에 참여시키며, 이 플랫폼이 모델 최적화와 실습 환경 제공 측면에서 중요한 역할을 하고 있음을 언급합니다.

huggingfaceai-agentsllm
4월 27일3
X요약

Dell HuggingFace: Kimi K2.5, Llama 및 주요 오픈소스 모델 저장소 공개

Dell은 Dell HuggingFace 플랫폼을 통해 Kimi K2.5, Mistral, Meta/Llama, Qwen 등 전 세계 주요 오픈소스 및 커머셜 AI 모델을 한곳에 모아 제공합니다. 개발자와 연구자들은 이 저장소를 통해 다양한 아키텍처의 모델에 쉽게 접근하고 실험할 수 있습니다.

ai-modelsopen-sourcellm
4월 27일3
X요약

DeepSeek-V4 Pro, 43분 만에 Hugging Face 트렌딩 1위 달성

최근 DeepSeek AI에서 공개한 DeepSeek-V4 Pro 모델이 Hugging Face(HF) 플랫폼에서 놀라운 속도로 주목받고 있습니다. 해당 모델은 짧은 시간 안에 수많은 좋아요와 높은 관심을 받으며 HF의 트렌딩 랭킹 1위에 오르는 기록을 세웠습니다. 이는 최신 대규모 언어 모델(LLM)들이 커뮤니티의 폭발적인 관심과 빠른 채택 속도를 보여주며, AI 생태계 전반에 걸쳐 강력한 주목을 받고 있음을 시사합니다.

llmdeepseekhuggingface
4월 24일3
X요약

오픈소스 대형 모델 DeepSeek-V4, 1M 컨텍스트로 개발자들을 사로잡다

DeepSeek AI가 최신 오픈소스 LLM인 DeepSeek-V4를 공식 출시하며 큰 주목을 받고 있습니다. 이 모델은 총 1.6T / 활성 49B 파라미터의 거대한 규모와 100만 토큰(1M)에 달하는 컨텍스트 길이를 특징으로 합니다. 특히, 최고 수준의 폐쇄형 상용 모델들과 견줄 만한 성능을 오픈소스로 제공함으로써, 개발자들이 비용 효율적이면서도 강력한 기반 모델을 확보할 수 있게 했습니다. DeepSeek-V4-Pro와 DeepSeek-V4-Flash 두 가지 버전이 공개되어 다양한 사용 사례에 대응하며 LLM 생태계의 새로운 기준점을 제시합니다.

llmdeepseek-v4open-source
4월 24일5
X요약

MacBook Pro에서 Qwen3.6 27B 구동: 로컬 AI 에이전트의 현주소

최신 대규모 언어 모델(LLM)인 Qwen3.6 27B를 MacBook Pro와 같은 개인 기기에서 Llama.cpp를 활용하여 구동하는 사례가 주목받고 있습니다. 이는 단순히 로컬 추론을 넘어, 'Pi 코딩 에이전트'라는 형태로 통합되어 복잡한 코드 기반 작업까지 수행하고 있음을 보여줍니다. 이 기술은 외부 클라우드 의존도를 낮추고 개발자 개인의 생산성을 극대화하는 방향으로 AI 에이전트가 진화하고 있음을 시사합니다.

llmlocal-inferenceai-agent
4월 24일3

이 피드 구독하기

본 페이지의 콘텐츠는 AI가 공개된 소스를 기반으로 자동 수집·요약·번역한 것입니다. 원 저작권은 각 원저작자에게 있으며, 각 게시물의 “원문 바로가기” 링크를 통해 원문을 확인할 수 있습니다. 저작권자의 삭제 요청이 있을 경우 신속히 조치합니다.