Mastodon discussion May 7

How Unsloth and Nvidia made LLM training 25% faster on consumer GPUsUnsloth와 NVIDIA가 협력하여 소비자용 GPU에서 대형 언어 모델(LLM) 훈련 속도...

How Unsloth and Nvidia made LLM training 25% faster on consumer GPUsUnsloth와 NVIDIA가 협력하여 소비자용 GPU에서 대형 언어 모델(LLM) 훈련 속도를 약 25% 향상시키는 최적화 기법을 발표했다. 주요 개선점은 반복되는 메타데이터 재구성을 캐싱하여 불필요...

Mastodon discussion May 7

Anthropic이 SpaceX 등과의 대규모 컴퓨트 계약으로 Claude 사용 한도를 확대했다. SpaceX의 Colossus 1 용량을 포함해 한 달 내 300MW 이상·22만대 이상의 NVIDIA GPU 접근이...

Anthropic이 SpaceX 등과의 대규모 컴퓨트 계약으로 Claude 사용 한도를 확대했다. SpaceX의 Colossus 1 용량을 포함해 한 달 내 300MW 이상·22만대 이상의 NVIDIA GPU 접근이 가능해지며, 즉시 적용으로 Pro·Max·Team·좌석형 엔터프라이즈의 Claude Code 5시간 한도가...

Mastodon discussion May 6

Akshay (@akshay_pachaar)NVIDIA와 Unsloth가 파인튜닝 속도를 25% 높이는 가이드를 공개했다. GPU 학습을 더 빠르게 만드는 핵심 최적화로 packed-sequence 메타데이터 캐싱과...

Akshay (@akshay_pachaar)NVIDIA와 Unsloth가 파인튜닝 속도를 25% 높이는 가이드를 공개했다. GPU 학습을 더 빠르게 만드는 핵심 최적화로 packed-sequence 메타데이터 캐싱과 더블 버퍼드 체크포인트 등 시스템 레벨 기법을 소개한다. AI 모델 학습 효율 개선에 유용한 실전 자료다....