top of page


AI 인프라 양극화 시대, 대기업은 $29조를 씁니다
설명을 돕기 위해 AI로 생성된 그림입니다. 몇일 전 Meta가 CoreWeave와 $210억 규모의 AI 클라우드 계약을 2032년까지 연장했습니다. 기존 $142억 계약까지 합산하면 총 $350억이 넘습니다. 한화로 약 50조원입니다. CoreWeave는 이 계약을 발표한 시점 기준으로, 역대 가장 빠르게 $50억 ARR을 돌파한 클라우드 기업이 되었습니다. 숫자 자체보다 중요한 건 이 계약의 구조입니다. 쓸지 안 쓸지 모르는 GPU 용량을 몇 년 단위로 미리 확보하는 방식인 장기 용량 예약 모델은 대형 테크 기업들이 AI 인프라를 선점하기 위해 선택하는 대표적인 전략입니다. 🤔 왜 대형 테크 기업들은 장기 계약을 선택할까요? AI 인프라 경쟁에서 GPU 확보는 제품 출시 속도와 직결됩니다. 필요할 때 수급할 수 있는 시장이 아닙니다. NVIDIA Blackwell 시리즈처럼 수요가 폭발하면, 수급 타이밍을 놓친 기업은 수개월을 기다려야 합
4월 15일


월 몇 토큰부터 GPU를 직접 빌리는 게 더 저렴할까?
AI 서비스를 계속 운영하다 보면 언젠가 이런 궁금증에 마주하게 됩니다. "지금 우리가 API로 쓰는 게 진짜 저렴한 걸까? 아니면 그냥 GPU를 사서 직접 돌리는 게 낫지 않을까?" 모델 성능이 평준화되면서 이제 승부처는 비용이 되었습니다. 팀마다 자신의 사용량 규모에서 어느 방식이 진짜 저렴한지 계산하기 시작했고, 답은 사용량에 따라 명확히 달라집니다. 이 글에서는 AI 인프라 도입을 고민하는 팀들을 위해 세 가지 선택지의 실제 비용 구조를 숫자로 비교합니다. 세 가지 인프라 운영 방식과 비용 구조 비용을 비교하기 전에, 먼저 각 선택지의 비용 구조를 이해해야 합니다. 같아 보이는 비용도 어떤 방식으로 발생하느냐에 따라, 사용량 규모별로 유불리가 완전히 달라지기 때문입니다. 1. 서버리스 API: 쓴 만큼만 낸다 (고정비 X + 토큰당 과금) | 비용 구조 : 고정비 없음 + 토큰당 과금 토큰 단위로 사용료를 내는 방식입니다. GPU를 직접
4월 14일


구글이 발표한 TurboQuant — "비싼 GPU 없이 LLM을 서빙하는 시대"가 가까워지고 있다
80GB GPU는 정말 필수였을까? TurboQuant가 KV 캐시를 압축하면서 LLM 추론 비용 구조가 바뀌고 있습니다.
3월 30일
bottom of page
