top of page


AI 인프라 양극화 시대, 대기업은 $29조를 씁니다
설명을 돕기 위해 AI로 생성된 그림입니다. 몇일 전 Meta가 CoreWeave와 $210억 규모의 AI 클라우드 계약을 2032년까지 연장했습니다. 기존 $142억 계약까지 합산하면 총 $350억이 넘습니다. 한화로 약 50조원입니다. CoreWeave는 이 계약을 발표한 시점 기준으로, 역대 가장 빠르게 $50억 ARR을 돌파한 클라우드 기업이 되었습니다. 숫자 자체보다 중요한 건 이 계약의 구조입니다. 쓸지 안 쓸지 모르는 GPU 용량을 몇 년 단위로 미리 확보하는 방식인 장기 용량 예약 모델은 대형 테크 기업들이 AI 인프라를 선점하기 위해 선택하는 대표적인 전략입니다. 🤔 왜 대형 테크 기업들은 장기 계약을 선택할까요? AI 인프라 경쟁에서 GPU 확보는 제품 출시 속도와 직결됩니다. 필요할 때 수급할 수 있는 시장이 아닙니다. NVIDIA Blackwell 시리즈처럼 수요가 폭발하면, 수급 타이밍을 놓친 기업은 수개월을 기다려야 합
4월 15일


Air API가 출시되었습니다
오픈소스 AI 모델을 직접 서빙하려면, 모델 선택보다 인프라 세팅에 더 많은 시간이 걸립니다. GPU 확보하고, 환경 구성하고, 트래픽에 맞춰 스케일링까지 — 모델 하나 돌리기까지의 과정이 너무 깁니다. 저희 팀이 이 문제를 해결합니다! 오픈소스 AI 모델을 서버리스 API로 제공하는 서비스인 Air API를 드디어 출시하게 되었는데요, 인프라 구축 없이 API 키 하나로 바로 시작할 수 있으니까 지금 바로 테스트해보세요. 주요 특징 💡 OpenAI 호환 엔드포인트 기존에 OpenAI API를 사용하고 계셨다면, 엔드포인트 URL만 바꾸면 됩니다. 코드 수정이 거의 필요 없습니다. 💡 토큰 기반 종량제 월 고정 요금이 아닙니다. 사용한 토큰만큼만 과금됩니다. 💡 인프라 관리 불필요 GPU 확보, 모델 배포, 스케일링을 AIEEV의 분산 GPU 인프라가 처리합니다. 출시 모델 Air API는 Qwen 시리즈 3종부터 시작합니다. 앞으로 점
4월 9일


구글이 발표한 TurboQuant — "비싼 GPU 없이 LLM을 서빙하는 시대"가 가까워지고 있다
80GB GPU는 정말 필수였을까? TurboQuant가 KV 캐시를 압축하면서 LLM 추론 비용 구조가 바뀌고 있습니다.
3월 30일
bottom of page


