top of page


AI 인프라 양극화 시대, 대기업은 $29조를 씁니다
설명을 돕기 위해 AI로 생성된 그림입니다. 몇일 전 Meta가 CoreWeave와 $210억 규모의 AI 클라우드 계약을 2032년까지 연장했습니다. 기존 $142억 계약까지 합산하면 총 $350억이 넘습니다. 한화로 약 50조원입니다. CoreWeave는 이 계약을 발표한 시점 기준으로, 역대 가장 빠르게 $50억 ARR을 돌파한 클라우드 기업이 되었습니다. 숫자 자체보다 중요한 건 이 계약의 구조입니다. 쓸지 안 쓸지 모르는 GPU 용량을 몇 년 단위로 미리 확보하는 방식인 장기 용량 예약 모델은 대형 테크 기업들이 AI 인프라를 선점하기 위해 선택하는 대표적인 전략입니다. 🤔 왜 대형 테크 기업들은 장기 계약을 선택할까요? AI 인프라 경쟁에서 GPU 확보는 제품 출시 속도와 직결됩니다. 필요할 때 수급할 수 있는 시장이 아닙니다. NVIDIA Blackwell 시리즈처럼 수요가 폭발하면, 수급 타이밍을 놓친 기업은 수개월을 기다려야 합
4월 15일


월 몇 토큰부터 GPU를 직접 빌리는 게 더 저렴할까?
AI 서비스를 계속 운영하다 보면 언젠가 이런 궁금증에 마주하게 됩니다. "지금 우리가 API로 쓰는 게 진짜 저렴한 걸까? 아니면 그냥 GPU를 사서 직접 돌리는 게 낫지 않을까?" 모델 성능이 평준화되면서 이제 승부처는 비용이 되었습니다. 팀마다 자신의 사용량 규모에서 어느 방식이 진짜 저렴한지 계산하기 시작했고, 답은 사용량에 따라 명확히 달라집니다. 이 글에서는 AI 인프라 도입을 고민하는 팀들을 위해 세 가지 선택지의 실제 비용 구조를 숫자로 비교합니다. 세 가지 인프라 운영 방식과 비용 구조 비용을 비교하기 전에, 먼저 각 선택지의 비용 구조를 이해해야 합니다. 같아 보이는 비용도 어떤 방식으로 발생하느냐에 따라, 사용량 규모별로 유불리가 완전히 달라지기 때문입니다. 1. 서버리스 API: 쓴 만큼만 낸다 (고정비 X + 토큰당 과금) | 비용 구조 : 고정비 없음 + 토큰당 과금 토큰 단위로 사용료를 내는 방식입니다. GPU를 직접
4월 14일


가장 저렴하게 Qwen을 쓰는 방법
요즘 산업, 직무, 학계 너나할 것 없이 "나만의 AI 에이전트 비서"를 만들고 업무에 적용하고 있습니다. 그런데 막상 계속 쓰다 보면 피할 수 없는 현실과 마주하게 됩니다. 바로 비용 입니다. 월 구독료보다 비싼, 나도 모르게 쌓인 API 호출 비용이 청구서로 날아오죠. AI 에이전트는 작업 한 번에 모델을 적게는 수십에서 많게는 수백 번 호출합니다. 스스로 계획을 세우고-도구를 쓰고-결과를 검증하고-다시 호출하는 루프가 반복되기 때문이죠. 에이전트가 똑똑해질수록 API 비용이 함께 올라가는 건 어쩌면 당연한 수순입니다. 그런데 이렇게 매일 쌓이는 API 비용이 과연 지속가능할까요? 쓸수록 적자가 나는 구조라면 아무리 좋은 AI도 프로덕트에 넣기는 어렵습니다. 에이전틱 AI 시대에 우리에게 진짜 필요한 건 더 좋은 모델이 아니라, 더 저렴한 추론입니다. Air API는 바로 이 문제를 풀기 위해 만들어졌습니다. 오픈소스 모델, 에이전트 시대의
4월 10일


구글이 발표한 TurboQuant — "비싼 GPU 없이 LLM을 서빙하는 시대"가 가까워지고 있다
80GB GPU는 정말 필수였을까? TurboQuant가 KV 캐시를 압축하면서 LLM 추론 비용 구조가 바뀌고 있습니다.
3월 30일


에이아이브, LG유플러스 'SHIFT' 참여 기업 선정
분산형 GPU(그래픽처리장치) 인프라 기술을 개발하는 스타트업 에이아이브(대표 박세진)가 최근 LG유플러스의 AI(인공지능) 오픈이노베이션 프로그램 'SHIFT(쉬프트)' 참여 기업으로 선정됐다고 1일 밝혔다. 쉬프트는 기술 기반 스타트업을 발굴, 사업화를 지원하는 프로그램이다. 에이아이브는 올해 삼성전자 'C랩 아웃사이드' 및 SK텔레콤 'AI 스타트업 액셀러레이터 프로그램'에도 선정된 바 있다. 이번 쉬프트 합류로 국내 주요 기술·통신 기업이 운영하는 스타트업 육성 프로그램에 잇따라 발탁됐다. 회사 측은 분산형 GPU 인프라라는 기술적 차별성, AI 추론 비용 절감 관련 문제 해결 가능성, 데이터센터 의존도를 낮추는 효율성 등을 연속 선정 배경으로 꼽았다. 에이아이브는 유휴 GPU·NPU(신경망처리장치) 리소스를 글로벌 네트워크로 묶어 클라우드 스택을 구성하고, AI 추론을 빠르고 저렴하게 수행하는 분산형 클라우드 플랫폼 'Air Cloud(에
2025년 12월 7일


유휴 GPU 연결해 AI 인프라 비용 절감, 분산 클라우드 전문 스타트업 에이아이브의 도전
유휴 GPU 연결해 AI 인프라 비용 절감, 분산 클라우드 전문 스타트업 에이아이브의 도전
2025년 11월 23일


에이아이브, 실리콘밸리 공략 성공...‘에어클라우드’로 글로벌 AI 인프라 재편
에이아이브, 실리콘밸리 공략 성공...‘에어클라우드’로 글로벌 AI 인프라 재편
2025년 10월 25일


에이아이브, 전 세계 엣지 GPU 연결한 ‘에어클라우드’ 출시… AI 추론 비용 40% 절감
베타 검증 완료·핵심 기능 업그레이드… 합리적 비용의 대규모 AI 추론 환경 제공 2025년 09월 30일 – 분산형 GPU AI 클라우드 스타트업 AIEEV(에이아이브)가 ‘Air Cloud(에어클라우드)’를 9월 정식 출시했다. Air Cloud는 대규모 데이터센터 의존 구조를 벗어나 소비자와 기업의 유휴 GPU를 연결해 저비용으로 AI 추론을 가능하게 하는 100% 분산형 추론 전용 AI 클라우드다. AIEEV는 장기적으로 전 세계 GPU와 NPU를 모두 연결해 데이터센터 없는 친환경적이고 저비용이면서도 고성능의 AI 인프라를 실현한다는 비전을 세우고 있다. AI 서비스 확산으로 추론 수요가 급증하면서 글로벌 데이터센터의 전력 소비와 인프라 비용도 크게 늘고 있다. 기존 퍼블릭 클라우드는 데이터센터를 건축해 클라우드서비스를 제공하는데, 높은 투자비와 에너지 사용률로 인해 확장 한계에 부딪히고 있다. AIEEV는 학습이 아닌 추론시장에 집중해
2025년 10월 5일
bottom of page


