top of page


명령어 하나로 끝내는 Air API 연동: ClawHub 플러그인 이야기
안녕하세요, 개발팀에서 DevOps/SRE를 담당하고 있는 이창윤입니다. 최근 Air API 출시와 함께 저희 팀은 인프라 모니터링 체계를 구축하고 있습니다. 이번 글에서는 그 과정에서 개발한 OpenClaw 플러그인을 소개하려고 합니다 🙂 시작하기 전에 OpenClaw를 한동안 써본 분이라면 한 번쯤 이런 상황을 겪어보셨을 겁니다. 외부 모델 프로바이더를 연결하려는 순간, 설정 메뉴를 뒤적이고 Base URL을 복사-붙여넣기 하고 사용할 모델마다 엔드포인트를 손으로 하나씩 등록하는 그 과정을요. 하다보면 동작은 하는데, 세팅이 유쾌하지는 않습니다. 이 글에서는 저희 팀이 개발한 플러그인을 통해 plugins install 명령어 하나가 이 모든 반복을 어떻게 없애는지를 소개해보도록 하겠습니다. 그리고 그 뒤에서는 실제로 무슨 코드가 돌아가는지까지도 함께 들여다보겠습니다. 기존 방식: Custom Provider, 모델마다 반복 아래 그림처럼
6일 전


AI 인프라 양극화 시대, 대기업은 $29조를 씁니다
설명을 돕기 위해 AI로 생성된 그림입니다. 몇일 전 Meta가 CoreWeave와 $210억 규모의 AI 클라우드 계약을 2032년까지 연장했습니다. 기존 $142억 계약까지 합산하면 총 $350억이 넘습니다. 한화로 약 50조원입니다. CoreWeave는 이 계약을 발표한 시점 기준으로, 역대 가장 빠르게 $50억 ARR을 돌파한 클라우드 기업이 되었습니다. 숫자 자체보다 중요한 건 이 계약의 구조입니다. 쓸지 안 쓸지 모르는 GPU 용량을 몇 년 단위로 미리 확보하는 방식인 장기 용량 예약 모델은 대형 테크 기업들이 AI 인프라를 선점하기 위해 선택하는 대표적인 전략입니다. 🤔 왜 대형 테크 기업들은 장기 계약을 선택할까요? AI 인프라 경쟁에서 GPU 확보는 제품 출시 속도와 직결됩니다. 필요할 때 수급할 수 있는 시장이 아닙니다. NVIDIA Blackwell 시리즈처럼 수요가 폭발하면, 수급 타이밍을 놓친 기업은 수개월을 기다려야 합
4월 15일


월 몇 토큰부터 GPU를 직접 빌리는 게 더 저렴할까?
AI 서비스를 계속 운영하다 보면 언젠가 이런 궁금증에 마주하게 됩니다. "지금 우리가 API로 쓰는 게 진짜 저렴한 걸까? 아니면 그냥 GPU를 사서 직접 돌리는 게 낫지 않을까?" 모델 성능이 평준화되면서 이제 승부처는 비용이 되었습니다. 팀마다 자신의 사용량 규모에서 어느 방식이 진짜 저렴한지 계산하기 시작했고, 답은 사용량에 따라 명확히 달라집니다. 이 글에서는 AI 인프라 도입을 고민하는 팀들을 위해 세 가지 선택지의 실제 비용 구조를 숫자로 비교합니다. 세 가지 인프라 운영 방식과 비용 구조 비용을 비교하기 전에, 먼저 각 선택지의 비용 구조를 이해해야 합니다. 같아 보이는 비용도 어떤 방식으로 발생하느냐에 따라, 사용량 규모별로 유불리가 완전히 달라지기 때문입니다. 1. 서버리스 API: 쓴 만큼만 낸다 (고정비 X + 토큰당 과금) | 비용 구조 : 고정비 없음 + 토큰당 과금 토큰 단위로 사용료를 내는 방식입니다. GPU를 직접
4월 14일


가장 저렴하게 Qwen을 쓰는 방법
요즘 산업, 직무, 학계 너나할 것 없이 "나만의 AI 에이전트 비서"를 만들고 업무에 적용하고 있습니다. 그런데 막상 계속 쓰다 보면 피할 수 없는 현실과 마주하게 됩니다. 바로 비용 입니다. 월 구독료보다 비싼, 나도 모르게 쌓인 API 호출 비용이 청구서로 날아오죠. AI 에이전트는 작업 한 번에 모델을 적게는 수십에서 많게는 수백 번 호출합니다. 스스로 계획을 세우고-도구를 쓰고-결과를 검증하고-다시 호출하는 루프가 반복되기 때문이죠. 에이전트가 똑똑해질수록 API 비용이 함께 올라가는 건 어쩌면 당연한 수순입니다. 그런데 이렇게 매일 쌓이는 API 비용이 과연 지속가능할까요? 쓸수록 적자가 나는 구조라면 아무리 좋은 AI도 프로덕트에 넣기는 어렵습니다. 에이전틱 AI 시대에 우리에게 진짜 필요한 건 더 좋은 모델이 아니라, 더 저렴한 추론입니다. Air API는 바로 이 문제를 풀기 위해 만들어졌습니다. 오픈소스 모델, 에이전트 시대의
4월 10일


Air API가 출시되었습니다
오픈소스 AI 모델을 직접 서빙하려면, 모델 선택보다 인프라 세팅에 더 많은 시간이 걸립니다. GPU 확보하고, 환경 구성하고, 트래픽에 맞춰 스케일링까지 — 모델 하나 돌리기까지의 과정이 너무 깁니다. 저희 팀이 이 문제를 해결합니다! 오픈소스 AI 모델을 서버리스 API로 제공하는 서비스인 Air API를 드디어 출시하게 되었는데요, 인프라 구축 없이 API 키 하나로 바로 시작할 수 있으니까 지금 바로 테스트해보세요. 주요 특징 💡 OpenAI 호환 엔드포인트 기존에 OpenAI API를 사용하고 계셨다면, 엔드포인트 URL만 바꾸면 됩니다. 코드 수정이 거의 필요 없습니다. 💡 토큰 기반 종량제 월 고정 요금이 아닙니다. 사용한 토큰만큼만 과금됩니다. 💡 인프라 관리 불필요 GPU 확보, 모델 배포, 스케일링을 AIEEV의 분산 GPU 인프라가 처리합니다. 출시 모델 Air API는 Qwen 시리즈 3종부터 시작합니다. 앞으로 점
4월 9일


AI 인프라, 이제 지리를 초월해야 합니다
전쟁과 지정학적 갈등 속에서 드러난 AI 인프라의 구조적 한계.
중앙 집중형 데이터센터의 취약성을 짚고, 분산형 인프라가 왜 새로운 기준이 되어야 하는지 살펴봅니다.
4월 6일


AIEEV, 누적 투자금 20억 원으로 Pre-A 라운드 클로징
AIEEV는 블루포인트파트너스, 로우파트너스, AI 엔젤클럽이 참여한 Pre-A 라운드를 마무리하며 누적 투자금 $1.5M을 달성했습니다.
1월 28일


에이아이브, LG유플러스 'SHIFT' 참여 기업 선정
분산형 GPU(그래픽처리장치) 인프라 기술을 개발하는 스타트업 에이아이브(대표 박세진)가 최근 LG유플러스의 AI(인공지능) 오픈이노베이션 프로그램 'SHIFT(쉬프트)' 참여 기업으로 선정됐다고 1일 밝혔다. 쉬프트는 기술 기반 스타트업을 발굴, 사업화를 지원하는 프로그램이다. 에이아이브는 올해 삼성전자 'C랩 아웃사이드' 및 SK텔레콤 'AI 스타트업 액셀러레이터 프로그램'에도 선정된 바 있다. 이번 쉬프트 합류로 국내 주요 기술·통신 기업이 운영하는 스타트업 육성 프로그램에 잇따라 발탁됐다. 회사 측은 분산형 GPU 인프라라는 기술적 차별성, AI 추론 비용 절감 관련 문제 해결 가능성, 데이터센터 의존도를 낮추는 효율성 등을 연속 선정 배경으로 꼽았다. 에이아이브는 유휴 GPU·NPU(신경망처리장치) 리소스를 글로벌 네트워크로 묶어 클라우드 스택을 구성하고, AI 추론을 빠르고 저렴하게 수행하는 분산형 클라우드 플랫폼 'Air Cloud(에
2025년 12월 7일




유휴 GPU 연결해 AI 인프라 비용 절감, 분산 클라우드 전문 스타트업 에이아이브의 도전
유휴 GPU 연결해 AI 인프라 비용 절감, 분산 클라우드 전문 스타트업 에이아이브의 도전
2025년 11월 23일




에이아이브, SK AI 서밋 2025서 분산형 GPU 인프라 공개
에이아이브 (대표 박세진)가 비용 절감과 확장성을 갖춘 차세대 인공지능(AI) 인프라 모델을 제시했다. 에이아이브는 서울 코엑스에서 열린 SK AI 서밋 2025에 참가해 그래픽처리장치(GPU) 클라우드 에어클라우드를 소개했다고 12일 밝혔다. '오늘의 혁신, 내일의 도약'을 주제로 열린 이번 행사는 최태원 SK그룹 회장을 비롯해 엔비디아, 앤트로픽, 카카오 등 글로벌 AI 생태계를 이끄는 주요 인사와 기업들이 참석해 인공지능 기술의 발전 방향을 논의했다. 에이아이브는 SK텔레콤 AI 스타트업 엑셀러레이팅 프로그램 선정 기업으로, 스타트업 존에서 에어클라우드의 GPU 자동 확장 기능을 시연했다. 에어클라우드는 전 세계 개인과 기업의 유휴 GPU를 연결해 대규모 데이터센터에 대한 의존도를 낮추고, 저비용·고효율의 인공지능 추론을 실현하는 분산형 클라우드 플랫폼이다. 이를 통해 인공지능 추론 비용을 최대 80% 절감하면서도 대규모 연산을 안정적으로
2025년 11월 12일


에이아이브, 실리콘밸리 공략 성공...‘에어클라우드’로 글로벌 AI 인프라 재편
에이아이브, 실리콘밸리 공략 성공...‘에어클라우드’로 글로벌 AI 인프라 재편
2025년 10월 25일


에이아이브, 산업부 과제 'AX 연구지원 플랫폼 구축' 주관기관 선정
분산형 그래픽처리장치(GPU) 인공지능(AI) 클라우드 기업 에이아이브는 '고난이도 AX 연구지원 플랫폼 구축’ 사업의 주관 기관으로 선정됐다고 13일 밝혔다.
2025년 10월 19일


에이아이브, 전 세계 엣지 GPU 연결한 ‘에어클라우드’ 출시… AI 추론 비용 40% 절감
베타 검증 완료·핵심 기능 업그레이드… 합리적 비용의 대규모 AI 추론 환경 제공 2025년 09월 30일 – 분산형 GPU AI 클라우드 스타트업 AIEEV(에이아이브)가 ‘Air Cloud(에어클라우드)’를 9월 정식 출시했다. Air Cloud는 대규모 데이터센터 의존 구조를 벗어나 소비자와 기업의 유휴 GPU를 연결해 저비용으로 AI 추론을 가능하게 하는 100% 분산형 추론 전용 AI 클라우드다. AIEEV는 장기적으로 전 세계 GPU와 NPU를 모두 연결해 데이터센터 없는 친환경적이고 저비용이면서도 고성능의 AI 인프라를 실현한다는 비전을 세우고 있다. AI 서비스 확산으로 추론 수요가 급증하면서 글로벌 데이터센터의 전력 소비와 인프라 비용도 크게 늘고 있다. 기존 퍼블릭 클라우드는 데이터센터를 건축해 클라우드서비스를 제공하는데, 높은 투자비와 에너지 사용률로 인해 확장 한계에 부딪히고 있다. AIEEV는 학습이 아닌 추론시장에 집중해
2025년 10월 5일
bottom of page


