스페인의 AI 스타트업 멀티버스 컴퓨팅(Multiverse Computing)이 12일(현지시간), 1억 8900만 유로(약 2억 1500만 달러, 한화 약 2936억) 규모의 시리즈 B 투자를 유치했다고 밝혔습니다. 이번 대규모 투자는 거대 언어 모델(LLM)의 크기를 획기적으로 줄여 AI 운영 비용을 크게 낮출 수 있는 ‘컴팩티파이(CompactifAI)’ 기술의 잠재력을 인정받은 결과입니다.
컴팩티파이는 양자 컴퓨팅에서 영감을 얻은 압축 기술로, LLM의 성능 저하 없이 모델 크기를 최대 95%까지 줄일 수 있는 것이 특징입니다. 멀티버스 컴퓨팅은 이를 통해 ‘라마 4 스카우트’, ‘미스트랄 스몰 3.1’ 등 유명 오픈소스 모델의 압축 버전을 제공하고 있습니다. 압축된 ‘슬림(slim)’ 모델은 오픈AI의 GPT와 같은 독점 모델은 지원하지 않지만, 오픈소스 생태계의 비용 효율성을 높이는 데 기여할 전망입니다.
이 기술을 통해 멀티버스 컴퓨팅의 ‘슬림’ 모델은 기존 모델보다 4배에서 12배 빠른 속도를 제공하며, 이는 추론 비용을 50%에서 80%까지 절감하는 효과로 이어집니다. 예를 들어, 아마존 웹 서비스(AWS)에서 멀티버스의 압축 모델은 100만 토큰당 10센트의 비용으로 운영 가능해, 기존 모델의 14센트보다 저렴합니다.
특히 이 기술은 AI 모델을 매우 작고 에너지 효율적으로 만들어 PC, 스마트폰, 자동차, 드론은 물론 소형 컴퓨터인 ‘라즈베리 파이’에서도 구동할 수 있게 합니다. 이는 고가의 클라우드 인프라 없이도 다양한 엣지 디바이스에서 직접 AI를 활용할 수 있는 ‘온디바이스 AI’ 시대를 앞당길 중요한 열쇠가 될 수 있습니다.
이번 투자는 스포티파이, 디스코드 등에 투자한 불하운드 캐피털이 주도했으며 HP 테크 벤처스, 산탄데르, 도시바 등 유수의 기업들이 참여했습니다. 멀티버스 컴퓨팅은 현재까지 160개의 관련 특허와 보쉬, 캐나다 은행 등 100여 개의 글로벌 고객을 확보했으며, 이번 투자로 AI 비용 절감 기술의 상용화를 더욱 가속화할 계획입니다.
태그: