클라우드플레어가 서버리스 AI 추론 플랫폼인 ‘워커스 AI(Workers AI)’와 AI 애플리케이션 구축을 위한 여러 도구에 신규 기능을 도입하고, 개발자가 더욱 빠르고 향상된 성능의 AI 애플리케이션을 손쉽게 구축할 수 있도록 지원한다고 밝혔다.
워커스 AI는 전 세계 어디에서나 사용자와 가까운 곳에서 AI 추론을 실행하고 글로벌 AI 애플리케이션을 구축할 수 있는 플랫폼이다. 이번 도입으로 워커스 AI에 구축된 애플리케이션은 추론 속도 향상, 대형 모델에 대한 지원, 성능 분석등의 혜택을 누릴 수 있게 된다.
대형언어모델(LLM)의 규모가 점점 작아지고 성능은 향상됨에 따라, 네트워크 속도가 고객의 채택과 원활한 AI 상호 작용에 장애물이 될 것으로 예상된다. 클라우드플레어의 글로벌 분산 네트워크는 네트워크 지연 시간을 최소화하여, 일반적으로 제한된 데이터센터에 집중돼 있는 자원으로 구성된 다른 네트워크와 차별화된다. 클라우드플레어의 서버리스 추론 플랫폼인 워커스 AI는 현재 전 세계 180여 개의 도시에 GPU를 배치하여 전 세계 엔드유저에게 짧은 대기 시간을 제공하도록 설계되었다. 워커스 AI는 이러한 GPU 네트워크를 통해 모든 AI 플랫폼 중 가장 넓은 글로벌 범위를 갖추고 있으며, 사용자와 최대한 가까운 지역에서 AI 추론을 실행하고 고객 데이터를 보관할 수 있도록 지원한다.
매튜 프린스(Matthew Prince) 클라우드플레어 CEO는 "지난해 AI가 급속도로 성장할 때, 아무도 네트워크 속도가 AI 지연의 원인으로 작용할 것이라고 생각하지 않았다. 그 시점에서 AI는 여전히 새롭고 실험적인 상호작용이었기 때문이다. 하지만 AI가 점차 일상화되면서 네트워크와 밀리초의 중요성 또한 커지고 있다”며 "AI 워크로드가 학습에서 추론으로 전환됨에 따라, 다음 단계의 AI를 지원하기 위해서는 성능과 지역별 가용성이 매우 중요하다. 클라우드플레어는 시장에서 가장 글로벌한 AI 플랫폼을 갖추고 있으며, 전 세계 여러 도시에 배치된GPU를 활용하면 스마트폰에 빠른 인터넷을 도입했던 것처럼 AI를 신기술에서 우리의 일상으로 받아들일 수 있을 것이다“라고 말했다.
★정보보안 대표 미디어 데일리시큐 / Dailysecu, Korea's leading security media!★