2024-04-27 20:55 (토)
스노우플레이크, Mistral AI와 파트너십 체결
상태바
스노우플레이크, Mistral AI와 파트너십 체결
  • 길민권 기자
  • 승인 2024.03.11 15:46
이 기사를 공유합니다

스노우플레이크 코텍스 통해 5개 국어 유창한 LLM 모델 지원
스노우플레이크, Mistral AI와 파트너십 체결

스노우플레이크(Snowflake)가 프랑스의 AI 솔루션 제공업체 Mistral AI와 파트너십을 체결했다고 밝혔다.

이번 파트너십은 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스(Snowflake Ventures)의 Mistral AI의 시리즈 A 투자를 포함한다.

양사의 협력으로 스노우플레이크 고객은 Mistral AI가 가장 최근에 선보인 플래그십 대규모 언어 모델(LLM)인 미스트랄 라지(Mistral Large)를 스노우플레이크 데이터 클라우드 플랫폼에서 적용할 수 있다. 또한, Mistral AI의 최초 기본 모델인 미스트랄 7B와 오픈 소스 모델 믹스트랄(Mixtral) 8x7B에도 액세스할 수 있다.

미스트랄 라지는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고 한번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있다. 프랑스어, 영어, 독일어, 스페인어, 이탈리아어, 5개 언어 처리가 가능하다. 기존 생성형 AI 모델과 대규모 다중 작업 언어 이해 측정(MMLU)을 비교함에 있어서는 뛰어난 성능을 입증하며 챗GPT-4에 이어 API를 통해 사용 가능한 모델 중 2위를 차지하기도 했다.

미스트랄 7B는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이며, 믹스트랄 8x7B는 대부분의 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다.

Mistral AI의 모델들은 스노우플레이크 코텍스(Snowflake Cortex)에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스이다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안, 개인 정보 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다.

스노우플레이크 슈리다 라마스워미(Sridhar Ramaswamy) 신임 CEO는 “스노우플레이크는 Mistral AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 되었다”며 “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인 정보 보호는 강화하고 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 말했다.

Mistral AI의 아르튀르 멘슈(Arthur Mensch) CEO는 “스노우플레이크의 보안, 개인 정보 보호 및 거버넌스에 대한 원칙은 누구나 어디에서든 혁신적인 AI를 활용할 수 있도록 하겠다는 Mistral AI의 포부와 맞아떨어진다. Mistral AI는 전세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능, 고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”며 “스노우플레이크 데이터 클라우드에서 Mistral AI의 모델을 활용함으로써, 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 말했다.

스노우플레이크 지난해 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한, 메타(Meta)의 라마2(Llama 2) 모델을 시작으로 검색증강생성(RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 Mistral AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서, 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다.

복잡한 GPU 관리 대신 사용자의 AI 활용도를 넓히기 위해 엔비디아(NVIDIA)와 적극적으로 협력하고 있다. 스노우플레이크 코텍스는 엔비디아 트라이튼 추론 서버(Triton Inference Server)를 활용해 풀스택 가속 컴퓨팅 플랫폼을 제공하고 있다.

스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되며 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 Mistral AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다.

스노우플레이크는 고객, 데이터 클라우드 생태계는 물론, 기술 커뮤니티 전체에 대한 AI 혁신을 위해 노력하고 있다. 이에 스노우플레이크는 최근 개발자, 연구원 및 조직이 개방적이고 안전하며 책임감 있는 AI를 개발하기 위한 국제 커뮤니티인 AI 얼라이언스에 가입했다. AI 얼라이언스를 통해 스노우플레이크는 생성형 AI가 가져올 도전과제와 기회에 대해 전방위적이고 개방적으로 대응하며 누구나 AI 기술을 활용하고 혜택을 얻을 수 있도록 지속적으로 노력할 계획이다.

★정보보안 대표 미디어 데일리시큐 / Dailysecu, Korea's leading security media!★

■ 보안 사건사고 제보 하기

▷ 이메일 : mkgil@dailysecu.com

▷ 제보 내용 : 보안 관련 어떤 내용이든 제보를 기다립니다!

▷ 광고문의 : jywoo@dailysecu.com

★정보보안 대표 미디어 데일리시큐 / Dailysecu, Korea's leading security media!★