구글클라우드, 허깅페이스와 전략적 파트너십 발표

개발자가 구글 클라우드에서 오픈 모델을 효율적으로 학습·튜닝·제공할 수 있도록 지원
버텍스 AI와 구글 쿠버네티스 엔진 배포 지원은 2024년 상반기 제공 목표로 협업 중

 

[더테크=조재호 기자] 구글 클라우드와 허깅페이스가 전략적 파트너십을 맺었다. 구글 인프라와 허깅페이스에 공개된 AI 모델을 결합해 생성형 AI 생태계가 한층 더 강화될 전망이다.

 

구글 클라우드는 26일 허깅페이스와 새로운 전략적 파트너십을 발표했다. 이번 협업을 통해 개발자들은 허깅페이스의 모든 서비스에서 구글 클라우드 인프라를 활용할 수 있고, 구글 클라우드에서 허깅페이스 모델을 학습하고 제공할 수 있게 된다. 이번 파트너십으로 허깅페이스는 AI 대중화 비전을 가속화하고 구글 클라우드는 오픈소스 AI 생태계 발전을 위한 지원을 강화한다.

 

개발자는 컴퓨팅, 텐서처리장치(TPU), 그래픽처리장치(GPU) 등 AI에 최적화된 구글 클라우드 인프라를 이용해 오픈 모델 학습 및 제공해 새로운 생성형 AI 애플리케이션을 구축할 수 있다.

 

구글 클라우드와 허깅페이스의 협력으로 개발자는 허깅페이스 플랫폼에서 간단한 클릭만으로 버텍스 AI(Vertex AI)로 허깅페이스 모델을 학습·튜닝·제공할 수 있다. 이를 통해 구글 클라우드의 특화된 엔드투엔드(end-to-end) MLOps 서비스로 생성형 AI 애플리케이션을 구축할 수 있다.

 

이와 관련 구글 쿠버네티스 엔진(GKE) 배포 지원으로 개발자는 허깅페이스에서 자체 설정한 인프라를 이용해 워크로드를 학습·튜닝·제공하고 GKE에서 허깅페이스 전용 딥 러닝 컨테이너(Deep Learning Containers)를 이용해 모델을 확장할 수 있다.

 

버텍스 AI와 GKE는 2024년 상반기 중 허깅페이스 플랫폼에 배포 옵션으로 제공될 예정이다.

 

아울러 양사의 파트너십을 통해 더 많은 오픈소스 개발자가 클라우드 TPU v5e를 사용할 수 있다. 구글 클라우드의 TPU v5e는 이전 버전에 비해 달러당 최대 2.5배 더 높은 성능을 제공하고 추론 지연 시간은 최대 1.7배 단축한다. 엔비디아의 H100 텐서 코어 GPU를 탑재해 이전 세대에 비해 3배 빠른 학습과 10배 증가한 네트워크 대역폭을 제공하는 A3 VM에 대한 지원 또한 향후 확대할 계획이다.

 

이외에 인퍼런스(Inference), 엔드포인트(Endpoints), 스페이스(Space), 오토트레인(AutoTrain) 등 허깅페이스 관리형 플랫폼에 대한 간단한 관리 및 과금 기능이 구글 클라우드 마켓플레이스를 통해 제공될 예정이다.

 



배너