[아이티비즈 김문구 기자] 인텔과 구글은 차세대 AI 및 클라우드 인프라 발전을 위한 다년간의 협력을 발표했다.
양사는 이를 통해 최신 이기종 AI 시스템을 대규모로 구현하는 과정에서 CPU와 주문형 인프라처리장치(IPU)의 핵심적인 역할을 강화한다고 10일 밝혔다.
AI 도입이 가속화됨에 따라 인프라는 더욱 복잡하고 이기종으로 변하고 있으며, 이에 따라 오케스트레이션, 데이터 처리 및 시스템급 성능을 위해 CPU에 대한 의존도가 높아지고 있다. 이번 협력을 통해 인텔과 구글은 인텔 제온(Intel Xeon) 프로세서의 여러 세대에 걸쳐 협력하며 구글의 글로벌 인프라 전반에서 성능, 에너지 효율성 및 총 소유 비용을 개선할 예정이다.
구글 클라우드는 최신 인텔 제온 6(Intel Xeon 6) 프로세서를 탑재한 C4 및 N4 인스턴스를 포함해 워크로드에 최적화된 인스턴스 전반적으로 인텔 제온 프로세서를 지속적으로 도입해 왔다. 이러한 플랫폼은 대규모 AI 학습 조정부터 지연 시간에 민감한 추론 및 범용 컴퓨팅에 이르기까지 광범위한 워크로드를 지원하고 있다.
이와 동시에 인텔과 구글은 주문형 반도체(ASIC) 기반 IPU의 공동 개발을 확대하고 있다. 이러한 프로그래밍 가능한 가속기는 호스트 CPU에서 네트워킹, 스토리지 및 보안 기능을 분담하여 활용도를 높이고 효율성을 향상시키며 하이퍼스케일 AI 환경 전반에서 더욱 예측 가능한 성능을 구현한다.
IPU는 최신 데이터 센터 아키텍처의 핵심 구성 요소로, 기존 CPU가 담당하던 인프라 작업을 처리하여 더욱 효율적인 컴퓨팅 성능을 제공한다. 클라우드 제공업체(CP)는 이를 통해 시스템 복잡성을 높이지 않고도 더욱 효율적으로 확장할 수 있다. 제온 CPU와 IPU는 함께 긴밀하게 통합된 플랫폼을 구성하여 범용 컴퓨팅과 특정 목적에 특화된 인프라 가속 기능을 균형 있게 제공함으로써 더욱 효율적이고 유연하며 확장 가능한 AI 시스템을 구현해준다.
립-부 탄 인텔 CEO는 “AI는 인프라 구축 및 확장 방식을 재편하고 있다”며, “AI 확장을 위해서는 가속기 이상의 것이 필요하며, 균형 잡힌 시스템이 필수적이다. CPU와 IPU는 최신 AI 워크로드가 요구하는 성능, 효율성 및 유연성을 제공하는 데 핵심적인 역할을 한다”고 말했다.
아민 바흐다트 구글 AI 인프라 부문 수석 부사장 겸 최고 기술 책임자는 “CPU와 인프라 가속은 학습 오케스트레이션부터 추론 및 배포에 이르기까지 AI 시스템의 핵심 요소로 남아 있다”며, “인텔은 거의 20년 동안 신뢰할 수 있는 파트너였으며, 인텔의 제온 로드맵을 통해 구글은 워크로드의 증가하는 성능 및 효율성 요구 사항을 지속적으로 충족할 수 있을 것이라는 확신을 갖게 되었다”고 전했다.





!["한바퀴 돌렸는데 이게 돼?"…SNS 달구는 '갤S26 대박 기능' [테크로그]](https://img.hankyung.com/photo/202604/01.43509100.1.jpg)

!['지구↔달' 유인 비행 아르테미스…해냈다 [지금은 우주]](https://image.inews24.com/v1/0cd3a197e1c9c5.jpg)










English (US) ·