Electronica 2024의 방문자

지금 시간을 예약하세요!

당신의 장소를 예약하고 부스 티켓을 받기 위해 몇 번의 클릭만으로도 걸립니다.

홀 C5 부스 220

사전 등록

Electronica 2024의 방문자
당신은 모두 가입합니다! 약속을 잡아 주셔서 감사합니다!
예약을 확인하면 부스 티켓을 이메일로 보내드립니다.
> 메시지 > 아마존
RFQs/주문 (0)
한국의
한국의

아마존


아마존은 대형 기술 대기업이 반도체 투자에서 수십억 달러에서 수익을 거두고 시장 리더 NVIDIA에 대한 의존도를 줄이려고 노력함에 따라 최신 인공 지능 (AI) 칩을 출시 할 준비를하고 있습니다.

Amazon의 클라우드 컴퓨팅 부서의 경영진은 수십 개의 데이터 센터의 효율성을 향상시키고 궁극적으로 자체 및 Amazon AWS 고객의 비용을 줄이기를 희망하면서 맞춤형 칩에 많은 투자를하고 있습니다.

이 작업은 Amazon이 2015 년 초에 3 억 5 천만 달러에 인수 한 Austin에 본사를 둔 칩 스타트 업인 Annapurna Labs가 주도합니다. Annapurna의 최신 업적은 12 월에 "Trainium 2"의 광범위한 가용성을 발표 할 것으로 예상됩니다.가장 큰 모델을 훈련시키기 위해 설계된 AI 칩 시리즈의 일부입니다.

Trainium 2는 이미 Vnet, Deutsche Telekom, Ricoh Japan 및 Stockmark뿐만 아니라 Anthropic (Amazon으로부터 40 억 달러를 지원 한 Openai의 경쟁자)에 의해 이미 테스트를 받고 있습니다.

Amazon AWS와 Annapurna는 AI Chip 시장에서 지배적 인 위치로 인해 세계에서 가장 귀중한 회사 중 하나가 된 Nvidia와 경쟁하는 것을 목표로합니다.

Amazon AWS의 컴퓨팅 및 네트워크 서비스 담당 부사장 인 Dave Brown은 Nvidia Chips를 운영하기에 가장 좋은 장소가되기를 바랍니다. 그러나 동시에 대체 솔루션을 채택하는 것이 유리하다고 생각합니다. "Amazon은 말했습니다.다른 Professional AI Chip "Pertentia"는 운영 비용이 40% 감소했으며 반응성 생성 AI 모델에 사용될 수 있습니다.

아마존은 현재 2024 년에 약 750 억 달러의 자본 지출을 기대하며, 대다수는 기술 인프라를 향해 나아가고 있습니다.회사의 최신 실적 컨퍼런스 콜 동안 CEO Andy Jassy는 2025 년에 회사가 더 많은 비용을 지불 할 것으로 예상했다.

이는 2023 년에 484 억 달러의 미국 지출이 증가한 것으로 증가했습니다. Microsoft 및 Google을 포함한 가장 큰 클라우드 제공 업체는 인공 지능에 많은 투자를하고 있으며이 추세는 약화의 징후가 거의 없습니다.

Amazon, Microsoft 및 Meta는 모두 Nvidia의 주요 고객이지만 자체 데이터 센터 칩을 설계하여 예상하고있는 AI 성장 파의 기초를 마련하고 있습니다.

Futurum Group의 Daniel Newman은 "모든 대형 클라우드 제공 업체는 더 많은 수직성을 향해 열렬히 이동하고 있으며 가능한 경우 균질하고 통합 된 '칩 기술'스택으로 이동합니다.

Newman은 "Openai에서 Apple에 이르기까지 모든 사람들이 자신의 칩을 구축하려고합니다"라고 지적했습니다. "생산 비용이 낮아지고 이익이 높아지고 가용성이 높아지고 더 많은 통제력"을 찾고 있기 때문입니다.

AWS 용 "Nitro"보안 칩을 구축하기 시작한 후 Annapurna는 Intel 또는 AMD가 제공하는 기존 서버 메인 프레임에 대한 저전력 대안을 제공하는 ARM 기반 중앙 처리 장치 (CPU) 인 여러 세대의 Graviton을 개발했습니다.

TechInsights 분석가 G Dan Hutcheson은 'AWS의 주요 장점 중 하나는 칩이 더 적은 전력을 사용할 수 있고 데이터 센터가 더 효율적일 수 있으므로 비용을 줄일 수 있다는 것입니다.그는 NVIDIA의 그래픽 처리 장치 (GPU)가 강력한 일반 목적 도구 (스테이션 마차와 같은 자동차의 경우)라면 Amazon은 특정 작업 및 서비스 (예 : Compact 또는 Hatchback Cars)를 위해 칩을 최적화 할 수 있다고 말했다.

그러나 지금까지 AWS와 Annapurna는 AI 인프라에서 Nvidia의 지배적 인 위치를 거의 약화시키지 못했습니다.

NVIDIA의 AI 데이터 센터 칩 판매 수익은 2024 회계 연도 2 분기에 263 억 달러에 달했습니다.이 수치는 아마존이 2 분기에 발표 한 전체 AWS 부서의 수익과 동일합니다.Annapurna 인프라에서 AI 워크로드를 실행하는 고객에 기인 한 것으로보고된다.

AWS 칩 및 NVIDIA 칩의 원시 성능에 대해 Amazon은 직접 비교를 피하고 칩을 독립적 인 성능 벤치 마크에 제출하지 않습니다.

Moor Insights & Strategy 칩 컨설턴트 Patrick Moorhead는 Trainium 1과 Trainium 2 간의 4 배 성능 개선에 대한 Amazon의 주장이 회사를 수년간 검토 한 것처럼 정확하다고 생각합니다.그러나 성능 데이터는 단순히 고객에게 더 많은 선택을 제공하는 것만 큼 중요하지 않을 수 있습니다.

사람들은 Nvidia가 가져온 모든 혁신에 감사하지만 Nvidia가 시장 점유율의 90%를 차지하고 싶어하는 사람은 아무도 없다고 덧붙였습니다.이 상황은 너무 오래 지속되지 않습니다

언어 선택

종료하려면 공간을 클릭하십시오