A látogatók számára az Electronica 2024 -ben

Foglalja le most az idejét!

Csak néhány kattintás szükséges a hely fenntartásához és a Booth jegy megszerzéséhez

C5 Hall Booth 220

Előzetes regisztráció

A látogatók számára az Electronica 2024 -ben
Mindannyian regisztrálsz! Köszönjük, hogy megbeszélést tettél!
Miután ellenőriztük a foglalását, e -mailben küldjük el a Booth jegyeket.
Otthon > hírek > Az Amazon növeli a testreszabott AI chips létrehozására irányuló erőfeszítéseket, csökkentve az NVIDIA -tól való függőséget
RFQs/megrendelés (0)
Magyarország
Magyarország

Az Amazon növeli a testreszabott AI chips létrehozására irányuló erőfeszítéseket, csökkentve az NVIDIA -tól való függőséget


Az Amazon arra készül, hogy elindítsa legújabb mesterséges intelligencia (AI) chipjét, mivel a nagy technológiai konglomerátum arra törekszik, hogy visszatérjen a félvezető befektetések milliárd dollárjából, és csökkentse az Nvidia piacvezetőre való támaszkodását.

Az Amazon felhőalapú számítástechnikai részlegének vezetői nagymértékben fektetnek be a testreszabott chipekbe, remélve, hogy javítják tucatnyi adatközpont hatékonyságát, és végül csökkentik önmaguk és az Amazon AWS ügyfeleinek költségeit.

Ezt a munkát az Annapurna Labs vezeti, egy Austinban székhellyel rendelkező chip induló vállalkozás, amelyet az Amazon 2015 elején 350 millió dollárért vásárolt meg. Az Annapurna legújabb eredményeit decemberben mutatják be, amikor az Amazon bejelenti a "Trainium 2" széles körű rendelkezésre állását, amely, amely a "Trainium 2" széles körű elérhetőségét jelentegy AI chip sorozat része, amelyet a legnagyobb modellek kiképzésére terveztek.

A Trainium 2 -et már az Antropic (Openai versenytársa, amely 4 milliárd dollárt kapott támogatást kapott az Amazon -tól), valamint a VNET, a Deutsche Telekom, a Ricoh Japan és a Stockmark.

Az Amazon AWS és az Annapurna célja az NVIDIA -val való versenyzés, amely a világ egyik legértékesebb vállalatává vált, mivel az AI chippiacon domináns pozíciója volt.

Reméljük, hogy a legjobb hely lesz az Nvidia chips vezetésére " - mondta Dave Brown, az Amazon AWS számítástechnikai és hálózati szolgáltatások alelnöke. Ugyanakkor úgy gondoljuk, hogy az alternatív megoldások elfogadása előnyös" - mondta az Amazon, kijelentve, hogy az, hogy az aEgyéb professzionális AI chip "A következtetés" 40% -kal csökkentette a működési költségeket, és felhasználható reagáló generációs AI modellekhez.

Az Amazon most 2024 -ben körülbelül 75 milliárd dolláros tőkeköltségeket vár el, a többség a technológiai infrastruktúra felé irányul.A társaság legfrissebb bevételi konferenciabeszélgetése során Andy Jassy vezérigazgató kijelentette, hogy elvárja, hogy a társaság 2025 -ben több költséggel járjon.

Ez a 2023 -ban 48,4 milliárd dolláros teljes éves kiadáshoz képest.

Az Amazon, a Microsoft és a META mind az NVIDIA fő ügyfelei, de saját adatközpontjaikat is megtervezik, hogy megalapozzák az AI növekedési hullám alapját, amelyet várnak.

Daniel Newman a Futurum Group -ból azt mondta: "Minden nagy felhőszolgáltató hevesen mozog a vertikálisság felé, és ha lehetséges, egy homogén és integrált„ chip -technológia ”verem felé haladva mozog.

Newman rámutatott, hogy "az Openai -tól az Apple -ig mindenki arra törekszik, hogy saját chipeket készítsen", mert "alacsonyabb termelési költségeket, magasabb haszonkulcsokat, magasabb rendelkezésre állást és nagyobb ellenőrzést keresnek".

Miután megkezdte az AWS "Nitro" biztonsági chip felépítését, Annapurna több generációt fejlesztett ki a Graviton, az ARM alapú központi feldolgozó egység (CPU), amely alacsony teljesítményű alternatívát kínál az Intel vagy az AMD által biztosított hagyományos szerver mainframe-k számára.

A TechInsights elemző, G Dan Hutcheson azt mondta: „Az AWS egyik fő előnye, hogy chipsük kevesebb energiát használhat, és adatközpontjaik hatékonyabbak lehetnek, ez csökkenti a költségeket.Azt mondta, hogy ha az NVIDIA grafikus feldolgozó egysége (GPU) egy erőteljes általános célú eszköz (olyan autókhoz, mint például az állomás kocsik), akkor az Amazon optimalizálhatja a chipeket meghatározott feladatokhoz és szolgáltatásokhoz (például kompakt vagy ferdehátú autók).

Eddig azonban az AWS és az Annapurna alig gyengítette az NVIDIA domináns helyzetét az AI infrastruktúrában.

Az NVIDIA AI Data Center chip -értékesítési bevétele elérte a 26,3 milliárd dollárt a 2024 -es pénzügyi év második negyedévében. Ez a szám megegyezik az Amazon által a második negyedévben bejelentett teljes AWS osztály bevételével.Úgy tűnik, hogy ennek csak egy kis része tulajdonítható az AI munkaterhelést futtató ügyfeleknek az Annapurna infrastruktúrán.

Ami az AWS Chips és az Nvidia Chips nyers teljesítményét illeti, az Amazon elkerüli a közvetlen összehasonlításokat, és nem nyújtja be a chipeket a független teljesítmény -referenciaértékekhez.

A Moor Insights & Stratégia chip-tanácsadója, Patrick Moorhead úgy véli, hogy az Amazon állítása, hogy a Trainium 1 és a Trainium 2 között négyszeres teljesítménynövekedést javított, pontos, mivel évek óta felülvizsgálja a társaságot.A teljesítményadatok azonban nem feltétlenül olyan fontosak, mint egyszerűen több választási lehetőséget biztosítani az ügyfelek számára.

Az emberek értékelik az NVIDIA által hozott összes újítást, de senki sem akarja, hogy az NVIDIA a piaci részesedés 90% -át elfoglalja " - tette hozzá.Ez a helyzet nem tart túl sokáig

Válasszon nyelvet

Kattintson a helyre a kilépéshez