A BusinessKorea szerint az SK Hynix bejelentette, hogy az ötödik generációs nagy sávszélesség -tároló (HBM) hozama - a HBM3E megközelítette a 80%-ot.
"Sikeresen csökkentettük a HBM3E chipek tömegtermeléséhez szükséges időt 50%-kal, körülbelül 80%-os célkitűzés -hozamot elérve" - mondta Kwon Jae, az SK Hynix termelési menedzsere, az SK Hynix termelési menedzsere
Ez jelzi a HBM3E gyártási információk első nyilvános nyilvánosságra hozatalát az SK Hynix által.Korábban az iparág azt várták, hogy az SK Hynix HBM3E hozama 60% és 70% között van.
Kwon Jae hamarosan hangsúlyozta: "Ebben az évben az a célunk, hogy a 8-rétegű HBM3E előállítására összpontosítsunk. A mesterséges intelligencia (AI) korszakában a növekvő termelés fontosabbá vált a vezető pozíció fenntartása érdekében."
A HBM gyártásához több DRAM vertikális rakása szükséges, ami magasabb folyamat bonyolultságot eredményez a standard DRAM -okhoz képest.Különösen a HBM3E kulcseleme esetében a szilícium hozama a lyukakon keresztül (TSV) mindig alacsony volt, 40% -ról 60% -ra, ami javulást jelentett.
Miután szinte kizárólag a HBM3-at szállította az AI félvezető vezetőjének, az NVIDIA-nak, az SK Hynix ez év márciusában kezdte meg a 8 rétegű HBM3E termékek szállítását, és az év harmadik negyedévében 12 rétegű HBM3E terméket tervez.A 12 rétegű HBM4 (hatodik generációs HBM) terméket 2025 -ben indítják el, és a 16 rétegű verziót várhatóan 2026 -ban gyártják.
A gyorsan növekvő mesterséges intelligencia piac az SK Hynix következő generációs DRAM-jának gyors fejlődését eredményezi.2023-ra a HBM és a nagy kapacitású DRAM modulok, amelyek elsősorban a mesterséges intelligencia alkalmazásokhoz használják, a teljes tárolási piac körülbelül 5% -át teszik ki érték szerint.Az SK Hynix azt jósolja, hogy 2028 -ra ezek az AI tárolási termékek a piaci részesedés 61% -át fogják elfoglalni.