Dystrybutorzy komponentów pasywnych
Dom

Blog

  • Ponad 2 biliony! Takie chipsy są bardzo poszukiwane!
    Aug 15, 2023
    Z najnowszych wiadomości wynika, że firmy produkujące półprzewodniki do przechowywania danych, takie jak Samsung Electronics i SK Hynix, aktywnie promują rozbudowę linii produkcyjnych HBM (pamięć o dużej przepustowości). Według źródeł branżowych obie firmy planują zainwestować łącznie ponad 2 biliony wonów do końca przyszłego roku, aby ponad dwukrotnie zwiększyć obecne moce produkcyjne HBM. SK hynix planuje wykorzystać pustą przestrzeń swojej fabryki w Cheongju za bazą produkcyjną HBM w Icheon w celu rozbudowy linii produkcyjnej HBM. Tymczasem Samsung Electronics rozważa rozbudowę głównej linii produkcyjnej HBM w Cheonan w prowincji South Chungcheong, gdzie zlokalizowany jest zespół ds. zaawansowanych opakowań w ramach działu Device Solutions. Według firmy badawczej TrendForce oczekuje się, że popyt na HBM mierzony w gigabajtach (GB) wzrośnie aż o 60%, z 181 mln GB w 2022 r. do 290 mln GB w 2023 r. Oczekuje się, że popyt wzrośnie o kolejne 30% do 2024 r. . HBM3 to produkt najnowszej generacji, jego całkowita pojemność jest 12 razy większa niż w przypadku najnowszego produktu DRAM GDDR6, a jego przepustowość jest około 13 razy. Pokazuje to, że HBM ma ogromny potencjał na rynku półprzewodników pamięci. Według raportów omawianie rozwoju produktu i wytwarzanie produktów dostosowanych do indywidualnych potrzeb trwa zwykle ponad rok między klientami a producentami HBM. Na przykład niedawno nabyte przez Nvidię produkty HBM2E i HBM3 od SK Hynix zostały opracowane wspólnie 1-2 lata temu. HBM stopniowo wkracza na rynek półprzewodników pamięci. Chociaż Samsung i SK Hynix nie ujawniły konkretnej ceny HBM, według doniesień cena produktu HBM3 najnowszej generacji jest około 5–6 razy wyższa niż cena najnowszych tradycyjnych produktów DRAM. To wyjaśnia również, dlaczego dostawy HBM stanowiły w tym roku zaledwie 1,7% wszystkich dostaw DRAM, podczas gdy sprzedaż stanowiła 11%. Najnowsze dane pokazują, że szybki rozwój generatywnej sztucznej inteligencji ChatGPT od grudnia ubiegłego roku zwiększył zapotrzebowanie na wysokowydajną pamięć DRAM, znaną jako pamięć o dużej przepustowości (HBM). W porównaniu z tradycyjną pamięcią DRAM, HBM ma większą pojemność danych i większą prędkość, co może poprawić wydajność ponad dziesięciokrotnie.
    CZYTAJ WIĘCEJ
zostaw wiadomość
składać

Dom

Produkty

whatsApp

kontakt