Zgłoś błąd

X

Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.

Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschРусскийFrançaisEspañol中国

Krótka historia kart graficznych wykonanych w 28 nm litografii

Krotka historia kart graficznych wykonanych w 28 nm litografJesteśmy w przededniu wielkiego wydarzenia - niebawem na rynku pojawią się zupełnie nowe karty graficzne, które przyniosą fundamentalne zmiany. Wszystko dzięki niższemu procesowi technologicznemu, który zostanie niemalże równocześnie wdrożony przez obydwu liczących się producentów układów graficznych - NVIDIA i AMD. Pierwszy wybrał 16-nm litografię, natomiast drugi 14-nm. Jakie zmiany przyniesie nowa technologia? Przede wszystkim lepsze zarządzanie energią, dzięki czemu topowe układy będą charakteryzować się mniejszym poborem mocy. Skok wydajności także ma być ogromny - dopiero co zapowiedziany GeForce GTX 1070 powinien przeganiać nawet GeForce GTX Titan X. Warto zatem na chwilę się zatrzymać i powspominać modele, które za moment odejdą w niepamięć. To dobra okazja do wskazania kilku najważniejszych konstrukcji poprzedniej generacji, jakie korzystały z chipów wykonanych w 28-nm procesie technologicznym.

Pierwszą kartą wykorzystującą 28-nanometrowy chip graficzny był zapowiedziany w październiku 2011 roku Radeon HD 7970, który do tej pory nieźle radzi sobie w nowych grach. Ot, prawdziwy weteran.

Przenieśmy się teraz myślami do roku pańskiego 2011. Wówczas na rynku niepodzielnie panował GeForce GTX 580, który od strony technicznej był tylko rozwinięciem GeForce GTX 480, jednak znacznie usprawnionym względem poprzednika.. Tak, korzystał ze słynnej architektury Fermi, która oprócz niebagatelnej wydajności zasłynęła także niebotycznie wysokimi temperaturami oraz dużym poborem prądu. AMD dotychczas słynęło z tego, że jako pierwsza firma prezentowała nowe układy wykorzystujące nowe technologie - w serii HD 4000 wprowadziła zupełnie nowy typ pamięci GDDR5 (który do dziś jest standardem), a także prawie zawsze rozpoczynała wydawanie kart w nowych procesach technologicznych. Nie inaczej było tym razem.

Krotka historia kart graficznych wykonanych w 28 nm litograf [1]

Zapowiedziany w październiku 2011 roku Radeon HD 7970 był pierwszą kartą wykorzystującą 28-nanometrowy chip graficzny (Tahiti XT), który miał zdetronizować konkurencję. Wystarczy spojrzeć na tabelkę poniżej - już na papierze karta prezentowała się mocarnie. Właściwie w każdej konkurencji wygrywał właśnie Radeon HD 7970, ustępując miejsca w zasadzie tylko konstrukcjom dwuprocesorowym, takim jak GeForce GTX 590. Chwilę po wprowadzeniu karty na rynek w sklepach zaczął pojawiać się również Radeon HD 7950, który dostał obcięty rdzeń mocniejszego brata (Tahiti Pro). Został przyjęty niemal równie dobrze. Także zapewniał dużą wydajność, a przy okazji był trochę tańszy - urządzenie wyceniono na około 2000 złotych. Obydwie karty doczekały się później ulepszonych edycji (HD 7950 Boost oraz HD 7970 GHz Edition), a także wersji z większą ilością pamięci VRAM (6 GB zamiast 3). Później seria otrzymała słabszych przedstawicieli w postaci HD 7850 i HD 7870, które także należały do udanych konstrukcji. Niech świadczy o tym fakt, że nadal można je znaleźć w sklepach, tylko pod innymi nazwami :)

Krotka historia kart graficznych wykonanych w 28 nm litograf [2]

Test Radeon HD 7970 - Nowy król wydajności i pogromca GTX 580

Na odpowiedź NVIDII nie trzeba było długo czekać. Karta wykorzystująca nową architekturę Zielonych ukazała się niecałe 3 miesiące po debiucie najmocniejszych Radeonów, a nazywała się GeForce GTX 680. Bazowała na 28-nanometrowym rdzeniu GK104 Kepler posiadającym 1536 jednostek cieniujących, 128 teksturujących oraz 32 ROP. Rdzeń był taktowany z częstotliwością 1006 MHz. Okazało się, że taka specyfikacja wystarczy do pokonania najwydajniejszego produktu AMD, chociaż różnica nie była spektakularna. GeForce GTX 680 wyposażony został w 2 GB pamięci (później pojawiła się wersja 4 GB), co już wtedy wywoływało ożywioną dyskusję - konkurencja oferowała przecież więcej. Niemniej jednak, układ został bardzo ciepło przyjęty. Podobny los spotkał słabszą odmianę Keplera. GeForce GTX 670 okazał się tylko odrobinę słabszy od flagowego modelu, a przy tym zauważalnie tańszy (~1700 złotych). Jak łatwo więc zauważyć, początki generacji 28-nm były bardzo udane - układy zapewniały wysoką wydajność, a poza tym dobrze się podkręcały, choć trzeba zaznaczyć, że swoje też kosztowały.

Krotka historia kart graficznych wykonanych w 28 nm litograf [3]

Test GeForce GTX 680 vs Radeon HD 7970 - Pojedynek tytanów

Sporo działo się także w średnim segmencie, gdzie trwała ostra rywalizacja pomiędzy GeForce GTX 660 (Ti) oraz GTX 660, a Radeonami HD 7850/7870. Karty cieszyły się dużą popularnością i jestem przekonany, że sporo osób ciągle posiada któryś z wyżej wymienionych układów (zwłaszcza Radeona, niekoniecznie pod takim symbolem). Wspomniane urządzenia miały po prostu wszystkie atuty, jakimi powinny cechować się modele z tego segmentu - bardzo dobry stosunek wydajności do ceny, a dodatkowo niezły potencjał OC. Kolejnym ciekawym akcentem wśród kart graficznych tamtej generacji było wprowadzenie na rynek GeForce GTX Titan, który bazował na rdzeniu GK110 (rozwinięcie architektury Kepler) i przejął palmę pierwszeństwa, jeśli chodzi o najmocniejszą jednostkę na rynku. Niestety, ze względu iż kosztował horrendalne pieniądze (~4350 złotych) oraz nie zapewniał wielkiego skoku wydajnościowego, został słusznie potraktowany jako ciekawostka.

Krotka historia kart graficznych wykonanych w 28 nm litograf [4]

Test GeForce GTX Titan - Nieziemska wydajność, kosmiczna cena

Następna generacja nie przyniosła rewolucji. Okazało się, że NVIDIA i AMD tylko odświeżają swoją ofertę, zamiast wprowadzić na rynek karty wyposażone w nowe chipy. Pierwszy układ Zielonych z nowej serii pojawił się w maju 2013 roku, oznaczony jako GeForce GTX 780. Ukazał się tylko 3 miesiące później od Titana i prawdę mówiąc zbyt wiele się od niego nie różnił. Ok, był znacznie tańszy, aczkolwiek minimalnie wolniejszy, miał także o połowę mniej pamięci (3 GB zamiast 6 GB), ale dalej korzystał z tej samej technologii. Niemniej, był to układ znacznie szybszy od starzejących się Radeonów HD 7900, które jak wspomniałem wcześniej, doczekały się wielu ulepszonych wersji (GHz Edition), a także obniżek cen, dzięki czemu nadal pozostawały atrakcyjne. Dokładnie tydzień po premierze flagowca nowej serii, zadebiutował GeForce GTX 770, który okazał się GTX-em 680 w nowym ubraniu. Był jednak oferowany w znacznie niższej cenie niż pierwszy Kepler, dlatego znalazł uznanie wśród konsumentów. Podobny sukces osiągnął słabszy model GTX 760, będący od strony technicznej czymś pomiędzy GTX 660 Ti oraz GTX 670, a niska cena (około 1000 złotych) i stosunkowo wysoka wydajność sprawiły, że karta trafiła do wielu komputerów.

Krotka historia kart graficznych wykonanych w 28 nm litograf [5]

Test GeForce GTX 760 - Najlepsza karta graficzna do 1000 zł

Odpowiedź ze strony AMD była niestety nieco rozczarowująca. Czerwoni zrezygnowali z numeracji HD 8000 i wprowadzili nowe nazewnictwo Rx 200. W październiku 2013 roku zadebiutowały takie modele jak R9 290/290X, R9 280X, R9 270/270X, R9 265 czy R7 260X, z czego jedynym nowym układem okazał się tylko ten pierwszy, wyposażony w rdzeń Hawaii XT. Radeon R9 290X co prawda był (a nawet nadal jest) całkiem wydajną konstrukcją, w większości wypadków zostawiał przecież w tyle GeForce GTX 780, jednak do dziś uchodzi za antywzór kultury działania. Temperatura układu Hawaii pod obciążeniem sięgała nawet 90 stopni Celsjusza, a głośność działania wersji referencyjnych wołała o pomstę do nieba. Niestety, długi czas oczekiwania na wersje niereferencyjne utrwalił ten obraz. Niedługo potem na rynku pojawił się Radeon R9 290, który oferował trochę słabszą wydajność przy niższej cenie, aczkolwiek na modele autorskie tej odmiany (Hawaii Pro) również musieliśmy skandalicznie długo czekać. Reszta serii Rx 200 kojarzy się głównie z "odsmażonymi kotletami", gdyż niemal wszystkie układy bazowały na odświeżonych chipach z serii HD 7000. Na szczęście przyzwoite ceny pozwoliły "nowym" produktom znaleźć swoje miejsce na rynku.

Krotka historia kart graficznych wykonanych w 28 nm litograf [6]

Test kart graficznych Radeon R9 290X vs GeForce GTX 780

Tymczasem NVIDIA przechodziła do ofensywy. Na Radeona R9 290X natychmiast odpowiedziano GeForce GTX 780 Ti, który pokonywał Radeona i został okrzyknięty nowym liderem wydajności, oferując zarazem przyzwoitą kulturę działania przy niezłych możliwościach podkręcania. W lutym 2014 roku uzupełniono serię o najsłabsze modele, tym razem rezygnując z mocno wyeksploatowanego Keplera, prezentując zalążek nowej technologii - Maxwella. Modele GeForce GTX 750 oraz GTX 750 Ti cechowały się głównie bardzo niskim poborem mocy i dużym potencjałem OC, czego zasługą jest właśnie zastosowanie nowej architektury. Gorzej było z wydajnością - GeForce GTX 750 często przegrywał w bezpośredniej rywalizacji ze swoim odpowiednikiem cenowym, jakim był Radeon R7 260X, natomiast wersja z dopiskiem Ti rzadko dorównywała leciwemu już GeForce GTX 660 (no, chyba że była to najmocniejsza edycja od Palita StormX Dual).

Krotka historia kart graficznych wykonanych w 28 nm litograf [7]

Test GeForce GTX 750 i 750 Ti - Premiera architektury Maxwell

Tutaj dochodzimy do momentu, który wielu użytkowników doskonale pamięta - premiery GeForce GTX 980 i GTX 970. NVIDIA zdecydowała się pominąć numerację 800, ze względu na obecność kart z tym oznaczeniem na rynku OEM. "Duże Maxwelle" zadebiutowały we wrześniu 2014 roku. Topowy GeForce GTX 980 z miejsca stał się najszybszą kartą na rynku (choć wcale nie zdeklasował poprzednika), przy okazji pobierając bardzo mało prądu. Najwięcej uwagi przykuł jednak GeForce GTX 970, bowiem za mniej niż 1500 zł dostawaliśmy produkt walczący z GTX 780 Ti, natomiast po podkręceniu doganiający nawet GTX 980. Oczywiście z miejsca stał się hitem sprzedaży i najpopularniejszą kartą graficzną dla graczy w ogóle. Sporo szumu wokół urządzenia narobiła także tzw. "afera 3,5 GB". O co chodzi? Producent podawał, że układ jest wyposażony w 64 jednostki ROP, 2048 KB pamięci L2 oraz 4 GB pamięci VRAM. Później okazało się, że jednostek ROP jest w rzeczywistości 56, L2 cache zaledwie 1792 KB, natomiast pamięć VRAM jest podzielona na dziwną konfigurację 3,5 + 0,5, gdzie ostatnie pół giga pracuje z mniejszą przepustowością. Wybuchł niemały skandal, który do tej pory jest przez wiele osób przypominany w kontekście GTX-a 970. Niektórzy producenci zgodzili się nawet na zwrot pieniędzy, jednak niewiele osób zdecydowało się na taki krok.

Krotka historia kart graficznych wykonanych w 28 nm litograf [8]

Mniej niż 5% posiadaczy GeForce GTX 970 zdecydowało się na zwrot

Następny przedstawiciel architektury Maxwell nie był równie udany - chociaż wszyscy oczekiwali po GeForce GTX 960 pamięci 3 GB na 192-bitowej szynie, karta ostatecznie otrzymała 2 GB GDDR5 128-bit. Na początku jej rywalem był GTX 760, jednak po dopracowaniu sterowników układ GM206 zaczął dorównywać GTX 770. Karta mimo wszystko znalazła sporo nabywców - po ustabilizowaniu cen i wprowadzeniu wariantu dysponującego 4 GB pamięci, GTX 960 okazał się całkiem niezłą propozycją. Po jakimś czasie w sprzedaży pojawił się także GTX Titan X, czyli aktualny lider wydajności, GTX 980 Ti, a także najsłabszy Maxwell drugiej generacji - GTX 950. A co z AMD? Choć sporo mówiło się o przejściu na niższy proces technologiczny (20 nm), to Czerwoni ponownie zdecydowali się tylko odświeżyć istniejącą już ofertę. Doszło nawet do sytuacji, gdzie Radeon HD 7850 zaprezentowany w 2012 roku został wydany po raz trzeci - druga edycja to R7 265, natomiast w nowej serii był oznaczony jako R7 370. Pomimo, iż prawie cała rodzina Rx 300 to starsze układy, warto było zwrócić uwagę na R9 380 - wcześniej znanego jako R9 285, a teraz w swojej półce cenowej (około 900 złotych) będącego bardzo ciekawym wyborem.

Krotka historia kart graficznych wykonanych w 28 nm litograf [9]

Test AMD Radeon R9 380. Konkurencja dla GeForce GTX 960

Wraz z Radeonami Rx 300 zadebiutowały także high-endowe karty AMD R9 Fury X, R9 Fury i R9 NANO. Korzystały one z całkowicie nowych rdzeni Fiji XT i Fiji Pro, które zostały zaprojektowane z myślą o nowych pamięciach typu HBM. Pomimo ich zastosowania karty nie potrafiły pokonać konkurencji pod postacią GeForce GTX 980 Ti, dlatego po dzień dzisiejszy traktowane są jako ciekawostki. I tak w zasadzie kończy się opowieść o kartach graficznych z generacji 28 nm. Choć w ciągu ostatnich kilku lat byliśmy świadkami wielu ciekawych premier, to prawdopodobnie już niedługo przestaniemy o nich pamiętać. Na horyzoncie widać już nowe, 14- i 16-nanometrowe układy, które mogą zrewolucjonizować rynek.

Krotka historia kart graficznych wykonanych w 28 nm litograf [10]

Na horyzoncie widać już nowe, 14- i 16-nanometrowe układy, które mogą zrewolucjonizować rynek...

Na sam koniec wypadałoby wskazać najlepszą kartę odchodzącej epoki. Według mnie to bezapelacyjnie Radeon HD 7970, który został zaprezentowany pod koniec 2011 roku (!) i do dziś daje sobie radę w nowych grach (szczególnie w wersji GHz Edition), czego już nie do końca możemy powiedzieć o np. GeForce GTX 680, ówczesnym rywalu Radeona. Ktoś, kto zakupił tę kartę tuż po premierze prawdopodobnie zrobił biznes życia :) A co z GeForce GTX 970? Układ ten prawdopodobnie podzieli los poprzednich GeForce'ów - mam na myśli spadek wydajności oraz mniejsze wsparcie sterowników, dzięki czemu karta podzieli los np. GTX-a 770, który dziś w właściwie przegrywa z teoretycznie słabszym GTX-em 960. Do tego dochodzi afera z niejasną specyfikacją, która w moich oczach dyskwalifikuje Maxwella. Cóż, pozostaje zatem tylko trzymać kciuki, aby nadchodzące karty w niższym procesie były przynajmniej równie udane i ponadczasowe, co wspomniany Radeon.

Źródło: PurePC
39
Zgłoś błąd
Liczba komentarzy: 62

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.