Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

GeForce jest pełnoletni - 18 urodziny serii kart graficznych NVIDII

GeForce jest pełnoletni - 18 urodziny serii kart graficznychNa początku był chaos... wróć... na początku było NV1, czyli pierwszy układ graficzny NVIDII, którego premiera przypadła na 1995 rok. Urządzenie nie odniosło większego sukcesu, ponieważ mimo sporych możliwości oraz niezłej specyfikacji obejmującej m.in.: sprzętowe nakładanie tekstur, było znacznie droższe od konkurencji, zwłaszcza we flagowym wydaniu od firmy Diamond. Swoje dołożyła również ogromna konkurencja, jaką w tamtym czasie i latach kolejnych stanowiło S3 (ViRGE), Matrox (Milennium) oraz akceleratory 3DFx (VooDoo). W 1997 roku pojawił się pierwszy reprezentant rodziny Riva, która rozwijana była do 1999 roku, co zaowocowało różnymi wariantami modeli 128, 128ZX, TNT i TNT2. W sierpniu tego samego roku NVIDIA docisnęła śrubę powoli słabnącym rywalom, wprowadzając do sprzedaży kartę graficzną GeForce 256, czyli pradziadka Maxwella, Pascala oraz nadchodzącej Volty. Wspominam o tym nieprzypadkowo, ponieważ zbliżają się 18. urodziny marki GeForce.

GeForce jest pełnoletni - 18 urodziny serii kart graficznych

Marka kart graficznych GeForce zaraz będzie obchodzić 18 urodziny.

Etymologia nazwy GeForce pochodzi od skrzyżowania dwóch słów - Geometry oraz Force - natomiast liczba oznaczała 256-bitowy procesor graficzny, z czego NVIDA szybko zrezygnowała na rzecz symboli GTS, Ultra, Ti itp. GeForce 256 wprowadził kilka innowacyjnych rozwiązań m.in.: otrzymał sprzętową jednostkę transformacji i oświetlenia (T&L), odciążając tym samym główny procesor w przetwarzaniu grafiki. Korzystając z okazji NVIDIA postanowiła ochrzcić GeForce 256 mianem pierwszego na świecie Graphics Processing Unit (GPU), aczkolwiek tłumacząca ten termin formułka posiadała kilka gwiazdek, żeby odróżnić produkt Zielonych między innymi od 3DLabs Permedia 2, który wsparcie T&L otrzymał wcześniej (wydajność obydwu rozwiązań dzieliła jednak spora przepaść). Co ciekawe, świat technologii zachwycał się teoretycznymi możliwościami T&L, aczkolwiek gry bezwzględnie wymagające tej funkcji pojawiły się duuużo później. Nowość ze względu na zaporową cenę nie zdobyła wielkiej popularności.

GeForce jest pełnoletni - 18 urodziny serii kart graficznych [1]

GeForce 256

W roku 2000 pojawił się GeForce 2 GTS, uzupełniony z czasem o wersje budżetowe (MX) oraz dodatkowo podkręcone lub dysponujące szybszymi pamięciami (Pro / Ultra / Ti), zaś najmocniejszą odmianę GeForce 2 Ti wyprodukowano w niższej litografii (180 → 150 nm). Architektura oraz konfiguracja rdzeni były jednak identyczne we wszystkich odmianach GeForce 2. Co innego GeForce 2 MX, jakich NVIDIA stworzyła wiele wariantów (MX, MX Pro, MX 100, MX 200, MX 400), bardzo mocno okrojonych względem pełnowartościowych GeForce 2. Między innymi o połowę zredukowano ilość potoków teksturujących, a niektóre odmiany miały zaledwie 32-bitową magistralę pamięci (GeForce 2 MX 100). Kastraty faktycznie były atrakcyjnie wycenione, cieszyły się ogromną popularnością, ale nadzwyczajną wydajnością nie grzeszyły. NVIDII udało się jednak dosłownie zalać rynek swoimi produktami, przy okazji robiąc przymiarki do urządzeń mobilnych, bowiem na bazie serii GeForce 2 MX powstały układy GeForce 2 Go.

Najbrzydsze karty graficzne - Ranking i galeria osobliwości

GeForce jest pełnoletni - 18 urodziny serii kart graficznych [2]

GeForce 2 GTS

Seria GeForce 2 przyniosła niewiele zmian względem poprzednika, ale GeForce 3 zaprezentowane w 2001 roku było ważnym krokiem w rozwoju układów graficznych, ponieważ wprowadzono programowalne jednostki Pixel Shader i Vertex Shader 1.1, odsyłając tym samym T&L do lamusa. Karta była również kompatybilna z DirectX 8.0, który potrafił wykorzystać potencjał nowych GPU. Pamiętam zresztą ogromne wrażenie, jakie wywierał The Elder Scrolls: Morrowind, gdzie zaimplementowano efekt realistycznej powierzchni wody - to potrafiło przekonać niejednego niedowiarka, że przesiadka na kolejną generację jest koniecznością. Karta występowała w wersjach GeForce 3 Ti 200 oraz GeForce 3 Ti 500, różniących się taktowaniami i/lub ilością pamięci. Zmodyfikowany układ NV2A trafił także do konsoli Microsoft Xbox. Odmiany budżetowe, takie jak wcześniejsze GeForce 2 MX, tym razem nie zostały przewidziane.

GeForce 3 było ważnym krokiem w rozwoju układów graficznych, ponieważ wprowadzono programowalne jednostki Pixel Shader i Vertex Shader 1.1.

GeForce jest pełnoletni - 18 urodziny serii kart graficznych [3]

GeForce 3 Ti200

GeForce 4 wprowadzony do sprzedaży w 2002 roku przyniósł duży skok technologiczny, głównie za sprawą obsługi DirectX 8.1 i OpenGL 1.3, a także znaczny wzrost wydajność w stosunku do poprzedników (spora w tym zasługa podniesienia zegarów). Rodzina obejmowała modele GeForce 4 Ti 400, GeForce 4 Ti 4600 oraz GeForce 4 Ti 4800/4800 SE, natomiast największą popularnością cieszył się najsłabszy GeForce 4 Ti 4200, całkiem dobrze wyceniony, zapewniający świetne osiągi oraz przyzwoite możliwości podkręcania (wszystkie miały zresztą identyczną konfigurację rdzenia i 128-bitową magistralę pamięci). GeForce 4 MX to zupełnie inna historia, znacznie mniej szczęśliwa, ponieważ układy były niezbyt wydajne, a dodatkowo pozbawione zostały jednostek Pixel Shader i Vertex Shader, dlatego bliżej im było do GeForce 2. Mimo wszystko, giereczki jakoś działały na wykastrowanych modelach, więc GeForce 4 MX sprzedawały się hurtowo. Zresztą, powstało tyle odmian MX-ów, że trudno zliczyć, a sprzedawcy wciskali je każdemu i wszędzie (MX 420, MX 440 SE, MX 440, MX 460, MX 440 x8, MX 4000).

GeForce jest pełnoletni - 18 urodziny serii kart graficznych [4]

GeForce 4 Ti 4200

GeForce FX, znane jako seria GeForce 5000, to dowód że eksperymenty i podróże uczą, ale czasami również bolą. Karty pojawiły się niedługo po świetnych GeForce 4 Ti, jeszcze w 2002 roku, ale rozczarowywały wydajnością i kulturą pracy (szczególnie FX 5800). Sama architektura była kiepska, głównie za sprawą nieprzemyślanej konfiguracji potoków renderujących (4x2 zamiast 8x1 dla topowych modeli), a gdzieś w tyle majaczyły jeszcze problemy z produkcją. NVIDIA została też przyłapana na „optymalizowaniu” sterowników pod nowego 3DMarka, żeby nawiązać rywalizację z kartami Radeon 9000, które przewyższały FX-y technologicznie. Obsługa interfejsu DirectX 9.0 nadal pozostawała niewydolna, zaś wspomniane wyżej „optymalizacje” w sterownikach często wpływały na jakość obrazu, dlatego niektóre osoby pamiętające tamte czasy pewnie do dzisiaj uważają, że NVIDIA wyświetla obraz gorzej od AMD/ATi. Łącznie powstało chyba ze trzydzieści wariantów GeForce FX 5000, więc nie będę ich tutaj wszystkich przytaczał, skupiając na najpopularniejszych: GeForce FX 5200, FX 5600, FX 5700 i FX 5900.

Ewolucja kart graficznych w latach 2009-2015. Test przekrojowy

GeForce jest pełnoletni - 18 urodziny serii kart graficznych [5]

GeForce FX 5800

Dopiero w 2004 roku nastąpiła „dobra zmiana” w postaci serii GeForce 6000, jednej z najbardziej udanych w historii NVIDII. Starczy tutaj wspomnieć takie legendy jak GeForce 6600 GT, GeForce 6800 GT albo GeForce 6800 Ultra, chociaż w rodzinie było sporo innych konstrukcji godnych zainteresowania, również tych z niższego szczebla. Pojawiły się także dwurdzeniowe (autorskie) potworki jak Gigabyte 3D1-68GT. Seria GeForce 6000 mogła pochwalić się obsługą Vertex Shader 3.0 oraz Pixel Shader 3.0, wsparciem DirectX 9.0c i OpenGL 2.0, pamięciami GDDR3, wprowadzono SLI (patent kupiony razem z upadającym 3Dfx w 2000 roku) oraz dodano technologię HDR. GeForce 6000 pozwalały jednak na coś jeszcze - odblokowywanie nieaktywnych jednostek Vertex i Pixel Shader metodą programową. Jeśli trafiliśmy dobrego sampla, a trudną sztuką to akurat nie było, wystarczyło użyć aplikacji Riva Tuner, żeby zostać właścicielem znacznie szybszej karty graficznej. Sztuczka ta była szalenie popularna wśród posiadaczy GeForce 6800 LE (12/5), bardzo często zdolnych do działania przy pełnej konfiguracji (16/6).

Seria GeForce 6000 jest jedną z najbardziej udanych w historii NVIDII. Starczy tutaj wspomnieć takie legendy jak GeForce 6600 GT, GeForce 6800 GT albo GeForce 6800 Ultra.

GeForce jest pełnoletni - 18 urodziny serii kart graficznych [6]

GeForce 6800 Ultra

Wprowadzone w 2005 roku GeForce 7800 były niedużym skokiem w kwestii architektury, bowiem NVIDIA skupiła się na ulepszaniu swoich rozwiązań, kładąc główny nacisk na zwiększanie szybkości renderowania czy promowanie Quad-SLI. High-endowe wersje GeForce 7800 z czasem zastąpiły modele GeForce 7900 w różnych odmianach (GT / GTX / GS / GTO), pojawiło się także sporo słabszych odmian m.in.: GeForce 7600 GT oraz GeForce 7300 GT, które były chętnie wybierane do vmodów. Warto zauważyć, że pierwszy raz wykorzystano tutaj nazwę GeForce GTX, chociaż tylko dla jednego modelu. Skończyło się niestety radosne modyfikowanie kart graficznych poprzez odblokowywanie nieaktywnych jednostek, ale wszystkie GeForce 7900 świetnie się podkręcały, co mobilizowało producentów do opracowywania coraz lepszych wersji autorskich. Prym wiodły wówczas rozwiązania Zalmana oraz Arctic Cooling.

GeForce 7900 GS od Asusa i Galaxy

GeForce jest pełnoletni - 18 urodziny serii kart graficznych [7]

GeForce 7900 GS

Prawdziwa bomba została zrzucona w 2006 roku i nosiła nazwę G80 - nowa architektura obsługiwała DirectX 10, wprowadzała Unified Shaders, obliczenia fizyki w procesorze graficznym i nową metodę wygładzania (CSAA), ale przede wszystkim była cholernie wydajna. GeForce 8800 GTX niszczył wszystko na swojej drodze, dysponując 768 MB pamięci GDDR3 na 384-bitowej magistrali, ale słabsze rodzeństwo (GTS) też radziło sobie świetnie, zwłaszcza iż seria ATi Radeon HD 2000 nie należała do udanych. GeForce 8000 były niestety drogie, a wersje okrojone zaprezentowane w połowie 2007 roku (8600 GT oraz niższe) pozostawiały pewien niedosyt. Kilka miesięcy później NVIDIA dołożyła jednak do pieca, wprowadzając w październiku 2007 roku model GeForce 8800 GT 512 MB - wydajnością dorównywał GeForce 8800 GTX, będąc o prawie połowę tańszy. Układ G92 powracał jeszcze wielokrotnie, ponieważ generacja GeForce 9000 była odgrzewanymi kotletami, wykonanymi (częściowo) w litografii 55 nm oraz charakteryzującymi się wyższymi taktowaniami. NVIDIA jakby spoczęła na laurach.

Foxconn 8800GTX, czyli G80 w natarciu. Athlon 64 vs Core 2 Duo

GeForce jest pełnoletni - 18 urodziny serii kart graficznych [8]

GeForce 8800 GT 512

Ponieważ GeForce 100 były kolejnymi rebrandami, dodatkowo sprzedawanymi wyłącznie partnerom OEM, przejdźmy od razu do serii GeForce 200, która najpierw obejmowała tylko high-endowe modele. W 2009 roku do oferty dołączyły tańsze odmiany na czele z GeForce GTS 250, będącym reinkarnacją GeForce 8800 GT 512 MB (powiedzcie cześć układowi G92). W późniejszym terminie wprowadzono też odświeżone modele z rdzeniami wykonanymi w 55 nm litografii, więc zrobiło się lekkie zamieszanie, ponieważ nie wszystkie karty zostały czytelnie oznaczone. Sama architektura była rozwinięciem G80, dołożono natomiast kolejnych jednostek teksturujących, renderujących i cieniujących, których wydajność dodatkowo poprawiono. NVIDIA pracowała również nad optymalnymi stanami energetycznymi, uzyskując to poprzez zbijanie taktowania, kiedy karta nie była obciążona (niby proste, a ktoś musiał to wdrożyć). A co się stało z serią GeForce 300? Cóż... były to (znowu!) rebrandy poprzedniej generacji, skierowane na rynek OEM.

GeForce jest pełnoletni - 18 urodziny serii kart graficznych [9]

GeForce GTX 280

GeForce 400 zaprezentowane w 2010 roku, były pierwszą serią układów graficznych w portfolio NVIDII obsługującą DirectX 11, która zasłynęła niezłą wydajnością, ale koszmarnie wysokim poborem energii w przypadku najwyższych modeli. Nowa architektura zapewniała obsługę m.in. teselacji, powoli wdrażanej w grach, ale spisywała się świetnie również w zastosowaniach bardziej profesjonalnych, dzięki wysokiej wydajności GPGPU. Podobno dobrze smażyła też jajecznicę... Ulgę zasilaczom i systemom chłodzenia przyniosły dopiero GeForce 500, gdzie gruntownej modyfikacji poddano zarządzanie energią, ale konstrukcyjnie była to wciąż architektura Fermi, dlatego nie doświadczyliśmy wielkiego wzrostu wydajności. Największą popularnością cieszył się chyba GeForce GTX 560 Ti, będący złotym środkiem między kosztami i wydajnością, którego autorskie systemy chłodzenia doprowadziły do porządku również pod względem kultury pracy. A potem, to już poszło z górki... Historia GeForce 600, 700, 900 i 1000 sięga zaledwie kilka lat wstecz, więc zainteresowanych odsyłam do artykułów na łamach PurePC. Pełnoletniemu solenizantowi składamy natomiast serdeczne życzenia :)

Test GeForce GTX 480 i 470 vs Radeon HD 5870 i 5850

GeForce jest pełnoletni - 18 urodziny serii kart graficznych [10]

GeForce GTX 480

Źródło: PurePC
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Sebastian Oktaba
Liczba komentarzy: 88

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.