Tensor Core jest do uczenia maszynowego, więc nie wiem na co czekasz. Do gier tego nie użyjesz, zresztą wątpię, by w konsumenckich Voltach te rdzenie w ogóle były aktywne.
Liczyłem że takiej wydajności nie zmarnują. Ale wychodzi na to że faktycznie masz rację. Zobaczymy co wyjdzie finalnie, w końcu programiści to zdolne bestie.
Liczyłem że takiej wydajności nie zmarnują. Ale wychodzi na to że faktycznie masz rację. Zobaczymy co wyjdzie finalnie, w końcu programiści to zdolne bestie.
Nvidia ma bardzo pragmatyczne podejście. Jednostki które wymagają specjalnych optymalizacji w oprogramowaniu daje do kart gdzie software jest dedykowany.
Natomiast w kartach do gier zostawia tylko niezbedne jednostki w jak największej ilości i o jak najwyższym zegarze tak zgrupowane żeby mogły działać efektywnie bez dedykowanych optymalizacji w grach.
I to podejście w dobie bardzo słabo optymalizowanych gier się sprawdza.
W kontekście Volty najbardziej cieszy to że szykuje się kolejny znaczny wzrost perf/Watt i to mimo niewiele lepszego procesu.
Byle by z Titanami nie pojechali znów po bandzie...
Jeżeli przez pojechanie po bandzie rozumiesz usunięcie z GPU do gier tego co w grach się do niczego nie przyda to nowy Titan do gier raczej będzie tak samo zrobiony.
I jest to dosyć logiczne. Po co marnować krzem na coś co się do niczego nie przyda (w grach).
Niemal na pewno wszystkie Volty do gier będą okrojone z FP64, Tensor Cores a także z HBM 2.
Zamiast tego NV da więcej Cuda Cores/ TMU/ROP, pociągnie zegar a zamiast HBM2 wsadzi GDDR6.
Tego się spodziewam - czyli analogicznie jak w Pascalach będą dwa duże GPU - jeden pod HPC a drugi pod gry.
Co kilka miesięcy wydawane są nowe karty a starsze są przeceniane. Każdy to wie. A jak nie wie to potem ma zal.
Tym bardziej że Titan X Pascal to przyciety chip GP102. Było jasne że za jakiś czas NV wyda pełne GPU a wtedy pocięty Titan będzie musiał być przeceniony albo zastąpiony czymś tańszym.
Co więcej dokładnie tak samo było z Titanem generacji Keppler.
I najważniejsze nikt nikogo nie zmuszał do kupowania Titana w premierowej cenie.
Ale od dawna wiadomo że z czasem ceny spadają i dany pułap wydajności jest dostępny taniej. Osoby kupujące Titana o tym wiedziały.
Tym bardziej że od premiery TX (Pascal) do 1080Ti minęło ok 9 miesięcy.
Absurdem jest zarzucanie firmie że po jakimś czasie sprzedaje to samo (praktycznie to samo) taniej.
Więc jeżeli do kogoś kupujący Titana mogą w ogole mieć żal to tylko do samych siebie.
Tak sobie to wytłumaczyłeś?? Super.
No tak, zła Nvidia wydaje kartę o podobnej wydajności do titana za dużo mniej. No kurczę tak to jedziecie, że posiadacze titanów to idioci dający się dymać nvidii, a tu nagle obrońcy posiadaczy titanów. Hipokryzja najwyższej postaci.
Bo taka prawda. Gdyby uznać to za coś nagannego to trzeba by konsekwentnie uważać WSZYSTKIE OBNIŻKI CEN za złe.
O ile w ogóle obniżka ceny to coś zlego. Bo moim zdaniem nie.
Wg Ciebie NV jak raz wycenila Titana na 6000 zł to nie ma prawa ani obniżyć ceny ani wydać czegoś równie wydajnego taniej. Przecież to jest chore myślenie.
Bo taka prawda. Gdyby uznać to za coś nagannego to trzeba by konsekwentnie uważać WSZYSTKIE OBNIŻKI CEN za złe.
O ile w ogóle obniżka ceny to coś zlego. Bo moim zdaniem nie.
Wg Ciebie NV jak raz wycenila Titana na 6000 zł to nie ma prawa ani obniżyć ceny ani wydać czegoś równie wydajnego taniej. Przecież to jest chore myślenie.
Chyba się nie rozumiemy. Ja nie piszę o TX i TXp ale o TX i 1080Ti...
Przy TXp nie ma co dyskutować bo to jest obecnie najwydajniejsza karta. Ale wciskanie 1080Ti to qrestwo wobec tych co wydali 6k na TX.
Nie qurestwo tylko normalna kolej rzeczy - obniżanie z czasem ceny za dany pułap wydajności.
Dokładnie tak samo było z Titanem generacji Kepler.
Zresztą możliwe, że tego nie pamiętasz, ale ja pamiętam jak kiedyś nowa topowa karta graficzna była prezentowana średnio co ok pół roku, a dotychczasowy top błyskawicznie tracił na wartości.
Taka kolej rzeczy - decydując się na topową kartę płacimy od cholery kasy TYLKO za fakt, że mamy najszybszą i ten status trwa tylko przez MOMENT i kupujący MUSI o tym wiedzieć!
Kogo rzeczywiście stać na taki sprzęt nie będzie narzekał, bo jest tego procesu świadom wie że płaci nie tylko za samą wydajność, ale za swego rodzaju pierwszeństwo w dostępie do tej wydajności.
Natomiast żal mają głównie ci których na dłuższą metę na hi-end nie stać, ale odkładali miesiącami na Titana i jak już go mają to woleli by żeby rozwój i ceny stanęły w miejscu. Że skoro oni dali 6 000 zł to żeby przypadkiem nikt nie mógł tego dostać taniej przez co najmniej kilka lat.
Ąle taki żal wynika głównie z nieznajomości rynku. Wychodzą szybsze karty, a wydajność starszych spada do niższego pułapu cenowego i to jest normalne. Można się z tym pogodzić, albo ... odpuścić sobie kupowanie najdroższych kart.
Nie qurestwo tylko normalna kolej rzeczy - obniżanie z czasem ceny za dany pułap wydajności.
Dokładnie tak samo było z Titanem generacji Kepler.
Zresztą możliwe, że tego nie pamiętasz, ale ja pamiętam jak kiedyś nowa topowa karta graficzna była prezentowana średnio co ok pół roku, a dotychczasowy top błyskawicznie tracił na wartości.
Taka kolej rzeczy - decydując się na topową kartę płacimy od cholery kasy TYLKO za fakt, że mamy najszybszą i ten status trwa tylko przez MOMENT i kupujący MUSI o tym wiedzieć!
Kogo rzeczywiście stać na taki sprzęt nie będzie narzekał, bo jest tego procesu świadom wie że płaci nie tylko za samą wydajność, ale za swego rodzaju pierwszeństwo w dostępie do tej wydajności.
Natomiast żal mają głównie ci których na dłuższą metę na hi-end nie stać, ale odkładali miesiącami na Titana i jak już go mają to woleli by żeby rozwój i ceny stanęły w miejscu. Że skoro oni dali 6 000 zł to żeby przypadkiem nikt nie mógł tego dostać taniej przez co najmniej kilka lat.
Ąle taki żal wynika głównie z nieznajomości rynku. Wychodzą szybsze karty, a wydajność starszych spada do niższego pułapu cenowego i to jest normalne. Można się z tym pogodzić, albo ... odpuścić sobie kupowanie najdroższych kart.
Zobacz sobie np na lata 2000-2002 kiedy to weszły CZTERY generacje GeForce'ów plus wersje specjalne (Ti/ULTRA) - nowa topowa karta miała premierę średnio co pół roku i jakoś nikt o qurestwie nie pisał mimo, że przykładowo najtańszy GeForce 4 Ti miał dużo lepszą wydajność niż wprowadzony kilka miesięcy wcześniej GeForce 3 Ti 500 za ułamek ceny tego ostatniego.
Przypuszczalnie w tych czasach nie miałeś jeszcze komputera.... to i teraz coś co nie jest niczym zaskakującym nagle Cię oburza....
Zobacz sobie np na lata 2000-2002 kiedy to weszły CZTERY generacje GeForce'ów plus wersje specjalne (Ti/ULTRA) - nowa topowa karta miała premierę średnio co pół roku i jakoś nikt o qurestwie nie pisał mimo, że przykładowo najtańszy GeForce 4 Ti miał dużo lepszą wydajność niż wprowadzony kilka miesięcy wcześniej GeForce 3 Ti 500 za ułamek ceny tego ostatniego.
Człowieku ja nie mowie o topowej karcie. Piszę o TX (bez p) i 1080Ti.
Po za tym dajesz przykład różnych generacji kart co jest kwestią normalna a ja piszę o tej samej generacji.
Pierwszy komputer miałem w 93r (486 SX 33 a karty graficznej nie pamiętam ale latał na tym Car&Driver czy Stunts)...
Jak się nazywa karta to bez znaczenia. Istotne jest, że co kilka miesięcy wychodzą nowe karty i nie ma takiej możliwości, że ktoś sobie kupi topowy model i on topowy pozostanie przez lata.
A z tym się wiąże druga kwestia, że cena za dany pułap wydajności z czasem jest coraz niższa i to też wszyscy wiedzą, którzy kupują najwydajniejsze karty.
Więc każdy kto ma jakieś pojęcie o rynku, a już zwłaszcza każdy kto widział co się działo w generacji Kepler doskonale wiedział, że Nvidia wydajność TItana za kilka m-cy zaoferuje w niższej cenie, bo dokładnie to zrobiła w przypadku Keplera.
Titan (Kepler) został zastąpiony GTX780Ti, a później jeszcze doszedł Titan Black. Teraz mamy dokładnie to samo. Po pociętym Titanie (Pascal) wchodzi podkręcony GTX1080 Ti, a zaraz po nim pełny Titan Xp.
Jak się nazywa karta to bez znaczenia. Istotne jest, że co kilka miesięcy wychodzą nowe karty i nie ma takiej możliwości, że ktoś sobie kupi topowy model i on topowy pozostanie przez lata.
A z tym się wiąże druga kwestia, że cena za dany pułap wydajności z czasem jest coraz niższa i to też wszyscy wiedzą, którzy kupują najwydajniejsze karty.
Więc każdy kto ma jakieś pojęcie o rynku, a już zwłaszcza każdy kto widział co się działo w generacji Kepler doskonale wiedział, że Nvidia wydajność TItana za kilka m-cy zaoferuje w niższej cenie, bo dokładnie to zrobiła w przypadku Keplera.
Titan (Kepler) został zastąpiony GTX780Ti, a później jeszcze doszedł Titan Black. Teraz mamy dokładnie to samo. Po pociętym Titanie (Pascal) wchodzi podkręcony GTX1080 Ti, a zaraz po nim pełny Titan Xp.
Wszystko spoko tylko że po wyjściu 1080Ti cena TX nie spadła... Twoja teoria legła u podstaw.
Jak się nazywa karta to bez znaczenia. Istotne jest, że co kilka miesięcy wychodzą nowe karty i nie ma takiej możliwości, że ktoś sobie kupi topowy model i on topowy pozostanie przez lata.
A z tym się wiąże druga kwestia, że cena za dany pułap wydajności z czasem jest coraz niższa i to też wszyscy wiedzą, którzy kupują najwydajniejsze karty.
Więc każdy kto ma jakieś pojęcie o rynku, a już zwłaszcza każdy kto widział co się działo w generacji Kepler doskonale wiedział, że Nvidia wydajność TItana za kilka m-cy zaoferuje w niższej cenie, bo dokładnie to zrobiła w przypadku Keplera.
Titan (Kepler) został zastąpiony GTX780Ti, a później jeszcze doszedł Titan Black. Teraz mamy dokładnie to samo. Po pociętym Titanie (Pascal) wchodzi podkręcony GTX1080 Ti, a zaraz po nim pełny Titan Xp.
Wszystko spoko tylko że po wyjściu 1080Ti cena TX nie spadła... Twoja teoria legła u podstaw.
Cena ściśle za Titana X nie spadła, bo nie musiała. Titan X został zastąpiony pełnym Titanem XP. Natomiast cena za pułap wydajności Titana X spadła, właśnie poprzez pojawienie się 1080Ti.
Przy czym warto podkreślić, że pułap wydajności jest praktycznie ten sam - nowy TXp to 2-5% przyrostu w grach czyli tyle co nic. Dobrze chłodzone 1080Ti przy max OC spokojnie to nadrabia.
Zobacz sobie np na lata 2000-2002 kiedy to weszły CZTERY generacje GeForce'ów plus wersje specjalne (Ti/ULTRA) - nowa topowa karta miała premierę średnio co pół roku i jakoś nikt o qurestwie nie pisał mimo, że przykładowo najtańszy GeForce 4 Ti miał dużo lepszą wydajność niż wprowadzony kilka miesięcy wcześniej GeForce 3 Ti 500 za ułamek ceny tego ostatniego.
Przypuszczalnie w tych czasach nie miałeś jeszcze komputera.... to i teraz coś co nie jest niczym zaskakującym nagle Cię oburza....
W latach 200-2002 premierę miały 3 generacje GeForce, 256 debiutował w 1999. Ti nie były żadnymi specjalnymi wersjami. Top karty miały premierę raz w roku, GF 2 Ultra sierpień 2000/ GF 3 Ti500 - październik 2001/ GF 4 Ti 4600 luty 2002. GeForce 4 Ti 4600 nie kosztowała żadnego ułamka ceny GF 3 Ti 500 bo też za te karty wołano 350 - 400$. Tańsze było Ti 4200 ale nie było specjalnie wydajniejsze od Ti 500 (chyba tylko w 3Dmark bo w grach miały zbliżone wyniki).
Nie qurestwo tylko normalna kolej rzeczy - obniżanie z czasem ceny za dany pułap wydajności.
Dokładnie tak samo było z Titanem generacji Kepler.
Zresztą możliwe, że tego nie pamiętasz, ale ja pamiętam jak kiedyś nowa topowa karta graficzna była prezentowana średnio co ok pół roku, a dotychczasowy top błyskawicznie tracił na wartości.
Taka kolej rzeczy - decydując się na topową kartę płacimy od cholery kasy TYLKO za fakt, że mamy najszybszą i ten status trwa tylko przez MOMENT i kupujący MUSI o tym wiedzieć!
Kogo rzeczywiście stać na taki sprzęt nie będzie narzekał, bo jest tego procesu świadom wie że płaci nie tylko za samą wydajność, ale za swego rodzaju pierwszeństwo w dostępie do tej wydajności.
Natomiast żal mają głównie ci których na dłuższą metę na hi-end nie stać, ale odkładali miesiącami na Titana i jak już go mają to woleli by żeby rozwój i ceny stanęły w miejscu. Że skoro oni dali 6 000 zł to żeby przypadkiem nikt nie mógł tego dostać taniej przez co najmniej kilka lat.
Ąle taki żal wynika głównie z nieznajomości rynku. Wychodzą szybsze karty, a wydajność starszych spada do niższego pułapu cenowego i to jest normalne. Można się z tym pogodzić, albo ... odpuścić sobie kupowanie najdroższych kart.
Fajne sobie to tłumaczysz...
Od kiedy tak nagle Ci szkoda posiadaczy Titana? Przyznaj, że po prostu znajdujesz sobie powody, byleby pocisnąć po nv.
W tym konkretnym przypadku nie musi niczego szukać - NVIDIA ładnie wali swoich użytkowników premium w tyłek bez wazeliny, a ci są jeszcze z tego powodu szczęśliwi.
Jest sporo osób, które po prostu nie mają co zrobić z kasą. Jak masz zabezpieczoną przyszłość, to po co odkładać pieniądze na jakieś śmieszne lokaty czy nudne inwestycje - wydajesz na to co cię najbardziej interesuje:) Na zachodzie takie 6000pln to jak u nas powiedzmy 1500-2000, czyli śmiesznie mało jak za produkt high-end (i to stosunkowo wymierny high-end, w porównaniu do głośników za 400k czy słuchawek za 10-15k). Uwzględniając odsprzedaż to w ogóle grosze są.
Sytuacja w której NVIDIA najpierw wypuściła niepełne GP102 w postaci Titana X (Pascal) ustalając za niego taką, a nie inną cenę, by po paru miesiącach wypuścić nowego, tym razem w pełni odblokowanego Titana Xp to coś, czego raczej się nie robi i to nawet w przypadku sprzętu dla entuzjastów. Tym bardziej, że od momentu wsprowadzenia nowego Titana, starego nie da się dostać, więc osoby, które kupiły jednego starego Pascala z myślą o dołożeniu drugiego do SLI w przyszłości, naprawdę mocno wkurzyły się na NVIDIĘ. Poza tym Titana X (Pascal) obecnie nie jesteś w stanie sprzedać z niewielką stratą - dużo tańszy GTX 1080Ti oferuje podobną wydajność, a w tej samej cenie masz nieco wydajniejszego, pełnego Titana Xp.
Ja się zastanawiam skąd u niego taka chęć zaglądania do kieszeni, tak się przejmuje tymi biednymi posiadaczami titanów, szczególnie, że sam się nabił na furiota x :D
A.. a propos fury :-D Właśnie Fury X kosztował na starcie 3000 zł , teraz kosztuje 1000 zł -" toz to AMD dyma swoich fanów którzy przecież nie po to wydali 3000 zł żeby ktoś inny mógł kupić za 1000 zł :-P. Teraz to nawet nie idzie korzystnie sprzedać Fury jak jest dostępny za 1/3 pierwszej ceny w sklepach "
A.. a propos fury :-D Właśnie Fury X kosztował na starcie 3000 zł , teraz kosztuje 1000 zł -" toz to AMD dyma swoich fanów którzy przecież nie po to wydali 3000 zł żeby ktoś inny mógł kupić za 1000 zł :-P. Teraz to nawet nie idzie korzystnie sprzedać Fury jak jest dostępny za 1/3 pierwszej ceny w sklepach "
Na pewno mniej opłacalnie biorąc pod uwagę, że furyx jest kartą zyskującą słabsze wyniki.
Nie za bardzo interesowałem się wynikami tej karty, ale ostatnio ktoś trafnie sprostował mnie, że 580 wcale nie ma gorszej wydajności od 390x. Zaszokowało mnie, że czesto ostatnio zrównuje się z furyx. Chyba pierwsza karta AMD, która starzeje się naprawdę dziadowsko. 980 ti jak na razie lepiej znosi próbę czasu, a jak NVIDIA zaczyna się lepiej starzec od radeona to już jest poważny problem z czerwonym produktem.
Właściwie tylko ze względu na ten "ficzer", (lepsze wsparcie po latach) czekam na Vege. Jeżeli ten (ostatni?) atut zostanie utracony to nie mam nawet co patrzeć na karty czerwonych, bo zwyczajnie NVIDIA robi to naprawdę dobrze i nie trzeba na nią czekać.
A.. a propos fury :-D Właśnie Fury X kosztował na starcie 3000 zł , teraz kosztuje 1000 zł -" toz to AMD dyma swoich fanów którzy przecież nie po to wydali 3000 zł żeby ktoś inny mógł kupić za 1000 zł :-P. Teraz to nawet nie idzie korzystnie sprzedać Fury jak jest dostępny za 1/3 pierwszej ceny w sklepach "
;-)
Nie wiem gdzie za 1000zł widzałeś FuryX - najtańsze na allezgrozie są po 1600 używki i ponad 3K nowe (jakiś obłęd). Zwykłe Fury używki są po 1400zł
A gdzie ja komukolwiek do kieszeni zaglądam? Poczytaj sobie opinie o tym całym wałku na zagranicznych forach i wtedy przekonasz się, że bogatemu zachodowi tego typu zagrania również nie pasują. A z Fury X jestem bardzo zadowolony (nawet teraz znalezienie lepszej karty za 1400 zł, które wydałem, jest nieco skomplikowane). Szkoda, że nie można tego powiedzieć o osobie, od której tą kartę kupowałem - wymieniła Fury X na Pascala i teraz tego żałuje.
Szkoda, że nie można tego powiedzieć o osobie, od której tą kartę kupowałem - wymieniła Fury X na Pascala i teraz tego żałuje.
Naprawdę daruj sobie tego typu teksty. Twoja standardowa retoryka - nvidia to, nvidia tamto, ale nvidia gdzie robisz to za każdym razem wybielając amd jest do zdzierżenia, ale takie bajki to już totalny odlot.
To Ty sobie daruj - z nas dwóch to Ty jesteś ślepo zapatrzony na NVIDIĘ, a nie ja na AMD. Upgrade z Fury X to GTXa 1080 to żaden upgrade i to jest niestety fakt. Spytaj się osób, które tego dokonały.
To Ty sobie daruj - z nas dwóch to Ty jesteś ślepo zapatrzony na NVIDIĘ, a nie ja na AMD. Upgrade z Fury X to GTXa 1080 to żaden upgrade i to jest niestety fakt. Spytaj się osób, które tego dokonały.
Jest. Fury X w najlepszym razie sięga do 1070, najczęściej dużo mniej. Przy bardzo przychylnym podejściu kiedy FuryX dogoni 980Ti, to nadal zostaje 5-10% od 980Ti do 1070, potem następne 15% do 1080 a następnie podkręcenie 1080 o jeszcze 15%. Ale co ja się będę produkował: overclock3d.net/reviews/gpu_displays/doom_pc_performance_review/8 - w chyba najkorzystniejszej dla FuryX grze (Doom na Vulkanie) mocno zostaje w tyle w 1080p mniej więcej wyrównuje w 1440 i nareszcie wygrywa w 4k.
Tutaj kompleksowe wyniki z wielu gier: techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/26.html FuryX zostaje od 25-30% za GTX1080, Fury podkręci się o 10%, GTX1080 o 15% - w efekcie mamy 30-35% wydajniejszą kartę która zjada znacznie mniej energii. Oczywiście są ludzie którzy uważają że kupno nowej karty ma sens przy 100% wzroście wydajności (jak ja), inni zadowolą się 20%-30% bo wymieniają co roku i sprzedają stare (z reguły dopłacając 500-750zł). Co kto lubi.
Jest. Fury X w najlepszym razie sięga do 1070, najczęściej dużo mniej. Przy bardzo przychylnym podejściu kiedy FuryX dogoni 980Ti, to nadal zostaje 5-10% od 980Ti do 1070, potem następne 15% do 1080 a następnie podkręcenie 1080 o jeszcze 15%. Ale co ja się będę produkował:
W testach. W rzeczywistości Fury X bez problemu daje się ustawić tak, żeby nieco przebijało GTXa 1070, zwłaszcza przy dłuższej rozgrywce - większość wczesnych modeli GTXów 1070 i 1080 przy dłuższej rozgrywce zaczynało zbijać takty po paru minutach gry (część modeli do teraz ma ten problem) i na ten problem trafił ów znajomy. A wiadomo, że nikt normalny nie będzie co 5 minut gry restartował.
Patrz np. tu: nl.hardware.info/reviews/7081/28/nvidia-geforce-gtx-1070-en-1080-round-up-de-beste-keuze-voor-4k-en-vr-duurtest
Co tu się wyrabia...Coraz większe absurdy. Jak ktoś takie rzeczy pisze to możliwości jest tylko kilka.
1.Trollowanie 2. Bajkopisartstwo 3.Łączenie I5 + GTX 1080 i z racji ograniczeń ze strony procka, takie "wnioski". 4.Fanatyzm 5.Brak umiejętności obsługi komputera.
Realia są takie, że Fury X nie lażało nawet obok GTX 1080, daleko mu do wydajności GTX 980Ti/ 1070.
Wręcz walczyć musi z kręconym GTX 980. I to jest fakt.
Co tu się wyrabia...Coraz większe absurdy. Jak ktoś takie rzeczy pisze to możliwości jest tylko kilka.
1.Trollowanie 2. Bajkopisartstwo 3.Łączenie I5 + GTX 1080 i z racji ograniczeń ze strony procka, takie "wnioski". 4.Fanatyzm 5.Brak umiejętności obsługi komputera.
Realia są takie, że Fury X nie lażało nawet obok GTX 1080, daleko mu do wydajności GTX 980Ti/ 1070.
Wręcz walczyć musi z kręconym GTX 980. I to jest fakt.
Zapominasz ciągle dodać że Ty wypowiadasz się wyłącznie o podkręconych produktach bo braku podkręcania nie uznajesz. Musisz to dopisywać bo regularnie ludzi w błąd wprowadzasz. Co do punktu 3 nie ma pojęcia do czego piejesz bo test który Sevard85 zlinkował jest robiony na 5960X@4Ghz. Może i nie jest to super konfiguracja ale spokojnie starcza do ukazania różnic w wydajności między kartami w miejscach które nie są ściśle procesorowe. Zresztą wykresy nie są płaskie. Przy takim założeniu faktycznie, FuryX ma trudności z dogonieniem 980Ti. FuryX do 980Ti brakuje jakieś 15%, po podkręceniu obu 20-25% w zależności od egzemplarza. 980Ti podkręcony do 1070 podkręconego to następne 15%. Dalszy stosunek wydajności jest znany. Ostatecznie FuryX po podkręceniu brakuje conajmniej 50% do podkręconego 1080 (który się aż tak dobrze nie kręci, megahercami tak, ale procentowo już sporo mniej). Co więcej odnośnie do spadania częstotliwości pracy kart w czasie trwania testu to owszem, niektóre stały prawie w miejscu, inne zjechały aż o 100Mhz podczas gry. To niby tylko 5% ale faktycznie jest.
980Ti OC i 1070 OC ( uśrednione ) to ta sama wydajność. Z przewagą dla 980Ti i tak, żadne 15% odjazdu dla 1070...
Ludzi w błąd nie wprowadzam, mam świeże podejście do tematu i testów nie kieruje do laików. Po za tym, miałem u siebie wszystkie te karty i wiem doskonale jakie są realia. A, te są zupełnie inne niż wymysły ludzi lecących teoriami.
Kolejna sprawa, to to, że mało kto potrafi robić testy prawidłowo. Wiem co nieco o tym , ponieważ bardzo konkretnie obracam się w tych kręgach. Nie tylko PL. Sebastian na PPC trzyma poziom. Gdybyś wiedział co się wyrabia gdzie indziej, zrozumiałbyś w czym rzecz.
Kluczowa kwestia, to mieć świadomość, że karta karcie nie jest równa. Ten sam model, inny ASIC co za tym idzie inny boost, napięcie, temperatury i wyniki są różne. Do tego testy refów na stock vs nierefy z OC po wyjęciu z pudła, również niewiele wspólnego mają z wydajnością realną sprzętów.
No ale taka jest większość testów, ponieważ kierowane są do laików którzy o pewnych aspektach nie mają pojęcia. To też jest potrzebne i tyle :) Jednak dla bardziej zaawansowanych użytkowników, jest to mylące.
1. Ja nigdzie nie piszę, że Fury X to to samo co GTX 1080 piszę tylko, że wymiana Fury X na GTXa 1080 daje zbyt mały skok wydajnościowy, by miało to ręce i nogi. 2. Piszę tu o rzeczywistej różnicy, a nie tym co wynika z testów. Prawda jest taka, że wszyscy ustawiają grę tak, żeby było płynnie, a nie wszystko na maksa i już z tego powodu większość testów nie ma sensu. To, że na jednych ustawieniach jakaś karta ma znaczna przewagę nie oznacza, że będzie miała już również na innych. Z tego powodu zawsze lubiłem testy na HardOCP - szukali najlepszych grywalnych ustawień na danej karcie w danym tytule, a nie ustawiali wszystko na maksa i spuszczali się, że jedna karta generuje 30 FPSów, a druga tylko 27. 3. Dalej - domyślne ustawienia sterowników AMD i NVIDII są inne - optymalizacje NVIDII w grach AAA są dużo bardziej agresywne, dzięki czemu gry generują więcej klatek (i lepiej wychodzą w benchmarkach), ale często generują obraz gorszej jakości niż karty AMD. Najlepiej jest to widoczne w Crysisie 3, czy z nowszych gier w DOOMie. Jeśli ustawisz Fury X oraz GTXa 980Ti/GTXa 1070, żeby generowały taki sam obraz, to uśredniając jest to dokładnie ta sama półka wydajnościowa. Taki mały psikusik.
To ten sam typ ludzi którzy twierdzą, że Ryzen jest idealny do zastosowań PRO, a w życiu w żadnym oprogramowani PRO nie siedzieli i żadnej platformy pod to nie optymalizowali.
Czyli nie mają pojęcia co jest w realnych zastosowaniach implementowane. Dla nich nagle na guru wyrósł Lipton, bo jest jedyny który słodzi im testami wspierającymi ich teorie, obecnie nawet do Sebastina są w kontrze... bo wyniki im się nie podobają, więc to z pewnością jego wina.
Taktyka takich osób jest prosta, przesukać net, znaleźć testy potwierdzające ich oczekiwania i publikować je jak prawdę objawioną.
Podobnie robił mój syn jak miał 6 lat. Chodził od osoby do osoby pytał czy cukierki są zdrowe, jak mu to ktoś potwierdził lub chociaż nie zaprzeczył, to był jego bohaterem dnia i autorytem w negocjacjach z rodzicami.... jak widać niektórzy z tego nie wyrastają.
A gdzie ja komukolwiek do kieszeni zaglądam? Poczytaj sobie opinie o tym całym wałku na zagranicznych forach i wtedy przekonasz się, że bogatemu zachodowi tego typu zagrania również nie pasują. A z Fury X jestem bardzo zadowolony (nawet teraz znalezienie lepszej karty za 1400 zł, które wydałem, jest nieco skomplikowane). Szkoda, że nie można tego powiedzieć o osobie, od której tą kartę kupowałem - wymieniła Fury X na Pascala i teraz tego żałuje.
Nom, generalnie się zgadzam, ale na allezgrozie ceny GTX980Ti spadły do właśnie 1400zł - mimo wszystko to lepsza propozycja od FuryX choćby ze względu na podkręcalność. Bez większego stresu można uzyskać wydajność bliską standardowego 1070.
Niemniej NVIDIA sama będzie musiała wypić to piwo, ciekawie jak im pójdzie sprzedaż "nowego" Titana jeśli bedzie cięty z niepełnego CHIPu
Mnie tam mało co interesuje jak nvidia będzie sprzedawała titany, ile ich będzie i po ile będą. Ni mnie to nie ziębi, ni grzeje. Mam w głębokim poważaniu te karty. Może nie sprzedać ani jednego. Mnie interesuje karta w okolicach 2000zł i TDP 150-180W oraz to jaką wydajność zaoferuje przy tym. I to również niekoniecznie na premierę. 1070 nie licząc posiadanego rabatu kupiłem za 1699zł z grą, pół roku później sprzedałem go za tyle samo przed obniżkami cen i za 2000zł kupiłem 3 miesięcznego 1080.
Wydajność do 1440p wystarczająca, piekarnika nie ma, Nie wydaję co pół roku prawie 6000zł na nowego titana i jest mi z tym dobrze. Dopłacając niewiele zawsze otrzymuję wysoką wydajność, którą pożytkuję w danym okresie użytkowania karty. Jak jej troszkę brakuje to delikatnie detale w dół i można się dobrze bawić dalej.
Niemniej jakbym kupił Titana P do Octane (na szczęście nie kupiłem bo silnik nie był gotowy), a potem bym chciał kupić kolejne a nie mógł to byłoby słabo...
Może po prostu on rozumie jak się produkuje układy półprzewodnikowe, więc dla niego to normalne, że gdy poprawia się uzysk to cena karty może spaść tak samo jak to, że uzysk mógł nie pozwalać na wydanie pełnego chipu GP102 na początku a po kilku miesiącach i wzroście produkcji (oraz spadku popytu z powodu 1080ti) można sobie pozwolić na produkcję mającego ponad 500 mm^2 układy bez skazy.
Ale od dawna wiadomo że z czasem ceny spadają i dany pułap wydajności jest dostępny taniej.
Ehh... Chciałbym aby to była uniwersalna prawda :) Ze 3 lata tamu kupiłem za jakieś 1500 zł nowego Asus DCII 290x, teraz w tej cenie nie dostanę nic nowego co by było zauważalnie wydajniejsze. Wychodzi na to, że FPS/zł dużo się nie zmienił na przestrzeni lat :)
1080Ti @2025/12000 jest jakieś 5% mniej wydajny od TX P 2016 @2025/11000.
Od TXp 2025/12000 , TX P o powyższych taktach wolniejszy jest o 5% a Ti o 10% ;)
No ale to są żadne różnice biorąc pod uwagę wydajność tych kart. TITANY X mają po 12gb vram no a Ti 11, ale też żadna różnica względem tego jak było z TX M vs 980Ti. Maxwell TX M vs 980Ti to przy zegar w zegar 10% no i 12 gb vram zamiast 6. Także tak, NV pojechała po bandzie z TX Pascalami . No ale karty są zacme, starczą na długo :)
nie, mam na myśli wydania Titana kastrata, a potem Titana kastrata mniej, a tak naprawdę, żaden z nich pełnoprawnych Titanem nie jest w rodzinie Pascal Tensore Core zgoda HBM pewnie ekonomia zadecyduje, FP64 chciałoby się by mnie cieli. Ale wątpie by tak to zrobili... Mam niejasne wrażenie, że w tej architekturze mogą manipulować proporcjami pomiędzy SP a FP64 dość płynnie tak jak i ilością Tensor Cores.
A mówili coś na temat zmian w działaniu WARP Scheduler i Dispatch Unit? Bo to jest IMHO najciekawszy kawałek z punktu widzenia gier, SM 6.0, implementacji HLSL....
Giełda już zareagowała. Po ogłoszeniu wyników finansowych i meetingu akcje poszybowały o 18 dolków w górę.
To prawie dwukrotność wartości akcji AMD.
Mnie ciekawi, czy karty Volta będą miały jednostki do obliczeń asynchronicznych. Czy na podstawie tego co zostało powiedziane można już coś na ten temat powiedzieć?
Jak Volta nie będzie miała tych jednostek, to można brać śmiało Pascale - nie będą wtedy aż tak udupione na wyjście Volty.
Giełda już zareagowała. Po ogłoszeniu wyników finansowych i meetingu akcje poszybowały o 18 dolków w górę.
To prawie dwukrotność wartości akcji AMD.
.
Tylko, że cena akcji sam w sobie nic nie mówi bo chodzi jeszcze o ilość akcji. AMD dwa lata teamu było warte na giełdzie poniżej 2B dolców dziś jest to 10B+ z czego rywalizuje w CPU i GPU a sam Nvidia warta jest 70B+ nie mówiąc o intelu... to, że ta firma nadal potrafi konkurować z tymi gigantami to albo sukces albo porażka gigantów
Mnie ciekawi, czy karty Volta będą miały jednostki do obliczeń asynchronicznych. Czy na podstawie tego co zostało powiedziane można już coś na ten temat powiedzieć?
Zależy co przez to rozumiesz, bo obliczenia asynchroniczne, to obliczenia jak każde inne wykonywane tych samych rdzeniach CUDA (NV) czy SP (AMD). Asynchroniczne - to znaczy takie, gdzie zlecasz zadanie GPU i nie musisz czekać na wynik, by zlecić kolejne (definiujesz tylko bariery w stylu, zadanie X nie może wystartować póki zadania A, B, C się nie skończą). I teraz GPU może to olać i tak wykonać wszystkie asynchroniczne zadania synchronicznie, czyli jedno po drugim w kolejności zleceń, co może nie być optymalne jeśli każde z tych zadań nie wykorzystuje GPU w 100%, albo GPU może starać się to zrównoleglić, skoro wie, że nie są one zależne od siebie nawzajem (bo tak mu powiedziałeś zlecając to jako zadania asynchroniczne i za pomocą barier), by wykorzystać swoją moc w 100%. AMD posiada specjalny kawałek krzemu w GPU, który zajmuje się jak najsprawniejszą realizacją tego drugiego podejścia. W Maxwellach to było robione mniej więcej tak, żę to sterownik starał się odgadnąć jak bardzo obciążające to mogą być zadania i starał się to podzielić na kawałki i poukładać tak, by dobrze wykorzystać GPU, które już nic nie wiedziało, tylko leciało po kolei - w prostych przypadkach potrafi to dać lepsze wydajność niż w AMD, w bardziej skomplikowanych - beznadziejną :P W Pascalach już jest lepiej, poszli trochę w stronę AMD i chyba jakiś prosty algorytm w GPU dali realizujący część tego procesu, ale nie wiem co i jak za bardzo.
Dobry czas trzeba zamglić to co chce zaprezentować AMD.PLAYSTATION 5 to będzie dopiero power jak tu takie potworki przed Nami.Najgorszy czas przed Nami bo szykują się wydatki a jak jeszcze ogłoszony zostanie nowy silnik graficzny w grach z takim nowym CRISISEM tych czasów ale oparty już na DX12 wykorzystujący te 15TF to nagle karty pokroju VEGA PIERWSZA i TITAN PASCAL staną się wspomnieniem.
Nie było i nie będzie obniżek. Intel woli sprzedać 2 rdzenie więcej albo odblokować HT niż obniżyć ceny. Cięcia jeśli jakieś będą skryją się w reformie nazewnictwa (jak ostatnio z Xeonami) i w odblokowaniu rdzeni/HT, tak że nagle I5 będzie miało HT a flagowy I7 (nie HEDT) pojawi się z 6 rdzeniami. To oczywiście spekulacje, ale tak działa Intel.
To bylo ironiczne pytanie;) Swoja drogo co sie takiego wydarzylo z tym ze intel zmienil nazewnictwo xeonow? Z tego co wiem niema jeszcze ich cen ani dokladnych specyfikacji.
To bylo ironiczne pytanie;) Swoja drogo co sie takiego wydarzylo z tym ze intel zmienil nazewnictwo xeonow? Z tego co wiem niema jeszcze ich cen ani dokladnych specyfikacji.
Według Intela to usystematyzowanie nazewnictwa. Według obserwatorów rynku nowy system pozwoli od nowa poukładać ceny by lepiej je dostosować do konkurencji. Nie chodzi tu o obniżenie cen a o zmianę "priorytetów" w wycenianiu. Domyślam się że przeniosą nacisk z częstotliwości na ilość rdzeni. Ale to tylko mój domysł :) Ja też tylko tabelkę z nazewnictwem widziałem, pewnie wyciekną szczegóły później, w okolicach premiery Naples ;)
Akurat niesadze aby chodzilo o zwiekszanie liczby rdzeni bo intel ma w ofercie juz 22 rdzeniowe jednostki... do tego mozna je montowac nawet po 4. Ale fakt robi sie duzo unikatowych opcji i jakos trzeba to podzielic: platformy 2 i wiecej procesorowe plus(to sie laczy ze maja byc 2 nowe sockety) ma jeszcze byc podobno 6 kanalowy kontroler pamieci i niewiem czy zostanie tez wersja 4 kanalowa. Takze tego sporo.
Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6
Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6
a tymczasem Vega zapoda 8 Giga ultranowoczesnego HBM2 ktory przy jakosci gier obecnie sie szybko zapcha. Fury ich nie nauczylo.
Dokładnie, przestrzelili, liczyli na powszechność i dodatkowe przychody w przypadku jakby NV też zaczęła to stosować, ale nie wyszło. Rywal wstawił GDDR5X i game over.
Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6
a tymczasem Vega zapoda 8 Giga ultranowoczesnego HBM2 ktory przy jakosci gier obecnie sie szybko zapcha. Fury ich nie nauczylo.
Tak te 12-16GB RAM które przyda się w 5 tytułach na krzyż (tych co zapełniają całą dostępną pamięć preloadując tekstury bez względu na to czy są potrzebne - było już na ten temat kilka testów, w kwestii rzeczywistego wykorzystania ich podczas rozgrywki) i tylko w rozdzielczości 4K lub wyższej dla tego 1% graczy posiadających oczywiście monitory 4K. O jakości gier nie stanowi naładowanie ich teksturami bo o to wyjątkowo łatwo, tylko grywalność.
2018 oznacza: - nowy interface HDMI, - nowy DP. - matryce 4K które będa potrafiły działać w +100Hz i z HDR. - już teraz TV 4Kmają szybsze procesor obrazu i sporo mniejszy input lag niż 1-2 lata temu.
Upowszechnienie się tego na rynku gaming to tylko kwestia czasu i to nie aż tak odległego.
Teraz kółko się zamyka: nie było dłuuugo pojedynczej karty do grania w 4K to nie było zalewu monitorów. Ale skoro te karty wchodzą to wejdą i monitory. Entuzjaści już za optymalizację tej półki zapłacili, Pora by zawitała do mainstream.
2018 oznacza: - nowy interface HDMI, - nowy DP. - matryce 4K które będa potrafiły działać w +100Hz i z HDR. - już teraz TV 4Kmają szybsze procesor obrazu i sporo mniejszy input lag niż 1-2 lata temu.
Upowszechnienie się tego na rynku gaming to tylko kwestia czasu i to nie aż tak odległego.
Teraz kółko się zamyka: nie było dłuuugo pojedynczej karty do grania w 4K to nie było zalewu monitorów. Ale skoro te karty wchodzą to wejdą i monitory. Entuzjaści już za optymalizację tej półki zapłacili, Pora by zawitała do mainstream.
Oczywiście masz rację, ja tylko o rozmiarze pamięci pisałem. Ech, wszyscy o tych entuzjastach piszą jakby tylko oni sprzęt kupowali, podczas gdy stanowią znikomą część rynku. Monitory 4k wśród graczy to globalnie nadal poniżej 1% i w ostatnim miesiącu przybyło ich o 0.04% :) Ale masz rację, że kiedyś z pewnością to się zmieni, tylko zanim to nastąpi to przeleci wiele generacji kart. Dlatego nowe HDMI i nowy DisplayPort są dla większości użytkowników marginalnie ważne. Prawda że telewizory są dużo szybsze (najlepsze 4K to 20-30ms) ale do "szybkich" 9ms w FHD jeszcze im sporo brakuje - a to przy wyższych częstotliwościach odświeżania przestaje się chować w 16ms okienkach 60hz ekranu. Dobre źródło informacji i baza danych monitorów/telewizorów - displaylag.com/display-database/ Jedyne co mnie kusi to HDR bo wygląda ślicznie ale inwestycja 10k złociszy mi się nie uśmiecha.
Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6
Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.
Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6
Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.
:) :) :) Ty to potrafisz śmieszkowac jak mało kto. Teksty na poziomie pana Labovskiego. Czas przełknąć gorzka pigułę, że nVIDIA jest nie jedną, a dwie długości przed AMD które tak bardzo ubóstwiasz. Zero obiektywizmu, zero.
Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6
Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.
:) :) :) Ty to potrafisz śmieszkowac jak mało kto. Teksty na poziomie pana Labovskiego. Czas przełknąć gorzka pigułę, że nVIDIA jest nie jedną, a dwie długości przed AMD które tak bardzo ubóstwiasz. Zero obiektywizmu, zero.
Więc trochę liczb: P100 3584Cuda 1328MHz-1480MHz 9.6TFlops (10.6TFlops NVlink)
V100 5120Cuda czyli 42% więcej 1450MHz 15TFlops (zakładam że to wartość przy użyciu NVlink ale porównam do wersji PCIe) czyli 57% więcej.
Wynika z tego ze zegar w zegar wydajność wzrosła o ok 10% przy takiej samej ilości Cuda.
Fakt jest taki że zwiększyła się wydajność na mm* i tu nie ma co się kłócić.
Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.
:) :) :) Ty to potrafisz śmieszkowac jak mało kto. Teksty na poziomie pana Labovskiego. Czas przełknąć gorzka pigułę, że nVIDIA jest nie jedną, a dwie długości przed AMD które tak bardzo ubóstwiasz. Zero obiektywizmu, zero.
Więc trochę liczb: P100 3584Cuda 1328MHz-1480MHz 9.6TFlops (10.6TFlops NVlink)
V100 5120Cuda czyli 42% więcej 1450MHz 15TFlops
videocardz.com/69378/nvidia-announces-tesla-v100-with-5120-cuda-cores Tutaj jest fajna tabelka ze szczegółami, według niej wydajność Tesli P100 jest 10.6Tflops (NVlink nic do tego nie ma AFAIK) i wydajność tych kart jest ściśle zależna od ilości SP i zegara - po znormalizowaniu o zegar wzrost wydajności to 2.6%.
Wynika z tego ze zegar w zegar wydajność wzrosła o ok 10% przy takiej samej ilości Cuda.
Fakt jest taki że zwiększyła się wydajność na mm* i tu nie ma co się kłócić.
Jeśli taktowanie kart konsumenckich będzie na poziomie Pascalowego to duża Volta może mieć ok 20TFlopów.
W mokrych snach :) Żadna Volta konsumencka nie będzie miała na starcie wydajności choćby zbliżonej do Tesli. Może wersja Ti albo Xv się zbliżą ale to pod koniec przyszłego roku :)
W podwójnej lub w DL to nie ma szans... tutaj zgoda...
Eh? A do czego ci w grach pojedyncza precyzja? Przydaje się tylko w obliczeniach naukowych. Równie dobrze możesz napisać że Vega na starcie będzie miała 25Tflops wydajności...
@Michaelius - to teraz wydajność podajemy z uwzględnieniem boosta? To już lepiej podawać z konkretnym OC bo boost rzecz zmienna, raz większy raz mniejszy i zależny od programu, egzemplarza karty, producenta i nawet temperatury w komputerze. Duża Volta jeśli pójdzie w ślady Pascala będzie miała faktycznie wydajność Tesli (V) ale pojawi się conajmniej pół roku po premierze xx80 czyli za ponad rok - trochę zbyt długi horyzont jak dla mnie do gdybania.
Eh? A do czego ci w grach pojedyncza precyzja? Przydaje się tylko w obliczeniach naukowych.
Większość obliczeń w grach jest wykonywana z pojedynczą precyzją. Większa precyzja nie jest zazwyczaj potrzebna. Mniejszej nie wspierały dotychczasowe karty, a i DX11 tego nie wspierał. Nowe API dodają poprawną obsługę połówkowej precyzji i w grach może dać to sporego boosta jeśli chodzi o wydajność.
Eh? A do czego ci w grach pojedyncza precyzja? Przydaje się tylko w obliczeniach naukowych.
Większość obliczeń w grach jest wykonywana z pojedynczą precyzją. Większa precyzja nie jest zazwyczaj potrzebna. Mniejszej nie wspierały dotychczasowe karty, a i DX11 tego nie wspierał. Nowe API dodają poprawną obsługę połówkowej precyzji i w grach może dać to sporego boosta jeśli chodzi o wydajność.
Nom, masz oczywiście rację, myślałem o FP16. Volta xx80 na starcie będzie miała, jak dobrze pójdzie, wydajność 30%-40% wyższą od 1080, muszą sobie przecież zostawić miejsce na wersję Ti i XPv :) które ukażą się odpowiednio jakieś pół roku po premierze podstawowej wersji. Jeśli jak zapowiada Micron pamięci do xx80 pojawią się na początku 2018 roku to Ti zjawi się w 2 połowie roku, czyli ponad rok od chwili obecnej. Poddaję się w temacie gdybania :)
Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6
Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.
Bo tu nie chodzi o to, żeby "nabić flopsy" jak najmniejszą liczbą tranzystorów (w tym mistrzami były Radeony generacji VLIW) tylko żeby tę moc jak najefektywniej wykorzystać.
Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6
Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.
Bo tu nie chodzi o to, żeby "nabić flopsy" jak najmniejszą liczbą tranzystorów (w tym mistrzami były Radeony generacji VLIW) tylko żeby tę moc jak najefektywniej wykorzystać.
I dlatego Pascale również nie dostały sprzętowego Async Compute :)
Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6
Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.
Dokładnie, żadnej optymizacji architektury nie ma. Różnica w wydajności pochodzi wyłącznie ze zwiększenia ilości SP (w granicach kilku %). Dla graczy oznacza to że można oczekiwać wzrostu wydajności kosztem większego rdzenia, o ile dokładnie to trudno powiedzieć bo jeżeli w rdzeniach nie będą obecne Tensor Cores a tylko wzrośnie ilość SP to różnica nie będzie duża, jeśli będą klepać tylko uniwersalne rdzenie i wyłączać to będzie rdzeń większy. Nie wiadomo ile przejście na mniejszy proces technologiczny da jeśli chodzi o możliwość podkręcania, o ile wzrosną zegary bazowe. Na razie wygląda na to, że mniejszy proces dał około 40% zmniejszenie poboru energii co jest bardzo miłą wiadomością (bo przy stałym zużyciu wzrosła ilość SP przy zachowanym zegarze). Nic nie wspomnieli o graczach a dostępność profesjonalnej Volty zapowiedzieli na 3 kwartał (zadzwoń, zamów teraz podczas premiery, dostaniesz w 3 kwartale), ale nie mają problemu z pamięciami bo HBM2 jest dostępne. Nie wiadomo jak będzie z GDDR6, poczekamy zobaczymy.
Hynix na konferencji podał że gddr6 beda dostepne najwczesniej w 1 kwartale 2018
Na tej co zaprezentowali ten wafelek z GDDR6? Jeśli tak to ta informacja mi umknęła :( A to bardzo wiele by zmieniało, bo Volta dla graczy miałaby premierę stosunkowo znacznie później niż Vega dla graczy miała względem Vegi dla biznesu.
Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6
Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.
Dokładnie, żadnej optymizacji architektury nie ma. Różnica w wydajności pochodzi wyłącznie ze zwiększenia ilości SP (w granicach kilku %). Dla graczy oznacza to że można oczekiwać wzrostu wydajności kosztem większego rdzenia, o ile dokładnie to trudno powiedzieć bo jeżeli w rdzeniach nie będą obecne Tensor Cores a tylko wzrośnie ilość SP to różnica nie będzie duża, jeśli będą klepać tylko uniwersalne rdzenie i wyłączać to będzie rdzeń większy. Nie wiadomo ile przejście na mniejszy proces technologiczny da jeśli chodzi o możliwość podkręcania, o ile wzrosną zegary bazowe. Na razie wygląda na to, że mniejszy proces dał około 40% zmniejszenie poboru energii co jest bardzo miłą wiadomością (bo przy stałym zużyciu wzrosła ilość SP przy zachowanym zegarze). Nic nie wspomnieli o graczach a dostępność profesjonalnej Volty zapowiedzieli na 3 kwartał (zadzwoń, zamów teraz podczas premiery, dostaniesz w 3 kwartale), ale nie mają problemu z pamięciami bo HBM2 jest dostępne. Nie wiadomo jak będzie z GDDR6, poczekamy zobaczymy.
To nie jest mniejsza litografia a ulepszone 16nm ff
Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.
Dokładnie, żadnej optymizacji architektury nie ma. Różnica w wydajności pochodzi wyłącznie ze zwiększenia ilości SP (w granicach kilku %). Dla graczy oznacza to że można oczekiwać wzrostu wydajności kosztem większego rdzenia, o ile dokładnie to trudno powiedzieć bo jeżeli w rdzeniach nie będą obecne Tensor Cores a tylko wzrośnie ilość SP to różnica nie będzie duża, jeśli będą klepać tylko uniwersalne rdzenie i wyłączać to będzie rdzeń większy. Nie wiadomo ile przejście na mniejszy proces technologiczny da jeśli chodzi o możliwość podkręcania, o ile wzrosną zegary bazowe. Na razie wygląda na to, że mniejszy proces dał około 40% zmniejszenie poboru energii co jest bardzo miłą wiadomością (bo przy stałym zużyciu wzrosła ilość SP przy zachowanym zegarze). Nic nie wspomnieli o graczach a dostępność profesjonalnej Volty zapowiedzieli na 3 kwartał (zadzwoń, zamów teraz podczas premiery, dostaniesz w 3 kwartale), ale nie mają problemu z pamięciami bo HBM2 jest dostępne. Nie wiadomo jak będzie z GDDR6, poczekamy zobaczymy.
To nie jest mniejsza litografia a ulepszone 16nm ff
Reklamują to jako 12nm. Chyba nie sugerujesz że to takie oszustko dla gawiedzi, co?
Dokładnie, żadnej optymizacji architektury nie ma. Różnica w wydajności pochodzi wyłącznie ze zwiększenia ilości SP (w granicach kilku %). Dla graczy oznacza to że można oczekiwać wzrostu wydajności kosztem większego rdzenia, o ile dokładnie to trudno powiedzieć bo jeżeli w rdzeniach nie będą obecne Tensor Cores a tylko wzrośnie ilość SP to różnica nie będzie duża, jeśli będą klepać tylko uniwersalne rdzenie i wyłączać to będzie rdzeń większy. Nie wiadomo ile przejście na mniejszy proces technologiczny da jeśli chodzi o możliwość podkręcania, o ile wzrosną zegary bazowe. Na razie wygląda na to, że mniejszy proces dał około 40% zmniejszenie poboru energii co jest bardzo miłą wiadomością (bo przy stałym zużyciu wzrosła ilość SP przy zachowanym zegarze). Nic nie wspomnieli o graczach a dostępność profesjonalnej Volty zapowiedzieli na 3 kwartał (zadzwoń, zamów teraz podczas premiery, dostaniesz w 3 kwartale), ale nie mają problemu z pamięciami bo HBM2 jest dostępne. Nie wiadomo jak będzie z GDDR6, poczekamy zobaczymy.
To nie jest mniejsza litografia a ulepszone 16nm ff
Reklamują to jako 12nm. Chyba nie sugerujesz że to takie oszustko dla gawiedzi, co?
To nie jest mniejsza litografia a ulepszone 16nm ff
Reklamują to jako 12nm. Chyba nie sugerujesz że to takie oszustko dla gawiedzi, co?
Ja nic nie sugeruje tylko stwierdzam fakt.
Chyba powinienem był tam dopisać "/s" ale wtedy bym na czerwono popłynął :) i tak tutaj się chyba wszyscy zwolennicy Nvidii zeszli bo nawet za prawdę już dostaję minusy :) Bardzo im nie pasuje że IPC ani trochę nie wzrasta...
Moim zdaniem jest tylko tego w TFLOPS nie widać. Liczę na przebudowany scheduler i przebudowany Dispatch unit, liczę na SM 6.0 z HLSL. I żeby nie było myślę, że te zmiany we wchodzącej generacji kart są zasługą bliższej współpracy AMD i MS zarówno na płaszczyźnie konsol jak i PC, zaś NV musi się dostosować.
I nie rozumiem sarkazmu w temacie premiery VOLTY. Przecież to tak musi działać. AMD ma wielokrotnie mniejszy budżet R&D od Intela +NV. Więc nie jest w stanie w tym samym tempie, z tą samą dynamiką reagować na oczekiwania rynku i wprowadzać nowe generacje produktów. TEGO SIĘ NIE DA ZROBIĆ. Oczywiście w żadnym razie ani PR ani marketing AMD tego głośno nie powie. Ale tak działa rzeczywistość, to nie komiks Marvel'a
VEGA wyjdzie w Q3 tego roku, jest dostępność będzie odpowiedzią na ssanie z rynku, bo AMD nie może sobie pozwolić na długie zapasy magazynowe. Czyli początkowa dostępność będzie mniejsza niż popyt. Obstawili pełną dostępność dla CPU, rynek nie zareagował tak, jakby chcieli, an drugi strzał nie mają już prochu. To jest niestety, aż tak proste. Ale może zagwarantują VOLTĄ w końcu DX12.x działające tak, że devom będzie się opłacało w pełni to wspierać jaki wiodący system. Chociaż fakt, że dołożyli vulkan niekoniecznie tutaj pomaga.
A co do NVIDIA, to niech sobie będzie 3.0% przyrostu proporcjonalnego w TFLOPS, ale niech poprawią to co w Pascalach kulało... i tak są w stanie nadgonić zegarem i liczbą jednostek.
Moim zdaniem jest tylko tego w TFLOPS nie widać. Liczę na przebudowany scheduler i przebudowany Dispatch unit, liczę na SM 6.0 z HLSL. I żeby nie było myślę, że te zmiany we wchodzącej generacji kart są zasługą bliższej współpracy AMD i MS zarówno na płaszczyźnie konsol jak i PC, zaś NV musi się dostosować.
I nie rozumiem sarkazmu w temacie premiery VOLTY. Przecież to tak musi działać. AMD ma wielokrotnie mniejszy budżet R&D od Intela +NV. Więc nie jest w stanie w tym samym tempie, z tą samą dynamiką reagować na oczekiwania rynku i wprowadzać nowe generacje produktów. TEGO SIĘ NIE DA ZROBIĆ. Oczywiście w żadnym razie ani PR ani marketing AMD tego głośno nie powie. Ale tak działa rzeczywistość, to nie komiks Marvel'a
VEGA wyjdzie w Q3 tego roku, jest dostępność będzie odpowiedzią na ssanie z rynku, bo AMD nie może sobie pozwolić na długie zapasy magazynowe. Czyli początkowa dostępność będzie mniejsza niż popyt. Obstawili pełną dostępność dla CPU, rynek nie zareagował tak, jakby chcieli, an drugi strzał nie mają już prochu. To jest niestety, aż tak proste. Ale może zagwarantują VOLTĄ w końcu DX12.x działające tak, że devom będzie się opłacało w pełni to wspierać jaki wiodący system. Chociaż fakt, że dołożyli vulkan niekoniecznie tutaj pomaga.
A co do NVIDIA, to niech sobie będzie 3.0% przyrostu proporcjonalnego w TFLOPS, ale niech poprawią to co w Pascalach kulało... i tak są w stanie nadgonić zegarem i liczbą jednostek.
No przecież nie mogę się wypowiedzieć na temat optymalizacji które nie wpływają na Tflopsy bo to jedyna wartość jaką podała Nvidia (poza organizacją bloków wykonawczych). Wydajność SP zegar w zegar prawie nie wzrosła i tylko tyle napisałem - czyli prawdopodobnie niewiele usprawniono też kontroler pamięci, chociaż kto wie jak teoretyczna wydajność układu przekłada się na rzeczywistą... Ani trochę sarkastycznie nie podchodzę do dat premiery Volty - no może troszkę się podśmiewam z tych wszystkich zielonoarmistów ;) którzy twardo krzyczeli, że Volta dla graczy jeszcze w tym roku wyjdzie, może nawet w 3 kwartale i Vega nie będzie miała czasu żeby cokolwiek sprzedawać bo Volta od razu ją pokona. Irytuje mnie za to zbieżność w czasie kompletnie papierowej premiery Volty ze spodziewaną premierą Vegi dla graczy, papierowej dlatego że kupić sprzęt nawet ten profesjonalny będzie można dopiero pod koniec 3 kwartału. Chociaż może nie powinienem tak reagować, w końcu AMD Ryzena ogłosiło w grudniu, a sprzedaż ruszyła na początku marca. BTW, skąd masz info że Vega wyjdzie w Q3? Premiera ma być pod koniec czerwca, sądzisz że dostępność zajmie im następne 3 miesiące w sytuacji gdy od marca sprzedają już wersje profesjonalne Vegi? Z tego co w statystykach sprzedaży widać i opiniach od klientów to Ryzeny sprzedają się całkiem dobrze, czy poniżej oczekiwań AMD to nie wiadomo i nie wiem czy można taki wniosek wyciągnąć z małej obniżki cen procesorów. kitguru.net/components/cpu/paul-taylor/amds-ryzen-has-not-brought-the-price-wars-we-all-wantedneeded/ - tutaj jest ciekawe porównanie cen procesorów Intel i AMD na przestrzeni ostatnich kilku miesięcy (i więcej w przypadku Intela). Jedyny chyba procesor AMD któremu obniżono oficjalnie cenę to 1800X z 499$ na 469$.
A na koncu konferencji odbyla sie prezentacja pierwszego terminatora z "maczeta" w rece, ktory uczy sie nia wymachiwac :). Holodeck ze star treka tez zostal zaprezentowany w ver 1.0
Bosze... AMD Vega jeszcze nie wyszła, jak źe pójdzie będzie dostępna pod koniec wakacji w większej ilości, a ci już Voltę pokazują... Nie ma co, mają rozmach...
czyli 2070 w czerwcu jak ma byc identycznie jak rok temu?
Nie ma na to najmniejszych szans, najwcześniej Q3 i to pewnie bliżej końca. Sporo zależy od kondycji Vegi, ale ta pozostaje wielką niewiadomą, a ostatnie informacje o wydajności i dostępności optymistycznie nie nastrajają.
Co by nie mówić o NVIDII, dobrze przeprowadzają konferencje dając soczysty konkret - tyle a tyle będzie CUDA-sów, tyle i tyle pamięci, takie i siakie taktowania. Dziękuje, piszemy, zamykam temat.
dzieki a tak na marginesie ze wgledu na zblizajaca sie premiere x299 mam nadzieje ze dostaniecie sampla cpu 8/16 oprocz topowego modelu bylby bezbosredni wynik do 1800x
czyli 2070 w czerwcu jak ma byc identycznie jak rok temu?
Nie ma na to najmniejszych szans, najwcześniej Q3 i to pewnie bliżej końca. Sporo zależy od kondycji Vegi, ale ta pozostaje wielką niewiadomą, a ostatnie informacje o wydajności i dostępności optymistycznie nie nastrajają.
Co by nie mówić o NVIDII, dobrze przeprowadzają konferencje dając soczysty konkret - tyle a tyle będzie CUDA-sów, tyle i tyle pamięci, takie i siakie taktowania. Dziękuje, piszemy, zamykam temat.
Absolutnie pięknie poprowadzona konferencja, głośno, wyraźnie ze szczegółami, nawet można by powiedzieć że z "jajem". Gdyby tak wyglądały konferencje AMD to zaufanie klientów do ich technologii wzrosło by niebotycznie :)
Nie ma na to najmniejszych szans, najwcześniej Q3 i to pewnie bliżej końca. Sporo zależy od kondycji Vegi, ale ta pozostaje wielką niewiadomą, a ostatnie informacje o wydajności i dostępności optymistycznie nie nastrajają.
Jen-Hsun Huang zapytany przez jednego z dziennikarzy o to czy "premiera AMD Vega zmieni coś na rynku" jednoznacznie odpowiedział "NIC". Nie nastraja to optymizmem. :/
Nie chodzi o to co miał powiedzieć ale chodzi o pewność siebie w wypowiedzi. Nawet Intel, który miał znacznie większą przewagę na procesorami AMD nie wypowiadał się w ten sposób przed premierą Ryzen'a. Ewidentnie NV wie z jaką wydajnością wyjdzie Vega i po prostu nie mają się czego obawiać stąd taka pewność siebie w wypowiedzi. Żeby nie było to sam czekam na Vegę bo mam 1440p 144Hz z FreeSync i tutaj przydało by się coś znacznie mocniejszego od RX 480.
Nie chodzi o to co miał powiedzieć ale chodzi o pewność siebie w wypowiedzi. Nawet Intel, który miał znacznie większą przewagę na procesorami AMD nie wypowiadał się w ten sposób przed premierą Ryzen'a. Ewidentnie NV wie z jaką wydajnością wyjdzie Vega i po prostu nie mają się czego obawiać stąd taka pewność siebie w wypowiedzi. Żeby nie było to sam czekam na Vegę bo mam 1440p 144Hz z FreeSync i tutaj przydało by się coś znacznie mocniejszego od RX 480.
Tego typu wypowiedzi u NV to akurat standard. Potra fili się odnieść jeszcze bardziej arogancko nawet do intela. Ale w większej części gość ma rację - nv ma ugruntowaną pozycję na rynku i dobry PR, mają też spore grono swoich "ambasadorów" na youtube i twitchu, że o redaktorach nie wspomnę. Nawet jeśli by karty AMD(zaznaczam "jeśli") okazały się wydajniejsze i bardziej energooszczędne to Nvidia przy tak dominującej pozycji zawsze zdoła "odwrócić kota ogonem", do tego standardowo dzorzuci jakąś promocję, małą obniżkę i pozamiatane.
W czerwcu ale 2018 to będzie identycznie, po co mają wydawać nowe archi rok po roku? Czyżby miała być jakaś konkurencja? :) no i gddr6 dopiero w późnym 2018 przecież...
Tsmc będzie gotowa z procesem 12nm dla każdej wielkosci chipow na Q3 2017. Więc NVIDIA może szykować już nowe karty. Dwa gddr6 też jest już gotowy. Przypomnijcie kiedy GF ma wprowadzić duże chipy w 10nm? 2019 rok? Oj szykuje się kolejny rok nvidii. Cały 2018 już w ciemno obstawiam że NVIDIA będzie mieć chip dla graczy conajmniej 40% szybszy od jakiejkolwiek pojedynczej karty AMD. AMD zostanie segment kart do 2500zl maks a NVIDIA będzie zarabiać krocie na tańszych i droższych kartach za 3500zl. Brawo NVIDIA. Tak to się robi.
Fakt. Czyli cały rok 2018 NVIDIA bedzie miała tranzystory w 12nm a AMD w 14nm z czego technologie 16nm tsmc i 14gf były porównywalne a mimo to NVIDIA pobierała mniej prądu i miała wyższe takty. 7nm może GF wprowadzi w 2018r dla armow. Ale nie stworzy w tym procesie chipa 600mm2 dość długo. Może pod koniec 2019 im się uda. A tsmc w Q3 2017 będzie klepać układy 800mm2 w 12nm
Przestan bredzic, polarisy a takze chipy do 1050ti i 1050 robi jedna fabryka , pobór mocy, takty itp zależy od architektury a nie tego czy klepia ją tsmc czy gf
Co nie zmienia faktu że od Q3 NVIDIA będzie mogła skorzystać z kolejnego bonusu w postaci lepszego procesu dla swoich dużych chipow. Co pozwoli im jeszcze bardziej odskoczyć energetycznie.
Tak to się robi z punktu widzenia biznesowego a z punktu widzenia użytkownika tylko idiota się cieszy bo w 2019 roku top będzie za 5000zł. Ehh. NVIDIA umie sobie wychować pokolenie konsumentów.
Dawno temu KNŻ stworzył kawałek Konsument- by nie myślał ale działał jak instrument.
Tak to się robi z punktu widzenia biznesowego a z punktu widzenia użytkownika tylko idiota się cieszy bo w 2019 roku top będzie za 5000zł. Ehh. NVIDIA umie sobie wychować pokolenie konsumentów.
Dawno temu KNŻ stworzył kawałek Konsument- by nie myślał ale działał jak instrument.
Właśnie to dziś obserwuję :(
Dobre czasy były, szkoda że teraz Kazik nie ma już tak ciętego języka. Spalam się i Spalaj się to były pierwsze płyty które na CD kupiłem :)
Tak to się robi z punktu widzenia biznesowego a z punktu widzenia użytkownika tylko idiota się cieszy bo w 2019 roku top będzie za 5000zł. Ehh. NVIDIA umie sobie wychować pokolenie konsumentów.
Dawno temu KNŻ stworzył kawałek Konsument- by nie myślał ale działał jak instrument.
Właśnie to dziś obserwuję :(
Właśnie niedawno się zastanawiałem dokąd ten świat zmierza? Produkuje się coraz więcej, kupuje się coraz wiecej i szybciej się to wyrzuca i kupuje nowe, bo robi się coraz większy badziew, bo producenci chcą zarobić. A konsumenci nauczeni są, że wszystko musi być szybko na teraz i kolejne i kolejne. Zastanawiam się czy utoniemy w morzu śmieci jeszcze za mojego pokolenia czy spotkanie dopiero moje dzieci... Smutne to. Pracuje jako programista i razem z kumplem programista dyskutowaliśmy, że on stracił wiarę w to co robi, bo on marzy o tym żeby robić dobrze ale nikt tego nie chce. Pracodawcy chcą szybko i byle jak, bo sprzedawcy naobiecywali gruszki na wierzbie i to na wczoraj (i dostali za to premie). Inna branża - ostatnio słyszałem opinie jednego mechanika, że ceny używanych samochodów rosną m.in. dlatego, że teraz produkuje się taki badziew, że strach to kupować.
Tak to się robi z punktu widzenia biznesowego a z punktu widzenia użytkownika tylko idiota się cieszy bo w 2019 roku top będzie za 5000zł. Ehh. NVIDIA umie sobie wychować pokolenie konsumentów.
Dawno temu KNŻ stworzył kawałek Konsument- by nie myślał ale działał jak instrument.
Właśnie to dziś obserwuję :(
No na coś się trzeba zdecydować: - albo oczekujemy produktu, które starczy na 10 lat, albo postępu; Nie zamierzam tłumaczyć czemu to się wzajemnie wyklucza; - albo oczekujemy przełomowych technologii i gwałtownej strzałki wzrostu, albo niskich cen topowych konstrukcji i znów nie zamierzam tłumaczyć dlaczego to się wzajemnie wyklucza;
- podobnie jest z oprogramowaniem, szczególnie w przypadku dużych rozległych światów gier. Albo władamy kasę i czas w optymalizację albo zrzucamy na to szybki sprzęt.
Wszystko jest swojego rodzaju balansem i kompromisem.
A za wychowanie odpowiada rodzina i edukacja i kształtowany przez wiele czynników aparat świadomego podejmowanie decyzji, a nie jedna czy druga firma.
Ja rozumiem, że jeśli kogoś było stać na TOP wczoraj a już wie, że nie będzie go stać jutro, to rodzi to frustrację. Ale takiej porażki nie należy przypisywać tym których jutro będzie stać, najwyraźniej oni potrafili się osiągnąć założony cel. Sugeruje raczej szczerze odpowiedzieć sobie na pytanie co poszło nie tak, że samemu jest się w innym punkcie i co można z tym w przyszłości zrobić. Koncentrowanie się na innych jakości własnego życia nie zmieni.
Mnie jest obojętne czy nowy TITAN będzie kosztował 4000zł czy 5000zł, czy 6000zł i tak za to zapłacą odbiorcy projektów..., ani się nie cieszę ani nie płaczę. I nie zamierzam tracić energii na próby korygowana polityki cenowej wielkich korporacji, lub próby zmiany zachować społecznych iluś tam milionów konsumentów, nie od tego zależy moja i moich dzieci jakość życia.
Równie dobrze można napisać, że znów grono życiowych idiotów będzie narzekać na ceny, przez pryzmat swojego nieudacznictwa. Jest to tak samo grzeczne i prawdzie jak Twoja wypowiedź.
Każdego na coś stać i na coś nie, ciekawe, że dobie gospodarki rynkowej dalej to tak trudno pojąć.
Tsmc będzie gotowa z procesem 12nm dla każdej wielkosci chipow na Q3 2017. Więc NVIDIA może szykować już nowe karty. Dwa gddr6 też jest już gotowy. Przypomnijcie kiedy GF ma wprowadzić duże chipy w 10nm? 2019 rok? Oj szykuje się kolejny rok nvidii. Cały 2018 już w ciemno obstawiam że NVIDIA będzie mieć chip dla graczy conajmniej 40% szybszy od jakiejkolwiek pojedynczej karty AMD. AMD zostanie segment kart do 2500zl maks a NVIDIA będzie zarabiać krocie na tańszych i droższych kartach za 3500zl. Brawo NVIDIA. Tak to się robi.
Pierwszy wafelek z GDDR6 wiosny nie czyni, od tego punktu wiele miesięcy upłynie zanim pamięci wejdą do seryjnej produkcji. Nie bez powodu planowali premierę na 1-2 kwartał przyszłego roku, przyspieszyli ją pod naciskiem Nvidii ale takie przyspieszenie też ma swoje ograniczenia i konsekwencje (jak choćby dopracowanie produktu). Od tych miesięcy jeszcze trochę aż trafią do kart a te na półki sklepowe. Obstawiam 4 kwartał na gwiazdkę.
nie jestem przekonany pomiędzy GDDR6 a GDDR5x są większe różnice, wystarczy, że mają kontroler który może obsłużyć GDDR6 lud HDM2, dorzucenie kolejnego typu pamięci może się okazać za trudne do realizacji
GDDR6 mogą dać tylko do 80tki a 70ka dostanie 5X przykładowo.
Zależy od tego czy kontroler pamięci by GDDR5X obsługiwał, w takiej sytuacji musieli by marnować miejsce na uniwersalny kontroler dla 5X i 6 albo robić różne chipy dla xx80 i xx70 zamiast ładować jeden gatunek i przycinać te które są częściowo uszkodzone - bardzo nieekonomiczne podejście.
Jestem prawie pewien, że szykują się na październik/ listopad. Pytanie od czego zaczną. Niestety jak widać strategia 1080 / 1070 first, trochę potem false Titan (pewnie z wafli o parametrach nie do końca spełniających oczekiwania rynku PRO), a dopiero w drugim rzucie Ti i Titan prawie pełen, jest niepokojąco skuteczna....
Ponieważ to może się bezboleśnie udać tylko za pierwszym razem to może teraz będzie inaczej....
Jestem prawie pewien, że szykują się na październik/ listopad. Pytanie od czego zaczną. Niestety jak widać strategia 1080 / 1070 first, trochę potem false Titan (pewnie z wafli o parametrach nie do końca spełniających oczekiwania rynku PRO), a dopiero w drugim rzucie Ti i Titan prawie pełen, jest niepokojąco skuteczna....
Ponieważ to może się bezboleśnie udać tylko za pierwszym razem to może teraz będzie inaczej....
Jak mają się szykować jeśli Micron stwierdził że pamięci będą w końcu tego roku albo w przyszłym roku? No chyba że to był fejk z tą informacją o GDDR6... SK Hynix potwierdził produkcję GDDR6 na początek przyszłego roku na GTC2017.
Zobaczymy. Może tym razem zaczną od grubego Titana. Z puntku widzenia studzenia inwestorów, 1Q2018 jest lepszą opcją na rynku SOHO.
Ale inwestorzy też swoje prawa mają.... i mogą wywierać presję by wyniki 2017 były tak dobre jak 2016, a tego bez nowych kart przed świętami się osiągnie....
Zobaczymy. Może tym razem zaczną od grubego Titana. Z puntku widzenia studzenia inwestorów, 1Q2018 jest lepszą opcją na rynku SOHO.
Ale inwestorzy też swoje prawa mają.... i mogą wywierać presję by wyniki 2017 były tak dobre jak 2016, a tego bez nowych kart przed świętami się osiągnie....
Gdyby Nvidia miała wolną rękę w decydowaniu kiedy karty wyda to tak, inwestorzy mogliby naciskać. Jeśli nie będą mieli pamięci do wydania kart to żadni inwestorzy nic nie zrobią. A na dostępność pamięci w tym roku się nie zanosi. Jaki to smuteczek, że Nvidia cierpi teraz z tego samego powodu co Vega, z braku dostępnych pamięci na rynku - takie są efekty surfowania po fali innowacji technologicznych :)
Pilnują żeby nikt im się nie wepchnął do kolejki. Większość pewnie już biwakuje pod magazynem dystrybutora, żeby załapać się na te kilkanaście sztuk które trafi na polski rynek ;)
"Żona do męża: - Stary, kiedy w końcu przykręcisz mi te drzwiczki do szafki w kuchni? Mąż; - Coś Ty taka nerwowa, Halina? Przecież nie musisz mi co pół roku przypominać!"
Niech ta Vega już wyjdzie. Ceny 1080 pewnie jeszcze spadną i wtedy będzie czas na wymianę wysłużonej 970.
a gdzie ja pisalem o obnizce ceny topowych paskali? pisze o 1070 bo 1060 do pracy w 4k zaslaby a i ramu malo a vega o wydajnosci 1070 do gwarancja obnizki ceny przez zielonych co jak co ale ksiegowych to maja dobrych
Obawiam się, że to nie jest produkt dla Ciebie. Równie dobrze możesz wejść na stronę z newsem o nowym modelu Bugatti i napisać: "Ciekawe jak z ceną, pewnie 10 mln złotych będzie mało. Trzeba by sprzedać 100 ludzi na części".
R.I.P. AMD :P Dla nich niespełnione marzenie to dogonić 1080Ti, no powodzenia -.- Jak za rok wypuszczą Titana z 5120/320/128 to przybiją AMD do ściany.
AMD powraca na rynek CPU (wreszcie!!) i ginie na rynku GPU, no to co panowie, za dwa lata GTX 3050Ti za 1000zł a GTX 3060 za 1600 :)
Bo tutaj nie chodzi o bezwzględne liczby TFLOPS, ale do czego to w praktyce można użyć, oraz jaki poziom wydajności to zapewnia.
A tu już dochodzimy do ukochanej przez wszystkich kwestii optymalizacji kodu gry/programu... ;-)
Ale tak, w gruncie rzeczy masz rację. Z jednym zastrzeżeniem - kto powiedział, że w A.D. 2020 trzeba grać w gry z tegoż samego roku? :-) Ja w tej chwili ogrywam perełki które wyszły na przestrzeni - powiedzmy - 4 ostatnich lat. I tu wrócę do początku posta - optymalizacja, optymalizacja, optymalizacja, a w komfortowych warunkach będzie można pograć nawet na niskiej półce. A jak ktoś chce 144 FPS @ 4K w max detalach, u, no to już jego sprawa, życzę zdrowia i dobrze płatnej pracy wykonywanej z wielkim zamiłowaniem. :-)
P.S. Granie staje się naprawdę ekskluzywnym hobby, czy tego chcemy, czy nie. Zupełnie jak fotografia.
Ludzie kiedy w zrozumiecie, że konkurencja jest potrzebna. Wytłumaczę takim ja Ty na swoim przykładzie: mieszkam w małej miejscowości gdzie jest jeden dostawca światłowodu. Za internet o prędkości 60/10 płacę 65 zł. Mój brat mieszka w mieście (jest kilku dostawców światłowodów) za internet 150/30 płaci 69 zł. Naprawdę ciężko to zrozumieć.
Sam mieszkam na przedmiesciach malego miasta, jest tutaj tylko 1 dostawca swiatlowodu i co ? A i nic - za 500/100 place 74zl a obecnie weszla oferta 1000/1000 za 109zl
Ceny mogly byc wyzsze a i tak ludzie braliby od nich "swiatlo" bo co innego ? LTE ? Neo ?
Konkurencja redukuje marże, a nie obniża koszty... Konkurencja zwiększa wydatki na PR i marketing... i wydatki na ochronę przez szpiegostwem przemysłowym...
I duopol to nie jest konkurencja...
A ceny Romet'u nie mają wpływu na ceny Harley'a...
Pewne rzeczy należy upraszczać tylko tak daleko jak to możliwe i ani kroku dalej.
Ludzie kiedy w zrozumiecie, że konkurencja jest potrzebna. Wytłumaczę takim ja Ty na swoim przykładzie: mieszkam w małej miejscowości gdzie jest jeden dostawca światłowodu. Za internet o prędkości 60/10 płacę 65 zł. Mój brat mieszka w mieście (jest kilku dostawców światłowodów) za internet 150/30 płaci 69 zł. Naprawdę ciężko to zrozumieć.
Konkurencja jest potrzebna owszem, ale to musi być konkurencja która oferuje produkt wart zakupu. Co mi po konkurencji , która chce wydać gpu o wydajności tego co kupiłem w 2015 ?
Czerwoni minusuja w komentarzach jak szaleni... bo to ich kolor ;) Prawda boli co ??? Co za zawistni ludzie.
Huh? Gdyby tu czerwoni szaleli to ja miałbym posty na niebiesko :) Jak się odważyłem napisać że Volta dla graczy dopiero w przyszłym roku ze względu na GDDR6 i że Nvidia zrobiła piękne widowisko z papierową premierą (bo karty najszybciej pod koniec 3 kwartału) to jestem głęboko na minusiku :)
a co za roznica za ile. klienci widac tego oczekuja. nie wazna cena wazne ze wydajnosc plus 40%. a karty i tak shcodza jak cieple buleczki. inaczej takie karty za 3500 czyli dawniej gtx 1080 a teraz 1080ti by nie schodzily a widac po tym o czym mowi nvidia i po ich zyskach schodza wysmienicie. ja nie kupilem zadnej kary od 8 lat i pewnie rpzez kolejne 8 lat nie kupie i mnie to rybka. ale fakty sa faktami. nvidia zarabia i wie jak to robic, a amd wydaje karty dla uzytkownikow biednych na ktorych prawie nic nie zarabia, a czasami traci doplacajac do interesu w postaci drogich pamieci hbm (by zniwelowac roznice w poborze pradu i halasu) czy jakichs bonusowych gier. nvidia jeszcze w tym roku wyda nowa generacje kart (moze na gwiazkde) ktore maja mniejszy pobor energii i pewnie wiekszych rozmiarowo co przyniesie spore wzrosty wydajnosci moze tez kolo 40% w danym segmencie cenowym. a amd vega nie watpie tez przyneisie oszczednosci wynikajace z hbm2 ?(czyli mniejsze rozmiary niz konkurencja, mniejszy pobor energii niz odpowiednik amd z gddr5, nizszy halas) i wieksza wydajnosc niz ich rx580 ale to wszytsko kosztem swoich wlasnych zyskow.
a co za roznica za ile. klienci widac tego oczekuja. nie wazna cena wazne ze wydajnosc plus 40%. a karty i tak shcodza jak cieple buleczki. inaczej takie karty za 3500 czyli dawniej gtx 1080 a teraz 1080ti by nie schodzily a widac po tym o czym mowi nvidia i po ich zyskach schodza wysmienicie. ja nie kupilem zadnej kary od 8 lat i pewnie rpzez kolejne 8 lat nie kupie i mnie to rybka. ale fakty sa faktami. nvidia zarabia i wie jak to robic, a amd wydaje karty dla uzytkownikow biednych na ktorych prawie nic nie zarabia, a czasami traci doplacajac do interesu w postaci drogich pamieci hbm (by zniwelowac roznice w poborze pradu i halasu) czy jakichs bonusowych gier. nvidia jeszcze w tym roku wyda nowa generacje kart (moze na gwiazkde) ktore maja mniejszy pobor energii i pewnie wiekszych rozmiarowo co przyniesie spore wzrosty wydajnosci moze tez kolo 40% w danym segmencie cenowym. a amd vega nie watpie tez przyneisie oszczednosci wynikajace z hbm2 ?(czyli mniejsze rozmiary niz konkurencja, mniejszy pobor energii niz odpowiednik amd z gddr5, nizszy halas) i wieksza wydajnosc niz ich rx580 ale to wszytsko kosztem swoich wlasnych zyskow.
Zobacz co się sprzedaje jak ciepłe bułeczki amazon.com/Best-Sellers-Computers-Accessories-Computer-Graphics-Cards/zgbs/pc/284822/ref=zg_bs_nav_pc_2_193870011 podpowiem, że nie jest to żadne 1080. Najsmutniejsze, że według tej listy kompletnie nie sprzedają się karty AMD (pierwsza karta jest na 15!!! miejscu), ale tacy już są ludzie, widzą że Nvidia sprzedaje najszybsze karty więc wydaje im się, że niższe modele od AMD nie konkurują z nią w wydajności. W takim tempie to AMD może tylko na śmietniku historii wylądować.
Oj obawiam się, że będzie w drugą stronę - Scorpio/PS5 będą bliżej topowej karty niż dalej. Już teraz PS4 Pro to ponad połowa ceny 1080Ti. Chyba nie sądzisz, że Scorpio będzie za 2k pln na premierę:)
Nie ma jak poczytać komentarze do śniadania. -Specjaliści od giełdy, notowań oraz analitycy rynkowi -Wróżbici, magowie, nostradamus -Banda dzieci które wieszczą ( w symfonii uśmieszków i wykrzykników) rychły upadek AMD -Pokorni fanboje obu firm bez grama refleksji, czekają na moment gdy będą mogli na kolanach pójść od sklepu i kupić midend w cenie małego auta. -10% ludzi którzy wiedzą co mówią i mają IQ większe niż szympans.
Sekcja komentarzy na PPC to cancer absolutnie nie mniejszy niż na innych portalach, a był to jeszcze nie tak dawno azyl w tym temacie.
Prawda jest taka że gdyby nvidia nie wydawałą nowych architektur i nie dorzucała do pieca tych swoich 30% regularnie co jakiś czas to AMD rebrandowało by jeszcze częściej niż t o teraz robią,czyli już 2-3 razy na generację. Vega byłaby refreshem Fury X z 8GB HBM2 i nieco wyższymi taktowaniami, AMD nie wydawało by pieniędzy na R&D Vegi, wolałoby odgrzać Fury. Widzę że fani AMD są zawiedzeni że V100 ma tylko 15Tflops i 0% wzrostu IPC,szkoda że nie zauważyli że Volta to nowa architektura.... 980 (maxwell) ma 10% niższy FP32 od 780Ti (Kepler), więc też jest 10% wolniejsza. Nie,zaraz...przecież jest co najmniej 10% szybsza.Chyba właśnie się czegoś nowego dowiedzieli... konkretnie tego co to jest nowa architektura. Ale ciężko ich o to winić, od GCN 1.0 do Polarisa AMD poczyniło 18% postepu w 5 lat, czyli tyle co nvidia osiągnęła w 1 generację właśnie między maxwellem a keplerem porównując ich fp32.
Prawda jest taka że gdyby nvidia nie wydawałą nowych architektur i nie dorzucała do pieca tych swoich 30% regularnie co jakiś czas to AMD rebrandowało by jeszcze częściej niż t o teraz robią,czyli już 2-3 razy na generację. Vega byłaby refreshem Fury X z 8GB HBM2 i nieco wyższymi taktowaniami, AMD nie wydawało by pieniędzy na R&D Vegi, wolałoby odgrzać Fury. Widzę że fani AMD są zawiedzeni że V100 ma tylko 15Tflops i 0% wzrostu IPC,szkoda że nie zauważyli że Volta to nowa architektura.... 980 (maxwell) ma 10% niższy FP32 od 780Ti (Kepler), więc też jest 10% wolniejsza. Nie,zaraz...przecież jest co najmniej 10% szybsza.Chyba właśnie się czegoś nowego dowiedzieli... konkretnie tego co to jest nowa architektura. Ale ciężko ich o to winić, od GCN 1.0 do Polarisa AMD poczyniło 18% postepu w 5 lat, czyli tyle co nvidia osiągnęła w 1 generację właśnie między maxwellem a keplerem porównując ich fp32.
Prawda jest taka że gdyby nvidia nie wydawałą nowych architektur i nie dorzucała do pieca tych swoich 30% regularnie co jakiś czas to AMD rebrandowało by jeszcze częściej niż t o teraz robią,czyli już 2-3 razy na generację. Vega byłaby refreshem Fury X z 8GB HBM2 i nieco wyższymi taktowaniami, AMD nie wydawało by pieniędzy na R&D Vegi, wolałoby odgrzać Fury. Widzę że fani AMD są zawiedzeni że V100 ma tylko 15Tflops i 0% wzrostu IPC,szkoda że nie zauważyli że Volta to nowa architektura.... 980 (maxwell) ma 10% niższy FP32 od 780Ti (Kepler), więc też jest 10% wolniejsza. Nie,zaraz...przecież jest co najmniej 10% szybsza.Chyba właśnie się czegoś nowego dowiedzieli... konkretnie tego co to jest nowa architektura. Ale ciężko ich o to winić, od GCN 1.0 do Polarisa AMD poczyniło 18% postepu w 5 lat, czyli tyle co nvidia osiągnęła w 1 generację właśnie między maxwellem a keplerem porównując ich fp32.
Na razie nic na temat tej nowej architektury nie wiadomo. Tflopsy jak tu mnie już niektórzy ganią to nie wyznacznik wydajności kart w grach a jako że tylko to wiemy to nie ma co szumnie zapowiadać wielkich zmian. Maxwell jest szybszy od wcześniejszych dzięki Tile Rendering - nic nie wiadomo by Nvidia zaoferowała następne zmiany takiej klasy (wydajnościowo). Na razie widać tylko więcej SP i proporcjonalny wzrost Tflopsów, o wydajności w grach nie wiadomo kompletnie nic. Zmiany architektury: New Streaming Multiprocessor (SM) Architecture Optimized for Deep Learning Tensor Cores Second-Generation NVLink™ HBM2 Memory: Faster, Higher Efficiency Volta Multi-Process Service Enhanced Unified Memory and Address Translation Services Cooperative Groups and New Cooperative Launch APIs Maximum Performance and Maximum Efficiency Modes Volta Optimized Software - praktycznie wyłącznie dotyczą Tesli, nawet zunifikowany kontroler pamięci ma na celu poprawę współdziałania z innymi kartami w klastrze i jest prawdopodobnie krokiem w stronę HSA Ale ok, ja nie ukrywam że nadzieję pokładam w odmianie Tile Rendering która ma pojawić się w Vedze - gdyby udała się im tak jak udała się Nvidii (w końcu czemu nie miało by się to udać, w Ryzenach od podstaw wprowadzili HT/SMT bez problemów i z podobną wydajnością jak u Intela, może to nie jest jakiś wspaniały przykład, ale pokazuje że nową technologię też są w stanie zaadoptować) to mielibyśmy miłą niespodziankę co do wydajności i zużycia energii. Warto by jeszcze zwrócić uwagę że w Ryzenie postawili na proces produkcyjny charakteryzujący się jak najmniejszym zużyciem energii, miejmy nadzieję że podobny kompromis udało im się osiągnąć także w przypadku grafiki.
Jest tylko jeden mały problem - przypomnijcie mi jakie CPU trzeba do 1080Ti, żeby go nakarmić robotą w grach? Otóż to. I o ile w obliczeniach najczęstszym scenariuszem jest to, że mamy ogromny zbiór danych i na każdym elemencie tego zbioru wykonujemy jakąś operację (do tego ogólnie jest wymyślone OpenCL i CUDA), to tam skalowanie wszerz jest bardzo dobre, więc ilość CUDAków mogą zwiększyć i do np. 65536 i nikt się nie zmartwi, a CPU to może być i pentium G3258, bo jego zadanie, to raz na jakiś długi czas (minuta, godzina, dzień...) wrzucić GPU ten zbiór danych i powiedzieć co ma z tym robić.
W grach sytuacja jest nieco inna - choć piksele (w fhd 1920 * 1080 = 2073600) to dobry zbiór danych dla fragment (pixel) shadera, to jednak podczas generowania klatki wykonywanych jest sporo róznych operacji, jedne łatwo zapychają GPU (te naturą zbliżone do obliczeń opisanych w poprzednim akapicie) inne mniej (mniesze zbiory i wiele operacji, albo sytuacje, gdzie w wyniku jakiejś operacji częśc danych jest odrzucana, a np w GCN puszcza się te dane w "falach" po 64, jedna fala na CU, bo CU ma 64SP, a już na początku przetwarzania np. 20% danych jest odrzuconych [bo np. wynikowe piksele nie będą widoczne na ekranie] i już część GPU się nudzi [akurat z myślą o tym wprowadzane są shader intrinsics - aktualnie jako rozszerzenia, a niedługo jako część Shader Model 6.0]), część operacji można zrównoleglić (Asynchronous Compute), co pozwala w lepszym stopniu wypełnic wszystkie SP w GPU, ale część musi następować po sobie, bo inaczej się nie da. W skrócie - CPU ma sporo roboty, zeby zapewnić sprawne wykorzystanie zasobów GPU, po to wymyślono DX12/Vulkan, ale to wymaga sporo pracy od programistów i zmiany podejścia do niektórych rozwiązań w silnikach...
...albo można wmówić ludziom, że teraz muszą grać w 4K, bo tak najłatwiej zwiększyć obciążenie GPU, nie zwiększając zbytnio obciążenia CPU i nie zmieniając jakości grafiki :/
Jest tylko jeden mały problem - przypomnijcie mi jakie CPU trzeba do 1080Ti, żeby go nakarmić robotą w grach? (...) ...albo można wmówić ludziom, że teraz muszą grać w 4K, bo tak najłatwiej zwiększyć obciążenie GPU, nie zwiększając zbytnio obciążenia CPU i nie zmieniając jakości grafiki :/
Uważasz że ludzie będą kupowali Titana Voltę do 1080p ? Oczywiście że to będą karty do 4K. Wychodzą już nawet konsole do 4K a ty masz porblem że PC-towcy nie są jeszcze na to gotowi ? Oni na to czekają już kilka lat....
Jest tylko jeden mały problem - przypomnijcie mi jakie CPU trzeba do 1080Ti, żeby go nakarmić robotą w grach? (...) ...albo można wmówić ludziom, że teraz muszą grać w 4K, bo tak najłatwiej zwiększyć obciążenie GPU, nie zwiększając zbytnio obciążenia CPU i nie zmieniając jakości grafiki :/
Uważasz że ludzie będą kupowali Titana Voltę do 1080p ? Oczywiście że to będą karty do 4K. Wychodzą już nawet konsole do 4K a ty masz porblem że PC-towcy nie są jeszcze na to gotowi ? Oni na to czekają już kilka lat....
I to jest idealny przykład dla komentarza powyżej o utworze "Konsument". Ile to razy ktoś pisał, że super się gra w 4K, wystarczy obniżyć kilka detali i da radę. Moim zdaniem detale w grach i tak są gówniane, nawet na ultra. No może przesadzam, gry wyglądają ładnie, ale znajdzie się tak z milion rzeczy, które można jeszcze poprawić, żeby gra wyglądała lepiej. Wejdź choćby tu: blog.poliigon.com/blog/top-community-renders-from-april-2017?inf_contact_key=3562ddac25a17cd285c26efd6dcc7965031373c6b04114c7382dcde91ba97d80 i powiedz mi w jakiej rozdzielczości oglądasz te rendery i czy gry wyglądają tak dobrze? Albo czy w 4K będą wygladać lepiej?
Jest roznica miedzy wystepowaniem karty ktora pozwala grac plynnie w 4K bez poswiecania jakosci a obowiazkiem, przymusem kupna takiej karty
To, ze ktos oferuje taka karte/mozliwosc gry w 4K to sie cieszyc, ale to od Ciebie zalezy czy jak bezmyslny lemming polecisz i kupisz a potem sie bedziesz zastanawial do czego ja wykorzystac czy po prostu kupisz karte taka jaka potrzebujesz i spelni Twoje wymagania ktore juz sobie postawiles.
Dajesz do zrozumienia, ze cos jest zbedne ? Ze detale czy rozdzielczosc tak naprawde nie graja roli i to jest cos wyimaginowanego, ze wmawiamy sobie, ze widzimy roznice a tym samym przekonujemy samych siebie, ze cos jest lepsze gdzie tak naprawde nie jest ?
To, ze Ty nie zauwazasz gdzies roznicy to nie oznacza, ze jej nie ma lub nie widzi jej ktos inny. Wydaje mi sie, ze dla Ciebie kazdy kto kupuje sprzet gdzie Ty uwazasz, ze "i tak nie zobaczy roznicy" to dla Ciebie cos smiesznego :)
Ze detale czy rozdzielczosc tak naprawde nie graja roli
To może napiszę jeszcze raz, to może zrozumiesz: Detale grają właśnie bardzo dużą rolę i w tej kwestii można jeszcze baaaardzo dużo poprawić nie zwiększając rozdzielczości. Ale to wymagałoby wiele pracy od twórców gier, wyśmienitego opanowania nowych API i wykorzystania możliwości sprzętu w 100%. Zaserwowanie tej samej grafiki, tylko w 4K, to obejście problemu. Oczywiście, w 4K obraz jest ostrzejszy, jest na nim nieco więcej detali, bo np. poligony, które w całości były mniejsze niż jeden piksel, teraz są wieksze i będą wyrenderowane, ale nie bez powodu modele stosowane w grach nazywa się "low-poly" - poprostu składają się ze stosunkowo małej ilości wierzchołków. Zobacz sobie na te rendery z bloga, który wrzuciłem - czy gry tak wygladają? Czy jak odpalisz gry w 4K na ultra, to będą tak wyglądać?
Ale co ma render do gier ? Rendery (a dokladnie w tym przypadku gdyby rozpatrywac to w grach, to prerender) byly zawsze lepsze niz grafika w czasie rzeczywistym. Przy renderze nie jest istotny czas renderowania. A doskonaly przyklad to stare gry i Silicon Graphics.
Porownujesz dwie oddzielne rzeczy. Render to sobie mozna zrobic nawet w 8K na Pentium MMX 166 - kwestia czaaaaaaaaaasu :)
grafika 3D w czasie rzeczywistym to inna bajka.
I jak cytujesz to cytuj cala wypowiedz. Napisalem, ze wg. Ciebie nie graja roli a jako argument - podajesz rendery ? Napisalem Ci juz, ze tych dwoch rzeczy sie nie porownuje
Rozdzielczosc i detale graja duza role bo tylko tym idzie polepszyc wyglad gier z renderowaniem czasu rzeczywistego. A do tego sa potrzebne coraz mocniejsze karty graficzne
Ale faktycznie, mozliwe, ze nie zrozumialem dokladnie Twojego przeslania i jesli faktycznie dazymy do tego samego to sorry, nie bylo tematu :)
Ale co ma render do gier ? Rendery (a dokladnie w tym przypadku gdyby rozpatrywac to w grach, to prerender) byly zawsze lepsze niz grafika w czasie rzeczywistym. Przy renderze nie jest istotny czas renderowania. A doskonaly przyklad to stare gry i Silicon Graphics.
Porownujesz dwie oddzielne rzeczy. Render to sobie mozna zrobic nawet w 8K na Pentium MMX 166 - kwestia czaaaaaaaaaasu :)
grafika 3D w czasie rzeczywistym to inna bajka.
I jak cytujesz to cytuj cala wypowiedz. Napisalem, ze wg. Ciebie nie graja roli a jako argument - podajesz rendery ? Napisalem Ci juz, ze tych dwoch rzeczy sie nie porownuje
Rozdzielczosc i detale graja duza role bo tylko tym idzie polepszyc wyglad gier z renderowaniem czasu rzeczywistego. A do tego sa potrzebne coraz mocniejsze karty graficzne
Ale faktycznie, mozliwe, ze nie zrozumialem dokladnie Twojego przeslania i jesli faktycznie dazymy do tego samego to sorry, nie bylo tematu :)
Chodzi mi o to, że te rendery, to są obrazy wyrenderowane za pomocą kompa, a wyglądają bardzo realistycznie, nawet jak ich rozdzielczość nie jest 4K. Wiem, że jest to poziom w tej chwili niedostępny dla gier jeśli chcemy mieć jakiś grywalny poziom fps, ale widać, że jeszcze można sporo ulepszyć w grafice nie zwiększając rozdzielczości, albo w drugą stronę - samo zwiększanie rozdzielczości do 4K, 8K czy 16K nie sprawi, że gry zaczną tak wyglądać. Po prostu moje zdanie jest takie, że można tą moc nowych GPU wykorzystać lepiej, niż zwiększając rozdzielczość.
Z resztą przyczepiliście się do tego 4K, a nie to było głownym przesłaniem komentarza :P jako uzupełnienie polecam: gpuopen.com/concurrent-execution-asynchronous-queues/
Tak będą. Jak sądzisz dlaczego w sterownikach od jakiegoś czasu pojawiła się opcja upscalingu (rozdzielczości wirtualnej) ? Bo obraz wyrenderowany w wyższej rozdzielczości zwyczajnie wygląda DUŻO lepiej. To samo tyczy się VR i supersamplingu. Przy włączonym SS x2 lub 2,5 efekt końcowy jest dużo lepszy niż render w natywnej wyświetlaczy z wszelkimi powłączanymi bajerami.
I to równie dobrze mogłyby być przykłady na potwierdzenie mojego zdania: 1. GTA w 4K dsr - ostrzejsze drzewka w tle, a krzak zaraz za plecami rażąco kańciasty niezależnie od rozdzielczości, na drugim filmie - ostrzejszy obraz, dzięki któremu lepiej widać kanciastość tyłka laski lecącej na motocyklu 2. AC:U 4K DSR - lepiej widać kijowość włosów, szmata na wozie, to jakaś porażka i już pomijam to, że kobiety w tle przechodzą przez siebie tak samo dobrze jak w FHD... 3. Mad Max 4K DSR - nawet nie wiem czym się różni, bo rozpraszają mnie te migające badziewne cienie na jego plecach 4. Mafia III w 4K DSR - serio? gra, w której grafika nie powala, a tekstury to ogólnie jakaś padaka, nadal taka będzie nawet w 20K i ostrzejszy znak drogowy w tle tego nie zmieni. 5. RotTR 4K DSR - krzaczki ładniejsze, ale i tak są to lekko pogięte tekstury. Poza tym, na tym ujęciu nie widać, ale RotTR cierpi na te same badziewne cienie na plecach co Mad Max. 6. W3 w 4K DSR - w 4K te krzaki są tak ostre, że przebiły Geraltowi nogi!
Szczerze polecam Rifta / Vive i odpal sobie np.Elite Dangerous lub darmowego DCS World z supersamplingiem x1 a później ustaw na x2 i x2,5... Różnica miażdży...
Straszna bzdura - generalnie potrzebne jest zwiększenie wszystkich 3 aspektów - FPSów, rozdzielczości i poziomu detali.
No i się zgadza, to może wreszcie czas zadbać o te detale, bo kanciastość krzaków, badziewność cieni czy różnych materiałów (jak ubrania, pościel) albo ogolne najcześciej biedne wyposażenie wnętrz widać nawet lepiej w 4K niż FHD. Połowa efektów, to straszne uproszczenia (jak np. SSAO).
Tylko, że to jest kwestia roboczo godzin i kosztów ludzkich tworzenia gry bardziej niż mocy gpu. Zobacz takiego Horizona na PS4 Pro - na 4,2 TF gra chodzi w pseudo 4K a wszystkie elementy przyrodnicze w niej są oddane niesamowicie
Tylko, że to jest kwestia roboczo godzin i kosztów ludzkich tworzenia gry bardziej niż mocy gpu. Zobacz takiego Horizona na PS4 Pro - na 4,2 TF gra chodzi w pseudo 4K a wszystkie elementy przyrodnicze w niej są oddane niesamowicie
np. imgur.com/a/HwC55
No i o to właśnie chodzi! Mając 4.2TF dostajemy taki efekt, a co możnaby zrobić z 10TF z GTX1080ti albo 12.5TF z nadchodzącej Vegi? A tu mi wklejają film z GTA V z 2015 roku w 4K DSR, gdzie mamy kwadratowe krzaki ale za to w 4K.
> tu mi wklejają film z GTA V z 2015 roku w 4K DSR, gdzie mamy kwadratowe krzaki ale za to w 4K. Jakby tych kwadratowych krzaków nie było, to by ludziki płakały, że zła optymalizacja. Już widzę te komentarze: "Jak tak można zrobić, że na Ultra nawet GTX 980Ti nie bangla"." Co te leniwe dewelopery wyprawiają. Powinni za darmo, bez żarcia zapie****ć na galerach"." To w ogóle nie usprawiedliwia takich horrendalnych wymagań!" :] Ah. Jakie cudowne by to było. Tyle soczystego bulu dópska o poranku.
I właśnie dlatego 4K jest fajne. Tak ***iście wszystko widać, że jeszcze lepiej widać słabości grafiki. Ostatnio gdzieś pisałem coś podobnego w komentarzach odnośnie Wiedźmina. Wchodzę do sadu i kupa drzew porośniętych kwiatami. Przy 1080p pikseloza jak leci. Przy 4K żyleta, ale z drugiej strony lipa. Bo kwiatki byle jakie, jeszcze w zasadzie 2d. I to było widać ;d Do tego dużo lepiej widać było na dalsze odległosci (wiadomo wincyj pikseli). imgur.com/a/6aBLb
Przydałoby się więcej detali, ale z drugiej strony osoby które miałyby 1080p narzekałyby srogo ;p No bo co tutaj widzieć... jak piseloza ;d
Jasne możesz napisać, że Mafia II. Ma złe tekstury i cokolwiek innego. Tylko powiedz to ludziom którzy mieli w tamtym czasie na kartach po 512mb-1024mb pamięci ram, że to kilkanaście razy za mało ;p bo chcesz sobie zapchać kartę 8gigabajtami tekstur ;p Ile zajmowała by gra wtedy. Jak gry zaczeły zajmować po 20GB to było przecież wtf. Jasne tak możesz, ze wszystkim. Ale jak masz zapas mocy na grafie. To zawsze możesz sobie te 4K odpalić i poprawi to grafikę. Nawet jeżeli jest to durny zegar na ścianie w FEAR z 2005r ;p Ja po zmianie na ekran 4K nie narzekam. Fakt, w nowych grach 1070 to mało, ale zawsze mogę odpalic stare gry, które zawsze dostaną coś na atrakcyjności. Nawet jak tytuł ma już 12 lat ;p Ba. Oba NWN odpaliłem i wyglądały super. Dragon Age'e też fajnie. FarCry... no dobra. Jak zobaczyłem sprajty w tej grze, to od razu pliki konfiguracyjne leciały :D
Nie mam zastrzeżeń. Pod warunkiem, że single. Bo jak multi... Wiadomo 144hz uber alles. Na hdtv nawet recka jest. Mi się nawet trafił egzemplarz z lepszym równomiernym podświetleniem ;) Jak ma się gpu które napędzi to nie widze problemu. Zaznaczam tylko, że ja jeszcze jestem przed 30 i wzrok mam na tyle dobry, że nie używam w ogóle skalowania. Nawet messenger na fb mi nie wadzi :p Ale tak.. Przy 4K na 1070. Rotr 30 klatek. Andromeda 20-30 klatek. Skyrim z the journey <40 fps. To trzeba mieć na uwadze. No i trzeba brać poprawkę na wielkość. Mi się wydaje taki na styk łamane przez trochę duży przy tych 70cm od monitora. Jak czytam, że sobie ludzie dają po 40cali+. To tak trochę zonk.
Patrząc na historię chipu GP102, będącego w istocie wykastrowanym GP100, taki scenariusz jest najbardziej prawdopodobny.
W istocie nim nie jest. Różnice między GP100 i GP102 są bardzo duże. Patrz: forums.anandtech.com/threads/gp100-and-gp104-are-different-architectures.2473319/ anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5 Co prawda są to porównania GP100 i GP104, ale pod względem architektury GP102 jest odpowiednikiem GP104, nie GP100. Innymi słowy - GP100 i reszta Pascali to dwie zupełnie różne architektury.
Obydwa mają 3584 Shading Units, 224 TMU i 96 ROP. Pod względem konfiguracji GPU to to samo, resztę wycięto bo karto do gry jednostki do obliczeń FP64 chyba do niczego by się nie przydały, a HBMK2.0 jest za drogie. Na tej podstawie można zakładać, że najmocniejszy GTX / Titan otrzyma przynajmniej 5120 CUDA i 320 TMU. I nie, nie jest to zupełnie różna architektura, przestań pisać farmazony.
Jednostki FP64 rzeczywiście - najpewniej do niczego przydatne nie będą. Jednoski FP16 w grach się mogą przydać. Pascal dla mas to podrasowany Maxwell w 16nm i nic więcej. GP100 to już zupełnie coś innego. W linkachm, które podałem masz kilka podstawowych różnic. Czyli innymi słowy - sam przestań pisać farmazony, chyba, że jesteś w stanie udowodnić mi, że się mylę. Na razie ja podałem linki z dowodami, Ty nie podałeś nic.
Wow cóż za cacko,na taką architekturę czekał świat. Brak słów,takiej mocy do Witcher 3 i Deus ex jak i Far Cry 5 nam potrzebne
Chyba jednak nie do Wiedźminka 3 - tutaj na najwyższych detalach (bez ekstra włosów) + mody w FHD nawet głupie GTX970 daje ponad 50fps (normalnie) ze spadkami oczywiście do około 40fps czasem. 1080 to już w okolicach 75fps a 1080ti to około 100 fps. Nawet w najcięższych miejscach w 4k 1080ti wyrabia się ponad 50fps, w zwykłych lokacjach w najwyższych ustawieniach uzyskuje (1080 zwykłe) około 100fps a 1080ti ponad 120fps. Pozostałych gier nie znam dobrze więc się nie będę wypowiadał.
"A czy GP102 ma więcej TFlops jak GP100 pomimo wyższych zegarów??"
Na przykład GTX 1080Ti(GP102) przy GPU@2GHz osiąga 14.336 TFlops. 3584(SP) x 2000(MHz) x 2 = 14 336 000(14.336 Bilionów(naszych ;)) zmiennoprzecinkowych operacji obliczeniowych pojedynczej precyzji na sekundę)
TMU 224 x 2000MHz = 448 000 co daje 448-524.16(do 17% lepsza kompresja tekstur) GTekseli/sek czyli od 448 do 524.16 miliardów Tekseli na sekundę.
ROP 88 x 2000MHz = 176 000 co daje 176-205,92(do 17% lepsza kompresja kolorów) GPikseli/sek czyli od 176 do 205.92 miliardów pikseli na sekundę.
"A czy GP102 ma więcej TFlops jak GP100 pomimo wyższych zegarów??"
Na przykład GTX 1080Ti(GP102) przy GPU@2GHz osiąga 14.336 TFlops. 3584(SP) x 2000(MHz) x 2 = 14 336 000(14.336 Bilionów(naszych ;)) zmiennoprzecinkowych operacji obliczeniowych pojedynczej precyzji na sekundę)
TMU 224 x 2000MHz = 448 000 co daje 448-524.16(do 17% lepsza kompresja tekstur) GTekseli/sek czyli od 448 do 524.16 miliardów Tekseli na sekundę.
ROP 88 x 2000MHz = 176 000 co daje 176-205,92(do 17% lepsza kompresja kolorów) GPikseli/sek czyli od 176 do 205.92 miliardów pikseli na sekundę.
GDDR5X 352bit 11GB: 488-570.96(+ do 17%) GB/s
ASUS GTX 1080Ti OC GAMING ;)
Porównuj proszę podkręcone do podkręconego. Czy ktoś będzie GP100 podkręcał to inna sprawa, nie szukałem nigdy informacji na ten temat :)
Nvidia ma bardzo pragmatyczne podejście. Jednostki które wymagają specjalnych optymalizacji w oprogramowaniu daje do kart gdzie software jest dedykowany.
Natomiast w kartach do gier zostawia tylko niezbedne jednostki w jak największej ilości i o jak najwyższym zegarze tak zgrupowane żeby mogły działać efektywnie bez dedykowanych optymalizacji w grach.
I to podejście w dobie bardzo słabo optymalizowanych gier się sprawdza.
W kontekście Volty najbardziej cieszy to że szykuje się kolejny znaczny wzrost perf/Watt i to mimo niewiele lepszego procesu.
Jeżeli przez pojechanie po bandzie rozumiesz usunięcie z GPU do gier tego co w grach się do niczego nie przyda to nowy Titan do gier raczej będzie tak samo zrobiony.
I jest to dosyć logiczne. Po co marnować krzem na coś co się do niczego nie przyda (w grach).
Niemal na pewno wszystkie Volty do gier będą okrojone z FP64, Tensor Cores a także z HBM 2.
Zamiast tego NV da więcej Cuda Cores/ TMU/ROP, pociągnie zegar a zamiast HBM2 wsadzi GDDR6.
Tego się spodziewam - czyli analogicznie jak w Pascalach będą dwa duże GPU - jeden pod HPC a drugi pod gry.
Ale co w tym złego, że firma wydaje produkt tak samo wydajny ale tańszy ?
Wszyscy wiemy że ty nie widzisz w tym nic złego.
Tak. Postaw się w sytuacji ludzi którzy kupili pierwszego Titana a potem NV serwuje im to samo tylko sporo taniej.
Ja bym ci nazwał jak to się nazywa ale przemilczę temat.
Tym bardziej że od premiery TX (Pascal) do 1080Ti minęło ok 9 miesięcy.
Absurdem jest zarzucanie firmie że po jakimś czasie sprzedaje to samo (praktycznie to samo) taniej.
Więc jeżeli do kogoś kupujący Titana mogą w ogole mieć żal to tylko do samych siebie.
Tym bardziej że Titan X Pascal to przyciety chip GP102. Było jasne że za jakiś czas NV wyda pełne GPU a wtedy pocięty Titan będzie musiał być przeceniony albo zastąpiony czymś tańszym.
Co więcej dokładnie tak samo było z Titanem generacji Keppler.
I najważniejsze nikt nikogo nie zmuszał do kupowania Titana w premierowej cenie.
Tak sobie to wytłumaczyłeś?? Super.
No tak, zła Nvidia wydaje kartę o podobnej wydajności do titana za dużo mniej. No kurczę tak to jedziecie, że posiadacze titanów to idioci dający się dymać nvidii, a tu nagle obrońcy posiadaczy titanów. Hipokryzja najwyższej postaci.
O ile w ogóle obniżka ceny to coś zlego. Bo moim zdaniem nie.
Wg Ciebie NV jak raz wycenila Titana na 6000 zł to nie ma prawa ani obniżyć ceny ani wydać czegoś równie wydajnego taniej. Przecież to jest chore myślenie.
Chyba się nie rozumiemy. Ja nie piszę o TX i TXp ale o TX i 1080Ti...
Przy TXp nie ma co dyskutować bo to jest obecnie najwydajniejsza karta. Ale wciskanie 1080Ti to qrestwo wobec tych co wydali 6k na TX.
Dokładnie tak samo było z Titanem generacji Kepler.
Zresztą możliwe, że tego nie pamiętasz, ale ja pamiętam jak kiedyś nowa topowa karta graficzna była prezentowana średnio co ok pół roku, a dotychczasowy top błyskawicznie tracił na wartości.
Taka kolej rzeczy - decydując się na topową kartę płacimy od cholery kasy TYLKO za fakt, że mamy najszybszą i ten status trwa tylko przez MOMENT i kupujący MUSI o tym wiedzieć!
Kogo rzeczywiście stać na taki sprzęt nie będzie narzekał, bo jest tego procesu świadom wie że płaci nie tylko za samą wydajność, ale za swego rodzaju pierwszeństwo w dostępie do tej wydajności.
Natomiast żal mają głównie ci których na dłuższą metę na hi-end nie stać, ale odkładali miesiącami na Titana i jak już go mają to woleli by żeby rozwój i ceny stanęły w miejscu. Że skoro oni dali 6 000 zł to żeby przypadkiem nikt nie mógł tego dostać taniej przez co najmniej kilka lat.
Ąle taki żal wynika głównie z nieznajomości rynku. Wychodzą szybsze karty, a wydajność starszych spada do niższego pułapu cenowego i to jest normalne. Można się z tym pogodzić, albo ... odpuścić sobie kupowanie najdroższych kart.
Fajne sobie to tłumaczysz...
Przypuszczalnie w tych czasach nie miałeś jeszcze komputera.... to i teraz coś co nie jest niczym zaskakującym nagle Cię oburza....
Człowieku ja nie mowie o topowej karcie. Piszę o TX (bez p) i 1080Ti.
Po za tym dajesz przykład różnych generacji kart co jest kwestią normalna a ja piszę o tej samej generacji.
Pierwszy komputer miałem w 93r (486 SX 33 a karty graficznej nie pamiętam ale latał na tym Car&Driver czy Stunts)...
A z tym się wiąże druga kwestia, że cena za dany pułap wydajności z czasem jest coraz niższa i to też wszyscy wiedzą, którzy kupują najwydajniejsze karty.
Więc każdy kto ma jakieś pojęcie o rynku, a już zwłaszcza każdy kto widział co się działo w generacji Kepler doskonale wiedział, że Nvidia wydajność TItana za kilka m-cy zaoferuje w niższej cenie, bo dokładnie to zrobiła w przypadku Keplera.
Titan (Kepler) został zastąpiony GTX780Ti, a później jeszcze doszedł Titan Black. Teraz mamy dokładnie to samo. Po pociętym Titanie (Pascal) wchodzi podkręcony GTX1080 Ti, a zaraz po nim pełny Titan Xp.
Wszystko spoko tylko że po wyjściu 1080Ti cena TX nie spadła... Twoja teoria legła u podstaw.
Cena ściśle za Titana X nie spadła, bo nie musiała. Titan X został zastąpiony pełnym Titanem XP. Natomiast cena za pułap wydajności Titana X spadła, właśnie poprzez pojawienie się 1080Ti.
W latach 200-2002 premierę miały 3 generacje GeForce, 256 debiutował w 1999. Ti nie były żadnymi specjalnymi wersjami. Top karty miały premierę raz w roku, GF 2 Ultra sierpień 2000/ GF 3 Ti500 - październik 2001/ GF 4 Ti 4600 luty 2002. GeForce 4 Ti 4600 nie kosztowała żadnego ułamka ceny GF 3 Ti 500 bo też za te karty wołano 350 - 400$. Tańsze było Ti 4200 ale nie było specjalnie wydajniejsze od Ti 500 (chyba tylko w 3Dmark bo w grach miały zbliżone wyniki).
Od kiedy tak nagle Ci szkoda posiadaczy Titana? Przyznaj, że po prostu znajdujesz sobie powody, byleby pocisnąć po nv.
Poza tym Titana X (Pascal) obecnie nie jesteś w stanie sprzedać z niewielką stratą - dużo tańszy GTX 1080Ti oferuje podobną wydajność, a w tej samej cenie masz nieco wydajniejszego, pełnego Titana Xp.
Ja się zastanawiam skąd u niego taka chęć zaglądania do kieszeni, tak się przejmuje tymi biednymi posiadaczami titanów, szczególnie, że sam się nabił na furiota x :D
;-)
649$ AMD to jest więcej niż 649$ Nvidi ?
W Polsce tak.
Na pewno mniej opłacalnie biorąc pod uwagę, że furyx jest kartą zyskującą słabsze wyniki.
Nie za bardzo interesowałem się wynikami tej karty, ale ostatnio ktoś trafnie sprostował mnie, że 580 wcale nie ma gorszej wydajności od 390x. Zaszokowało mnie, że czesto ostatnio zrównuje się z furyx. Chyba pierwsza karta AMD, która starzeje się naprawdę dziadowsko. 980 ti jak na razie lepiej znosi próbę czasu, a jak NVIDIA zaczyna się lepiej starzec od radeona to już jest poważny problem z czerwonym produktem.
Właściwie tylko ze względu na ten "ficzer", (lepsze wsparcie po latach) czekam na Vege. Jeżeli ten (ostatni?) atut zostanie utracony to nie mam nawet co patrzeć na karty czerwonych, bo zwyczajnie NVIDIA robi to naprawdę dobrze i nie trzeba na nią czekać.
Nie wiem gdzie za 1000zł widzałeś FuryX - najtańsze na allezgrozie są po 1600 używki i ponad 3K nowe (jakiś obłęd). Zwykłe Fury używki są po 1400zł
Poczytaj sobie opinie o tym całym wałku na zagranicznych forach i wtedy przekonasz się, że bogatemu zachodowi tego typu zagrania również nie pasują.
A z Fury X jestem bardzo zadowolony (nawet teraz znalezienie lepszej karty za 1400 zł, które wydałem, jest nieco skomplikowane). Szkoda, że nie można tego powiedzieć o osobie, od której tą kartę kupowałem - wymieniła Fury X na Pascala i teraz tego żałuje.
Naprawdę daruj sobie tego typu teksty. Twoja standardowa retoryka - nvidia to, nvidia tamto, ale nvidia gdzie robisz to za każdym razem wybielając amd jest do zdzierżenia, ale takie bajki to już totalny odlot.
Upgrade z Fury X to GTXa 1080 to żaden upgrade i to jest niestety fakt. Spytaj się osób, które tego dokonały.
Jest. Fury X w najlepszym razie sięga do 1070, najczęściej dużo mniej. Przy bardzo przychylnym podejściu kiedy FuryX dogoni 980Ti, to nadal zostaje 5-10% od 980Ti do 1070, potem następne 15% do 1080 a następnie podkręcenie 1080 o jeszcze 15%. Ale co ja się będę produkował:
overclock3d.net/reviews/gpu_displays/doom_pc_performance_review/8 - w chyba najkorzystniejszej dla FuryX grze (Doom na Vulkanie) mocno zostaje w tyle w 1080p mniej więcej wyrównuje w 1440 i nareszcie wygrywa w 4k.
Tutaj kompleksowe wyniki z wielu gier:
techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/26.html
FuryX zostaje od 25-30% za GTX1080, Fury podkręci się o 10%, GTX1080 o 15% - w efekcie mamy 30-35% wydajniejszą kartę która zjada znacznie mniej energii. Oczywiście są ludzie którzy uważają że kupno nowej karty ma sens przy 100% wzroście wydajności (jak ja), inni zadowolą się 20%-30% bo wymieniają co roku i sprzedają stare (z reguły dopłacając 500-750zł). Co kto lubi.
W testach. W rzeczywistości Fury X bez problemu daje się ustawić tak, żeby nieco przebijało GTXa 1070, zwłaszcza przy dłuższej rozgrywce - większość wczesnych modeli GTXów 1070 i 1080 przy dłuższej rozgrywce zaczynało zbijać takty po paru minutach gry (część modeli do teraz ma ten problem) i na ten problem trafił ów znajomy. A wiadomo, że nikt normalny nie będzie co 5 minut gry restartował.
Patrz np. tu:
nl.hardware.info/reviews/7081/28/nvidia-geforce-gtx-1070-en-1080-round-up-de-beste-keuze-voor-4k-en-vr-duurtest
1.Trollowanie
2. Bajkopisartstwo
3.Łączenie I5 + GTX 1080 i z racji ograniczeń ze strony procka, takie "wnioski".
4.Fanatyzm
5.Brak umiejętności obsługi komputera.
Realia są takie, że Fury X nie lażało nawet obok GTX 1080, daleko mu do wydajności GTX 980Ti/ 1070.
Wręcz walczyć musi z kręconym GTX 980. I to jest fakt.
Zapominasz ciągle dodać że Ty wypowiadasz się wyłącznie o podkręconych produktach bo braku podkręcania nie uznajesz. Musisz to dopisywać bo regularnie ludzi w błąd wprowadzasz. Co do punktu 3 nie ma pojęcia do czego piejesz bo test który Sevard85 zlinkował jest robiony na 5960X@4Ghz. Może i nie jest to super konfiguracja ale spokojnie starcza do ukazania różnic w wydajności między kartami w miejscach które nie są ściśle procesorowe. Zresztą wykresy nie są płaskie.
Przy takim założeniu faktycznie, FuryX ma trudności z dogonieniem 980Ti.
FuryX do 980Ti brakuje jakieś 15%, po podkręceniu obu 20-25% w zależności od egzemplarza. 980Ti podkręcony do 1070 podkręconego to następne 15%. Dalszy stosunek wydajności jest znany. Ostatecznie FuryX po podkręceniu brakuje conajmniej 50% do podkręconego 1080 (który się aż tak dobrze nie kręci, megahercami tak, ale procentowo już sporo mniej).
Co więcej odnośnie do spadania częstotliwości pracy kart w czasie trwania testu to owszem, niektóre stały prawie w miejscu, inne zjechały aż o 100Mhz podczas gry. To niby tylko 5% ale faktycznie jest.
Ludzi w błąd nie wprowadzam, mam świeże podejście do tematu i testów nie kieruje do laików. Po za tym, miałem u siebie wszystkie te karty i wiem doskonale jakie są realia. A, te są zupełnie inne niż wymysły ludzi lecących teoriami.
Kolejna sprawa, to to, że mało kto potrafi robić testy prawidłowo. Wiem co nieco o tym , ponieważ bardzo konkretnie obracam się w tych kręgach. Nie tylko PL. Sebastian na PPC trzyma poziom. Gdybyś wiedział co się wyrabia gdzie indziej, zrozumiałbyś w czym rzecz.
No ale taka jest większość testów, ponieważ kierowane są do laików którzy o pewnych aspektach nie mają pojęcia. To też jest potrzebne i tyle :) Jednak dla bardziej zaawansowanych użytkowników, jest to mylące.
2. Piszę tu o rzeczywistej różnicy, a nie tym co wynika z testów. Prawda jest taka, że wszyscy ustawiają grę tak, żeby było płynnie, a nie wszystko na maksa i już z tego powodu większość testów nie ma sensu. To, że na jednych ustawieniach jakaś karta ma znaczna przewagę nie oznacza, że będzie miała już również na innych. Z tego powodu zawsze lubiłem testy na HardOCP - szukali najlepszych grywalnych ustawień na danej karcie w danym tytule, a nie ustawiali wszystko na maksa i spuszczali się, że jedna karta generuje 30 FPSów, a druga tylko 27.
3. Dalej - domyślne ustawienia sterowników AMD i NVIDII są inne - optymalizacje NVIDII w grach AAA są dużo bardziej agresywne, dzięki czemu gry generują więcej klatek (i lepiej wychodzą w benchmarkach), ale często generują obraz gorszej jakości niż karty AMD. Najlepiej jest to widoczne w Crysisie 3, czy z nowszych gier w DOOMie. Jeśli ustawisz Fury X oraz GTXa 980Ti/GTXa 1070, żeby generowały taki sam obraz, to uśredniając jest to dokładnie ta sama półka wydajnościowa. Taki mały psikusik.
Czyli nie mają pojęcia co jest w realnych zastosowaniach implementowane. Dla nich nagle na guru wyrósł Lipton, bo jest jedyny który słodzi im testami wspierającymi ich teorie, obecnie nawet do Sebastina są w kontrze... bo wyniki im się nie podobają, więc to z pewnością jego wina.
Taktyka takich osób jest prosta, przesukać net, znaleźć testy potwierdzające ich oczekiwania i publikować je jak prawdę objawioną.
Podobnie robił mój syn jak miał 6 lat. Chodził od osoby do osoby pytał czy cukierki są zdrowe, jak mu to ktoś potwierdził lub chociaż nie zaprzeczył, to był jego bohaterem dnia i autorytem w negocjacjach z rodzicami.... jak widać niektórzy z tego nie wyrastają.
Tak, ty sobie go ustawiłeś, że masz wydajność 1080.
Haha
Nom, generalnie się zgadzam, ale na allezgrozie ceny GTX980Ti spadły do właśnie 1400zł - mimo wszystko to lepsza propozycja od FuryX choćby ze względu na podkręcalność. Bez większego stresu można uzyskać wydajność bliską standardowego 1070.
I dokładnie wycofanie pierwszego Titana z rynku i wprowadzenie drugiego nie jest fair.
Zgadzam się w 100%. Jakbym się na to nadział to bym też się poczuł dziwnie.
Niemniej NVIDIA sama będzie musiała wypić to piwo, ciekawie jak im pójdzie sprzedaż "nowego" Titana jeśli bedzie cięty z niepełnego CHIPu
Mnie tam mało co interesuje jak nvidia będzie sprzedawała titany, ile ich będzie i po ile będą. Ni mnie to nie ziębi, ni grzeje. Mam w głębokim poważaniu te karty. Może nie sprzedać ani jednego. Mnie interesuje karta w okolicach 2000zł i TDP 150-180W oraz to jaką wydajność zaoferuje przy tym. I to również niekoniecznie na premierę. 1070 nie licząc posiadanego rabatu kupiłem za 1699zł z grą, pół roku później sprzedałem go za tyle samo przed obniżkami cen i za 2000zł kupiłem 3 miesięcznego 1080.
Wydajność do 1440p wystarczająca, piekarnika nie ma, Nie wydaję co pół roku prawie 6000zł na nowego titana i jest mi z tym dobrze. Dopłacając niewiele zawsze otrzymuję wysoką wydajność, którą pożytkuję w danym okresie użytkowania karty. Jak jej troszkę brakuje to delikatnie detale w dół i można się dobrze bawić dalej.
Niemniej jakbym kupił Titana P do Octane (na szczęście nie kupiłem bo silnik nie był gotowy), a potem bym chciał kupić kolejne a nie mógł to byłoby słabo...
Może po prostu on rozumie jak się produkuje układy półprzewodnikowe, więc dla niego to normalne, że gdy poprawia się uzysk to cena karty może spaść tak samo jak to, że uzysk mógł nie pozwalać na wydanie pełnego chipu GP102 na początku a po kilku miesiącach i wzroście produkcji (oraz spadku popytu z powodu 1080ti) można sobie pozwolić na produkcję mającego ponad 500 mm^2 układy bez skazy.
Ehh... Chciałbym aby to była uniwersalna prawda :) Ze 3 lata tamu kupiłem za jakieś 1500 zł nowego Asus DCII 290x, teraz w tej cenie nie dostanę nic nowego co by było zauważalnie wydajniejsze. Wychodzi na to, że FPS/zł dużo się nie zmienił na przestrzeni lat :)
1080Ti @2025/12000 jest jakieś 5% mniej wydajny od TX P 2016 @2025/11000.
Od TXp 2025/12000 , TX P o powyższych taktach wolniejszy jest o 5% a Ti o 10% ;)
No ale to są żadne różnice biorąc pod uwagę wydajność tych kart. TITANY X mają po 12gb vram no a Ti 11, ale też żadna różnica względem tego jak było z TX M vs 980Ti. Maxwell TX M vs 980Ti to przy zegar w zegar 10% no i 12 gb vram zamiast 6. Także tak, NV pojechała po bandzie z TX Pascalami . No ale karty są zacme, starczą na długo :)
Tensore Core zgoda HBM pewnie ekonomia zadecyduje, FP64 chciałoby się by mnie cieli. Ale wątpie by tak to zrobili...
Mam niejasne wrażenie, że w tej architekturze mogą manipulować proporcjami pomiędzy SP a FP64 dość płynnie tak jak i ilością Tensor Cores.
To prawie dwukrotność wartości akcji AMD.
Mnie ciekawi, czy karty Volta będą miały jednostki do obliczeń asynchronicznych. Czy na podstawie tego co zostało powiedziane można już coś na ten temat powiedzieć?
Jak Volta nie będzie miała tych jednostek, to można brać śmiało Pascale - nie będą wtedy aż tak udupione na wyjście Volty.
Tylko, że cena akcji sam w sobie nic nie mówi bo chodzi jeszcze o ilość akcji. AMD dwa lata teamu było warte na giełdzie poniżej 2B dolców dziś jest to 10B+ z czego rywalizuje w CPU i GPU a sam Nvidia warta jest 70B+ nie mówiąc o intelu... to, że ta firma nadal potrafi konkurować z tymi gigantami to albo sukces albo porażka gigantów
Istnieje po to, aby NV i Intel nie musieli się z urzędami antymonopolowymi borykać :)
To ani sukces ani jej porażka tylko skutek działania prawa antymonopolowego.
Raczej ich dobra wola warto mieć takiego konkurenta by uzasadniać wysokie ceny.
Wystarczyłoby aktywować HT w i5 i Pentiumach kilka lat temu i AMD musiałoby sprzedawać FXy w cenie krzemowego złomu.
Zależy co przez to rozumiesz, bo obliczenia asynchroniczne, to obliczenia jak każde inne wykonywane tych samych rdzeniach CUDA (NV) czy SP (AMD). Asynchroniczne - to znaczy takie, gdzie zlecasz zadanie GPU i nie musisz czekać na wynik, by zlecić kolejne (definiujesz tylko bariery w stylu, zadanie X nie może wystartować póki zadania A, B, C się nie skończą). I teraz GPU może to olać i tak wykonać wszystkie asynchroniczne zadania synchronicznie, czyli jedno po drugim w kolejności zleceń, co może nie być optymalne jeśli każde z tych zadań nie wykorzystuje GPU w 100%, albo GPU może starać się to zrównoleglić, skoro wie, że nie są one zależne od siebie nawzajem (bo tak mu powiedziałeś zlecając to jako zadania asynchroniczne i za pomocą barier), by wykorzystać swoją moc w 100%. AMD posiada specjalny kawałek krzemu w GPU, który zajmuje się jak najsprawniejszą realizacją tego drugiego podejścia. W Maxwellach to było robione mniej więcej tak, żę to sterownik starał się odgadnąć jak bardzo obciążające to mogą być zadania i starał się to podzielić na kawałki i poukładać tak, by dobrze wykorzystać GPU, które już nic nie wiedziało, tylko leciało po kolei - w prostych przypadkach potrafi to dać lepsze wydajność niż w AMD, w bardziej skomplikowanych - beznadziejną :P W Pascalach już jest lepiej, poszli trochę w stronę AMD i chyba jakiś prosty algorytm w GPU dali realizujący część tego procesu, ale nie wiem co i jak za bardzo.
imgur.com/thCSaDS
Nie było i nie będzie obniżek. Intel woli sprzedać 2 rdzenie więcej albo odblokować HT niż obniżyć ceny. Cięcia jeśli jakieś będą skryją się w reformie nazewnictwa (jak ostatnio z Xeonami) i w odblokowaniu rdzeni/HT, tak że nagle I5 będzie miało HT a flagowy I7 (nie HEDT) pojawi się z 6 rdzeniami.
To oczywiście spekulacje, ale tak działa Intel.
Swoja drogo co sie takiego wydarzylo z tym ze intel zmienil nazewnictwo xeonow? Z tego co wiem niema jeszcze ich cen ani dokladnych specyfikacji.
Według Intela to usystematyzowanie nazewnictwa. Według obserwatorów rynku nowy system pozwoli od nowa poukładać ceny by lepiej je dostosować do konkurencji. Nie chodzi tu o obniżenie cen a o zmianę "priorytetów" w wycenianiu. Domyślam się że przeniosą nacisk z częstotliwości na ilość rdzeni. Ale to tylko mój domysł :)
Ja też tylko tabelkę z nazewnictwem widziałem, pewnie wyciekną szczegóły później, w okolicach premiery Naples ;)
Ale fakt robi sie duzo unikatowych opcji i jakos trzeba to podzielic: platformy 2 i wiecej procesorowe plus(to sie laczy ze maja byc 2 nowe sockety) ma jeszcze byc podobno 6 kanalowy kontroler pamieci i niewiem czy zostanie tez wersja 4 kanalowa.
Takze tego sporo.
Ryzena :)
a tymczasem Vega zapoda 8 Giga ultranowoczesnego HBM2 ktory przy jakosci gier obecnie sie szybko zapcha. Fury ich nie nauczylo.
Tak te 12-16GB RAM które przyda się w 5 tytułach na krzyż (tych co zapełniają całą dostępną pamięć preloadując tekstury bez względu na to czy są potrzebne - było już na ten temat kilka testów, w kwestii rzeczywistego wykorzystania ich podczas rozgrywki) i tylko w rozdzielczości 4K lub wyższej dla tego 1% graczy posiadających oczywiście monitory 4K. O jakości gier nie stanowi naładowanie ich teksturami bo o to wyjątkowo łatwo, tylko grywalność.
- nowy interface HDMI,
- nowy DP.
- matryce 4K które będa potrafiły działać w +100Hz i z HDR.
- już teraz TV 4Kmają szybsze procesor obrazu i sporo mniejszy input lag niż 1-2 lata temu.
Upowszechnienie się tego na rynku gaming to tylko kwestia czasu i to nie aż tak odległego.
Teraz kółko się zamyka: nie było dłuuugo pojedynczej karty do grania w 4K to nie było zalewu monitorów. Ale skoro te karty wchodzą to wejdą i monitory. Entuzjaści już za optymalizację tej półki zapłacili, Pora by zawitała do mainstream.
Oczywiście masz rację, ja tylko o rozmiarze pamięci pisałem.
Ech, wszyscy o tych entuzjastach piszą jakby tylko oni sprzęt kupowali, podczas gdy stanowią znikomą część rynku. Monitory 4k wśród graczy to globalnie nadal poniżej 1% i w ostatnim miesiącu przybyło ich o 0.04% :) Ale masz rację, że kiedyś z pewnością to się zmieni, tylko zanim to nastąpi to przeleci wiele generacji kart. Dlatego nowe HDMI i nowy DisplayPort są dla większości użytkowników marginalnie ważne. Prawda że telewizory są dużo szybsze (najlepsze 4K to 20-30ms) ale do "szybkich" 9ms w FHD jeszcze im sporo brakuje - a to przy wyższych częstotliwościach odświeżania przestaje się chować w 16ms okienkach 60hz ekranu.
Dobre źródło informacji i baza danych monitorów/telewizorów - displaylag.com/display-database/
Jedyne co mnie kusi to HDR bo wygląda ślicznie ale inwestycja 10k złociszy mi się nie uśmiecha.
Swego czasu kupiłem TV na bazie tej listy do gier właśnie wybierając najniższy możliwy IL jaki istniał.
Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.
:) :) :) Ty to potrafisz śmieszkowac jak mało kto. Teksty na poziomie pana Labovskiego. Czas przełknąć gorzka pigułę, że nVIDIA jest nie jedną, a dwie długości przed AMD które tak bardzo ubóstwiasz. Zero obiektywizmu, zero.
Więc trochę liczb:
P100
3584Cuda 1328MHz-1480MHz 9.6TFlops (10.6TFlops NVlink)
V100
5120Cuda czyli 42% więcej
1450MHz
15TFlops (zakładam że to wartość przy użyciu NVlink ale porównam do wersji PCIe) czyli 57% więcej.
Wynika z tego ze zegar w zegar wydajność wzrosła o ok 10% przy takiej samej ilości Cuda.
Fakt jest taki że zwiększyła się wydajność na mm* i tu nie ma co się kłócić.
videocardz.com/69378/nvidia-announces-tesla-v100-with-5120-cuda-cores
Tutaj jest fajna tabelka ze szczegółami, według niej wydajność Tesli P100 jest 10.6Tflops (NVlink nic do tego nie ma AFAIK) i wydajność tych kart jest ściśle zależna od ilości SP i zegara - po znormalizowaniu o zegar wzrost wydajności to 2.6%.
Jeśli taktowanie kart konsumenckich będzie na poziomie Pascalowego to duża Volta może mieć ok 20TFlopów.
Jak żeś to wyliczył??
Korzystając z twojego wyliczenia:
V100
5120Cuda czyli 42% więcej
1450MHz
15TFlops
Zgaduję, że konsumenckie GV102 będzie miało liczbę sp identyczną jak GV100, więc skoro przy 1450 Mhz - jest 15TF to przy 2000 MHz wychodzi koło 20.
A czy GP102 ma więcej TFlops jak GP100 pomimo wyższych zegarów??
Owszem ma
anandtech.com/show/11172/nvidia-unveils-geforce-gtx-1080-ti-next-week-699
nawet pocięty do ti ma 11.3 przy oficjalnie liczonym booście
Nowy Tytan z pełnym rdzeniem 12TF
blogs.nvidia.com/blog/2017/04/06/titan-xp/
W mokrych snach :)
Żadna Volta konsumencka nie będzie miała na starcie wydajności choćby zbliżonej do Tesli. Może wersja Ti albo Xv się zbliżą ale to pod koniec przyszłego roku :)
W podwójnej lub w DL to nie ma szans... tutaj zgoda...
Eh? A do czego ci w grach pojedyncza precyzja? Przydaje się tylko w obliczeniach naukowych.
Równie dobrze możesz napisać że Vega na starcie będzie miała 25Tflops wydajności...
@Michaelius - to teraz wydajność podajemy z uwzględnieniem boosta? To już lepiej podawać z konkretnym OC bo boost rzecz zmienna, raz większy raz mniejszy i zależny od programu, egzemplarza karty, producenta i nawet temperatury w komputerze. Duża Volta jeśli pójdzie w ślady Pascala będzie miała faktycznie wydajność Tesli (V) ale pojawi się conajmniej pół roku po premierze xx80 czyli za ponad rok - trochę zbyt długi horyzont jak dla mnie do gdybania.
Większość obliczeń w grach jest wykonywana z pojedynczą precyzją. Większa precyzja nie jest zazwyczaj potrzebna. Mniejszej nie wspierały dotychczasowe karty, a i DX11 tego nie wspierał.
Nowe API dodają poprawną obsługę połówkowej precyzji i w grach może dać to sporego boosta jeśli chodzi o wydajność.
Nom, masz oczywiście rację, myślałem o FP16.
Volta xx80 na starcie będzie miała, jak dobrze pójdzie, wydajność 30%-40% wyższą od 1080, muszą sobie przecież zostawić miejsce na wersję Ti i XPv :) które ukażą się odpowiednio jakieś pół roku po premierze podstawowej wersji. Jeśli jak zapowiada Micron pamięci do xx80 pojawią się na początku 2018 roku to Ti zjawi się w 2 połowie roku, czyli ponad rok od chwili obecnej. Poddaję się w temacie gdybania :)
Bo tu nie chodzi o to, żeby "nabić flopsy" jak najmniejszą liczbą tranzystorów (w tym mistrzami były Radeony generacji VLIW) tylko żeby tę moc jak najefektywniej wykorzystać.
I dlatego Pascale również nie dostały sprzętowego Async Compute :)
Dokładnie, żadnej optymizacji architektury nie ma. Różnica w wydajności pochodzi wyłącznie ze zwiększenia ilości SP (w granicach kilku %). Dla graczy oznacza to że można oczekiwać wzrostu wydajności kosztem większego rdzenia, o ile dokładnie to trudno powiedzieć bo jeżeli w rdzeniach nie będą obecne Tensor Cores a tylko wzrośnie ilość SP to różnica nie będzie duża, jeśli będą klepać tylko uniwersalne rdzenie i wyłączać to będzie rdzeń większy. Nie wiadomo ile przejście na mniejszy proces technologiczny da jeśli chodzi o możliwość podkręcania, o ile wzrosną zegary bazowe. Na razie wygląda na to, że mniejszy proces dał około 40% zmniejszenie poboru energii co jest bardzo miłą wiadomością (bo przy stałym zużyciu wzrosła ilość SP przy zachowanym zegarze).
Nic nie wspomnieli o graczach a dostępność profesjonalnej Volty zapowiedzieli na 3 kwartał (zadzwoń, zamów teraz podczas premiery, dostaniesz w 3 kwartale), ale nie mają problemu z pamięciami bo HBM2 jest dostępne. Nie wiadomo jak będzie z GDDR6, poczekamy zobaczymy.
Na tej co zaprezentowali ten wafelek z GDDR6? Jeśli tak to ta informacja mi umknęła :(
A to bardzo wiele by zmieniało, bo Volta dla graczy miałaby premierę stosunkowo znacznie później niż Vega dla graczy miała względem Vegi dla biznesu.
To nie jest mniejsza litografia a ulepszone 16nm ff
Reklamują to jako 12nm. Chyba nie sugerujesz że to takie oszustko dla gawiedzi, co?
Ja nic nie sugeruje tylko stwierdzam fakt.
Chyba powinienem był tam dopisać "/s" ale wtedy bym na czerwono popłynął :) i tak tutaj się chyba wszyscy zwolennicy Nvidii zeszli bo nawet za prawdę już dostaję minusy :)
Bardzo im nie pasuje że IPC ani trochę nie wzrasta...
I żeby nie było myślę, że te zmiany we wchodzącej generacji kart są zasługą bliższej współpracy AMD i MS zarówno na płaszczyźnie konsol jak i PC, zaś NV musi się dostosować.
I nie rozumiem sarkazmu w temacie premiery VOLTY. Przecież to tak musi działać. AMD ma wielokrotnie mniejszy budżet R&D od Intela +NV. Więc nie jest w stanie w tym samym tempie, z tą samą dynamiką reagować na oczekiwania rynku i wprowadzać nowe generacje produktów. TEGO SIĘ NIE DA ZROBIĆ. Oczywiście w żadnym razie ani PR ani marketing AMD tego głośno nie powie. Ale tak działa rzeczywistość, to nie komiks Marvel'a
VEGA wyjdzie w Q3 tego roku, jest dostępność będzie odpowiedzią na ssanie z rynku, bo AMD nie może sobie pozwolić na długie zapasy magazynowe. Czyli początkowa dostępność będzie mniejsza niż popyt. Obstawili pełną dostępność dla CPU, rynek nie zareagował tak, jakby chcieli, an drugi strzał nie mają już prochu. To jest niestety, aż tak proste.
Ale może zagwarantują VOLTĄ w końcu DX12.x działające tak, że devom będzie się opłacało w pełni to wspierać jaki wiodący system. Chociaż fakt, że dołożyli vulkan niekoniecznie tutaj pomaga.
A co do NVIDIA, to niech sobie będzie 3.0% przyrostu proporcjonalnego w TFLOPS, ale niech poprawią to co w Pascalach kulało... i tak są w stanie nadgonić zegarem i liczbą jednostek.
No przecież nie mogę się wypowiedzieć na temat optymalizacji które nie wpływają na Tflopsy bo to jedyna wartość jaką podała Nvidia (poza organizacją bloków wykonawczych). Wydajność SP zegar w zegar prawie nie wzrosła i tylko tyle napisałem - czyli prawdopodobnie niewiele usprawniono też kontroler pamięci, chociaż kto wie jak teoretyczna wydajność układu przekłada się na rzeczywistą...
Ani trochę sarkastycznie nie podchodzę do dat premiery Volty - no może troszkę się podśmiewam z tych wszystkich zielonoarmistów ;) którzy twardo krzyczeli, że Volta dla graczy jeszcze w tym roku wyjdzie, może nawet w 3 kwartale i Vega nie będzie miała czasu żeby cokolwiek sprzedawać bo Volta od razu ją pokona. Irytuje mnie za to zbieżność w czasie kompletnie papierowej premiery Volty ze spodziewaną premierą Vegi dla graczy, papierowej dlatego że kupić sprzęt nawet ten profesjonalny będzie można dopiero pod koniec 3 kwartału. Chociaż może nie powinienem tak reagować, w końcu AMD Ryzena ogłosiło w grudniu, a sprzedaż ruszyła na początku marca.
BTW, skąd masz info że Vega wyjdzie w Q3? Premiera ma być pod koniec czerwca, sądzisz że dostępność zajmie im następne 3 miesiące w sytuacji gdy od marca sprzedają już wersje profesjonalne Vegi?
Z tego co w statystykach sprzedaży widać i opiniach od klientów to Ryzeny sprzedają się całkiem dobrze, czy poniżej oczekiwań AMD to nie wiadomo i nie wiem czy można taki wniosek wyciągnąć z małej obniżki cen procesorów. kitguru.net/components/cpu/paul-taylor/amds-ryzen-has-not-brought-the-price-wars-we-all-wantedneeded/ - tutaj jest ciekawe porównanie cen procesorów Intel i AMD na przestrzeni ostatnich kilku miesięcy (i więcej w przypadku Intela). Jedyny chyba procesor AMD któremu obniżono oficjalnie cenę to 1800X z 499$ na 469$.
Nie ma na to najmniejszych szans, najwcześniej Q3 i to pewnie bliżej końca. Sporo zależy od kondycji Vegi, ale ta pozostaje wielką niewiadomą, a ostatnie informacje o wydajności i dostępności optymistycznie nie nastrajają.
Co by nie mówić o NVIDII, dobrze przeprowadzają konferencje dając soczysty konkret - tyle a tyle będzie CUDA-sów, tyle i tyle pamięci, takie i siakie taktowania. Dziękuje, piszemy, zamykam temat.
Absolutnie pięknie poprowadzona konferencja, głośno, wyraźnie ze szczegółami, nawet można by powiedzieć że z "jajem". Gdyby tak wyglądały konferencje AMD to zaufanie klientów do ich technologii wzrosło by niebotycznie :)
Jen-Hsun Huang zapytany przez jednego z dziennikarzy o to czy "premiera AMD Vega zmieni coś na rynku" jednoznacznie odpowiedział "NIC".
Nie nastraja to optymizmem. :/
Nie chodzi o to co miał powiedzieć ale chodzi o pewność siebie w wypowiedzi.
Nawet Intel, który miał znacznie większą przewagę na procesorami AMD nie wypowiadał się w ten sposób przed premierą Ryzen'a.
Ewidentnie NV wie z jaką wydajnością wyjdzie Vega i po prostu nie mają się czego obawiać stąd taka pewność siebie w wypowiedzi.
Żeby nie było to sam czekam na Vegę bo mam 1440p 144Hz z FreeSync i tutaj przydało by się coś znacznie mocniejszego od RX 480.
Tego typu wypowiedzi u NV to akurat standard. Potra fili się odnieść jeszcze bardziej arogancko nawet do intela. Ale w większej części gość ma rację - nv ma ugruntowaną pozycję na rynku i dobry PR, mają też spore grono swoich "ambasadorów" na youtube i twitchu, że o redaktorach nie wspomnę. Nawet jeśli by karty AMD(zaznaczam "jeśli") okazały się wydajniejsze i bardziej energooszczędne to Nvidia przy tak dominującej pozycji zawsze zdoła "odwrócić kota ogonem", do tego standardowo dzorzuci jakąś promocję, małą obniżkę i pozamiatane.
że to się dopiero okaże...
że konkurencja z silną ofertą zawsze wprowadza pewne zmiany w rynku, ale wierzą w moc swojego produktu...
że nie chce spekulować, bo w przeszłości AMD pokazał ukryty potencjał....
Odpowiedź NIC, świadczy o dobrym rozeznaniu co wejdzie i niechęci do kopania leżącego....
I faktycznie źle rokuje...
(a stać ich to kto bogatemu zabroni)
media.bizj.us/view/img/5480991/nvidia-new-corporate-hq-aerial*660xx1024-576-0-54.jpg
GF porzuca 10nm i chce pod koniec przyszego roku już klepać 7nm i Navi w 7nm, ale wiadomo jak to u nich zawsze z planami, nigdy nie są na czas.
Dawno temu KNŻ stworzył kawałek Konsument- by nie myślał ale działał jak instrument.
Właśnie to dziś obserwuję :(
Dobre czasy były, szkoda że teraz Kazik nie ma już tak ciętego języka. Spalam się i Spalaj się to były pierwsze płyty które na CD kupiłem :)
Właśnie niedawno się zastanawiałem dokąd ten świat zmierza? Produkuje się coraz więcej, kupuje się coraz wiecej i szybciej się to wyrzuca i kupuje nowe, bo robi się coraz większy badziew, bo producenci chcą zarobić. A konsumenci nauczeni są, że wszystko musi być szybko na teraz i kolejne i kolejne. Zastanawiam się czy utoniemy w morzu śmieci jeszcze za mojego pokolenia czy spotkanie dopiero moje dzieci... Smutne to. Pracuje jako programista i razem z kumplem programista dyskutowaliśmy, że on stracił wiarę w to co robi, bo on marzy o tym żeby robić dobrze ale nikt tego nie chce. Pracodawcy chcą szybko i byle jak, bo sprzedawcy naobiecywali gruszki na wierzbie i to na wczoraj (i dostali za to premie). Inna branża - ostatnio słyszałem opinie jednego mechanika, że ceny używanych samochodów rosną m.in. dlatego, że teraz produkuje się taki badziew, że strach to kupować.
No na coś się trzeba zdecydować:
- albo oczekujemy produktu, które starczy na 10 lat, albo postępu; Nie zamierzam tłumaczyć czemu to się wzajemnie wyklucza;
- albo oczekujemy przełomowych technologii i gwałtownej strzałki wzrostu, albo niskich cen topowych konstrukcji i znów nie zamierzam tłumaczyć dlaczego to się wzajemnie wyklucza;
- podobnie jest z oprogramowaniem, szczególnie w przypadku dużych rozległych światów gier. Albo władamy kasę i czas w optymalizację albo zrzucamy na to szybki sprzęt.
Wszystko jest swojego rodzaju balansem i kompromisem.
A za wychowanie odpowiada rodzina i edukacja i kształtowany przez wiele czynników aparat świadomego podejmowanie decyzji, a nie jedna czy druga firma.
Ja rozumiem, że jeśli kogoś było stać na TOP wczoraj a już wie, że nie będzie go stać jutro, to rodzi to frustrację. Ale takiej porażki nie należy przypisywać tym których jutro będzie stać, najwyraźniej oni potrafili się osiągnąć założony cel. Sugeruje raczej szczerze odpowiedzieć sobie na pytanie co poszło nie tak, że samemu jest się w innym punkcie i co można z tym w przyszłości zrobić. Koncentrowanie się na innych jakości własnego życia nie zmieni.
Mnie jest obojętne czy nowy TITAN będzie kosztował 4000zł czy 5000zł, czy 6000zł i tak za to zapłacą odbiorcy projektów..., ani się nie cieszę ani nie płaczę. I nie zamierzam tracić energii na próby korygowana polityki cenowej wielkich korporacji, lub próby zmiany zachować społecznych iluś tam milionów konsumentów, nie od tego zależy moja i moich dzieci jakość życia.
Równie dobrze można napisać, że znów grono życiowych idiotów będzie narzekać na ceny, przez pryzmat swojego nieudacznictwa. Jest to tak samo grzeczne i prawdzie jak Twoja wypowiedź.
Każdego na coś stać i na coś nie, ciekawe, że dobie gospodarki rynkowej dalej to tak trudno pojąć.
Pierwszy wafelek z GDDR6 wiosny nie czyni, od tego punktu wiele miesięcy upłynie zanim pamięci wejdą do seryjnej produkcji. Nie bez powodu planowali premierę na 1-2 kwartał przyszłego roku, przyspieszyli ją pod naciskiem Nvidii ale takie przyspieszenie też ma swoje ograniczenia i konsekwencje (jak choćby dopracowanie produktu). Od tych miesięcy jeszcze trochę aż trafią do kart a te na półki sklepowe. Obstawiam 4 kwartał na gwiazdkę.
Zależy od tego czy kontroler pamięci by GDDR5X obsługiwał, w takiej sytuacji musieli by marnować miejsce na uniwersalny kontroler dla 5X i 6 albo robić różne chipy dla xx80 i xx70 zamiast ładować jeden gatunek i przycinać te które są częściowo uszkodzone - bardzo nieekonomiczne podejście.
Niestety jak widać strategia 1080 / 1070 first, trochę potem false Titan (pewnie z wafli o parametrach nie do końca spełniających oczekiwania rynku PRO), a dopiero w drugim rzucie Ti i Titan prawie pełen, jest niepokojąco skuteczna....
Ponieważ to może się bezboleśnie udać tylko za pierwszym razem to może teraz będzie inaczej....
Jak mają się szykować jeśli Micron stwierdził że pamięci będą w końcu tego roku albo w przyszłym roku? No chyba że to był fejk z tą informacją o GDDR6...
SK Hynix potwierdził produkcję GDDR6 na początek przyszłego roku na GTC2017.
Ale inwestorzy też swoje prawa mają.... i mogą wywierać presję by wyniki 2017 były tak dobre jak 2016, a tego bez nowych kart przed świętami się osiągnie....
Gdyby Nvidia miała wolną rękę w decydowaniu kiedy karty wyda to tak, inwestorzy mogliby naciskać.
Jeśli nie będą mieli pamięci do wydania kart to żadni inwestorzy nic nie zrobią. A na dostępność pamięci w tym roku się nie zanosi.
Jaki to smuteczek, że Nvidia cierpi teraz z tego samego powodu co Vega, z braku dostępnych pamięci na rynku - takie są efekty surfowania po fali innowacji technologicznych :)
Jeszcze miesiąc...
P.S.
W sumie tak pisałem miesiąc temu;)
Ale najważniejsze bym za miesiąc nie musiał się po raz kolejny powtarzać;)
"Żona do męża: - Stary, kiedy w końcu przykręcisz mi te drzwiczki do szafki w kuchni?
Mąż; - Coś Ty taka nerwowa, Halina? Przecież nie musisz mi co pół roku przypominać!"
Niech ta Vega już wyjdzie. Ceny 1080 pewnie jeszcze spadną i wtedy będzie czas na wymianę wysłużonej 970.
premiera volty ceny 1070 w dol czy wycofanie z rynku?
palit kalmx 2050 ti 6-8 gb idealny pod itx
A Vega nie jest żadną konkurencją dla Volty, bo prawdopodobnie nawet z topowym Pascalem sobie nie poradzi.
a vega o wydajnosci 1070 do gwarancja obnizki ceny przez zielonych co jak co ale ksiegowych to maja dobrych
Nie no 100 000 zł to będzie za gtx 2060 :). Bo wiesz monopol spowoduje takie windowanie cen......(sarkazm off).
[ziew]
Właśnie do tego punktu zamierzałem :)
Nie wiem czy jesteś tego świadom ale P100 ociera się o 30k pln...
Dla nich niespełnione marzenie to dogonić 1080Ti, no powodzenia -.-
Jak za rok wypuszczą Titana z 5120/320/128 to przybiją AMD do ściany.
AMD powraca na rynek CPU (wreszcie!!) i ginie na rynku GPU, no to co panowie, za dwa lata GTX 3050Ti za 1000zł a GTX 3060 za 1600 :)
Całkiem przyjemnie, jeśli tylko przy takich skokach wydajności jak do tej pory ten 3050Ti będzie osiągał poziom obecnego GTX 1080... ;-)
Bo tutaj nie chodzi o bezwzględne liczby TFLOPS, ale do czego to w praktyce można użyć, oraz jaki poziom wydajności to zapewnia.
A tu już dochodzimy do ukochanej przez wszystkich kwestii optymalizacji kodu gry/programu... ;-)
Ale tak, w gruncie rzeczy masz rację. Z jednym zastrzeżeniem - kto powiedział, że w A.D. 2020 trzeba grać w gry z tegoż samego roku? :-) Ja w tej chwili ogrywam perełki które wyszły na przestrzeni - powiedzmy - 4 ostatnich lat. I tu wrócę do początku posta - optymalizacja, optymalizacja, optymalizacja, a w komfortowych warunkach będzie można pograć nawet na niskiej półce. A jak ktoś chce 144 FPS @ 4K w max detalach, u, no to już jego sprawa, życzę zdrowia i dobrze płatnej pracy wykonywanej z wielkim zamiłowaniem. :-)
P.S.
Granie staje się naprawdę ekskluzywnym hobby, czy tego chcemy, czy nie. Zupełnie jak fotografia.
Sam mieszkam na przedmiesciach malego miasta, jest tutaj tylko 1 dostawca swiatlowodu i co ?
A i nic - za 500/100 place 74zl a obecnie weszla oferta 1000/1000 za 109zl
Ceny mogly byc wyzsze a i tak ludzie braliby od nich "swiatlo" bo co innego ? LTE ? Neo ?
Konkurencja redukuje marże, a nie obniża koszty...
Konkurencja zwiększa wydatki na PR i marketing... i wydatki na ochronę przez szpiegostwem przemysłowym...
I duopol to nie jest konkurencja...
A ceny Romet'u nie mają wpływu na ceny Harley'a...
Pewne rzeczy należy upraszczać tylko tak daleko jak to możliwe i ani kroku dalej.
Konkurencja jest potrzebna owszem, ale to musi być konkurencja która oferuje produkt wart zakupu. Co mi po konkurencji , która chce wydać gpu o wydajności tego co kupiłem w 2015 ?
Nie żaden bait. AMD już nigdy się nie wybije w GPU.
Prawda boli co ??? Co za zawistni ludzie.
Huh? Gdyby tu czerwoni szaleli to ja miałbym posty na niebiesko :)
Jak się odważyłem napisać że Volta dla graczy dopiero w przyszłym roku ze względu na GDDR6 i że Nvidia zrobiła piękne widowisko z papierową premierą (bo karty najszybciej pod koniec 3 kwartału) to jestem głęboko na minusiku :)
a amd vega nie watpie tez przyneisie oszczednosci wynikajace z hbm2 ?(czyli mniejsze rozmiary niz konkurencja, mniejszy pobor energii niz odpowiednik amd z gddr5, nizszy halas) i wieksza wydajnosc niz ich rx580 ale to wszytsko kosztem swoich wlasnych zyskow.
Zobacz co się sprzedaje jak ciepłe bułeczki amazon.com/Best-Sellers-Computers-Accessories-Computer-Graphics-Cards/zgbs/pc/284822/ref=zg_bs_nav_pc_2_193870011
podpowiem, że nie jest to żadne 1080. Najsmutniejsze, że według tej listy kompletnie nie sprzedają się karty AMD (pierwsza karta jest na 15!!! miejscu), ale tacy już są ludzie, widzą że Nvidia sprzedaje najszybsze karty więc wydaje im się, że niższe modele od AMD nie konkurują z nią w wydajności.
W takim tempie to AMD może tylko na śmietniku historii wylądować.
-Specjaliści od giełdy, notowań oraz analitycy rynkowi
-Wróżbici, magowie, nostradamus
-Banda dzieci które wieszczą ( w symfonii uśmieszków i wykrzykników) rychły upadek AMD
-Pokorni fanboje obu firm bez grama refleksji, czekają na moment gdy będą mogli na kolanach pójść od sklepu i kupić midend w cenie małego auta.
-10% ludzi którzy wiedzą co mówią i mają IQ większe niż szympans.
Sekcja komentarzy na PPC to cancer absolutnie nie mniejszy niż na innych portalach, a był to jeszcze nie tak dawno azyl w tym temacie.
No ale VEga wlasnie JEST refreshen Fury :P
Na razie nic na temat tej nowej architektury nie wiadomo. Tflopsy jak tu mnie już niektórzy ganią to nie wyznacznik wydajności kart w grach a jako że tylko to wiemy to nie ma co szumnie zapowiadać wielkich zmian. Maxwell jest szybszy od wcześniejszych dzięki Tile Rendering - nic nie wiadomo by Nvidia zaoferowała następne zmiany takiej klasy (wydajnościowo). Na razie widać tylko więcej SP i proporcjonalny wzrost Tflopsów, o wydajności w grach nie wiadomo kompletnie nic.
Zmiany architektury:
New Streaming Multiprocessor (SM) Architecture Optimized for Deep Learning
Tensor Cores
Second-Generation NVLink™
HBM2 Memory: Faster, Higher Efficiency
Volta Multi-Process Service
Enhanced Unified Memory and Address Translation Services
Cooperative Groups and New Cooperative Launch APIs
Maximum Performance and Maximum Efficiency Modes
Volta Optimized Software
- praktycznie wyłącznie dotyczą Tesli, nawet zunifikowany kontroler pamięci ma na celu poprawę współdziałania z innymi kartami w klastrze i jest prawdopodobnie krokiem w stronę HSA
Ale ok, ja nie ukrywam że nadzieję pokładam w odmianie Tile Rendering która ma pojawić się w Vedze - gdyby udała się im tak jak udała się Nvidii (w końcu czemu nie miało by się to udać, w Ryzenach od podstaw wprowadzili HT/SMT bez problemów i z podobną wydajnością jak u Intela, może to nie jest jakiś wspaniały przykład, ale pokazuje że nową technologię też są w stanie zaadoptować) to mielibyśmy miłą niespodziankę co do wydajności i zużycia energii. Warto by jeszcze zwrócić uwagę że w Ryzenie postawili na proces produkcyjny charakteryzujący się jak najmniejszym zużyciem energii, miejmy nadzieję że podobny kompromis udało im się osiągnąć także w przypadku grafiki.
W grach sytuacja jest nieco inna - choć piksele (w fhd 1920 * 1080 = 2073600) to dobry zbiór danych dla fragment (pixel) shadera, to jednak podczas generowania klatki wykonywanych jest sporo róznych operacji, jedne łatwo zapychają GPU (te naturą zbliżone do obliczeń opisanych w poprzednim akapicie) inne mniej (mniesze zbiory i wiele operacji, albo sytuacje, gdzie w wyniku jakiejś operacji częśc danych jest odrzucana, a np w GCN puszcza się te dane w "falach" po 64, jedna fala na CU, bo CU ma 64SP, a już na początku przetwarzania np. 20% danych jest odrzuconych [bo np. wynikowe piksele nie będą widoczne na ekranie] i już część GPU się nudzi [akurat z myślą o tym wprowadzane są shader intrinsics - aktualnie jako rozszerzenia, a niedługo jako część Shader Model 6.0]), część operacji można zrównoleglić (Asynchronous Compute), co pozwala w lepszym stopniu wypełnic wszystkie SP w GPU, ale część musi następować po sobie, bo inaczej się nie da. W skrócie - CPU ma sporo roboty, zeby zapewnić sprawne wykorzystanie zasobów GPU, po to wymyślono DX12/Vulkan, ale to wymaga sporo pracy od programistów i zmiany podejścia do niektórych rozwiązań w silnikach...
...albo można wmówić ludziom, że teraz muszą grać w 4K, bo tak najłatwiej zwiększyć obciążenie GPU, nie zwiększając zbytnio obciążenia CPU i nie zmieniając jakości grafiki :/
Uważasz że ludzie będą kupowali Titana Voltę do 1080p ? Oczywiście że to będą karty do 4K. Wychodzą już nawet konsole do 4K a ty masz porblem że PC-towcy nie są jeszcze na to gotowi ? Oni na to czekają już kilka lat....
I to jest idealny przykład dla komentarza powyżej o utworze "Konsument". Ile to razy ktoś pisał, że super się gra w 4K, wystarczy obniżyć kilka detali i da radę. Moim zdaniem detale w grach i tak są gówniane, nawet na ultra. No może przesadzam, gry wyglądają ładnie, ale znajdzie się tak z milion rzeczy, które można jeszcze poprawić, żeby gra wyglądała lepiej. Wejdź choćby tu: blog.poliigon.com/blog/top-community-renders-from-april-2017?inf_contact_key=3562ddac25a17cd285c26efd6dcc7965031373c6b04114c7382dcde91ba97d80 i powiedz mi w jakiej rozdzielczości oglądasz te rendery i czy gry wyglądają tak dobrze? Albo czy w 4K będą wygladać lepiej?
To, ze ktos oferuje taka karte/mozliwosc gry w 4K to sie cieszyc, ale to od Ciebie zalezy czy jak bezmyslny lemming polecisz i kupisz a potem sie bedziesz zastanawial do czego ja wykorzystac czy po prostu kupisz karte taka jaka potrzebujesz i spelni Twoje wymagania ktore juz sobie postawiles.
To, ze Ty nie zauwazasz gdzies roznicy to nie oznacza, ze jej nie ma lub nie widzi jej ktos inny.
Wydaje mi sie, ze dla Ciebie kazdy kto kupuje sprzet gdzie Ty uwazasz, ze "i tak nie zobaczy roznicy" to dla Ciebie cos smiesznego :)
To może napiszę jeszcze raz, to może zrozumiesz:
Detale grają właśnie bardzo dużą rolę i w tej kwestii można jeszcze baaaardzo dużo poprawić nie zwiększając rozdzielczości. Ale to wymagałoby wiele pracy od twórców gier, wyśmienitego opanowania nowych API i wykorzystania możliwości sprzętu w 100%. Zaserwowanie tej samej grafiki, tylko w 4K, to obejście problemu. Oczywiście, w 4K obraz jest ostrzejszy, jest na nim nieco więcej detali, bo np. poligony, które w całości były mniejsze niż jeden piksel, teraz są wieksze i będą wyrenderowane, ale nie bez powodu modele stosowane w grach nazywa się "low-poly" - poprostu składają się ze stosunkowo małej ilości wierzchołków. Zobacz sobie na te rendery z bloga, który wrzuciłem - czy gry tak wygladają? Czy jak odpalisz gry w 4K na ultra, to będą tak wyglądać?
Porownujesz dwie oddzielne rzeczy. Render to sobie mozna zrobic nawet w 8K na Pentium MMX 166 - kwestia czaaaaaaaaaasu :)
grafika 3D w czasie rzeczywistym to inna bajka.
I jak cytujesz to cytuj cala wypowiedz. Napisalem, ze wg. Ciebie nie graja roli a jako argument - podajesz rendery ? Napisalem Ci juz, ze tych dwoch rzeczy sie nie porownuje
Rozdzielczosc i detale graja duza role bo tylko tym idzie polepszyc wyglad gier z renderowaniem czasu rzeczywistego. A do tego sa potrzebne coraz mocniejsze karty graficzne
Ale faktycznie, mozliwe, ze nie zrozumialem dokladnie Twojego przeslania i jesli faktycznie dazymy do tego samego to sorry, nie bylo tematu :)
Chodzi mi o to, że te rendery, to są obrazy wyrenderowane za pomocą kompa, a wyglądają bardzo realistycznie, nawet jak ich rozdzielczość nie jest 4K. Wiem, że jest to poziom w tej chwili niedostępny dla gier jeśli chcemy mieć jakiś grywalny poziom fps, ale widać, że jeszcze można sporo ulepszyć w grafice nie zwiększając rozdzielczości, albo w drugą stronę - samo zwiększanie rozdzielczości do 4K, 8K czy 16K nie sprawi, że gry zaczną tak wyglądać. Po prostu moje zdanie jest takie, że można tą moc nowych GPU wykorzystać lepiej, niż zwiększając rozdzielczość.
verul, gdzie jesteś? tylko Ty mnie rozumiesz! ;)
gpuopen.com/concurrent-execution-asynchronous-queues/
Przykłady:
https://www.youtube.com/watch?v=NQqgs10zzYk
https://www.youtube.com/watch?v=rYNeKweMlrs
I to równie dobrze mogłyby być przykłady na potwierdzenie mojego zdania:
1. GTA w 4K dsr - ostrzejsze drzewka w tle, a krzak zaraz za plecami rażąco kańciasty niezależnie od rozdzielczości, na drugim filmie - ostrzejszy obraz, dzięki któremu lepiej widać kanciastość tyłka laski lecącej na motocyklu
2. AC:U 4K DSR - lepiej widać kijowość włosów, szmata na wozie, to jakaś porażka i już pomijam to, że kobiety w tle przechodzą przez siebie tak samo dobrze jak w FHD...
3. Mad Max 4K DSR - nawet nie wiem czym się różni, bo rozpraszają mnie te migające badziewne cienie na jego plecach
4. Mafia III w 4K DSR - serio? gra, w której grafika nie powala, a tekstury to ogólnie jakaś padaka, nadal taka będzie nawet w 20K i ostrzejszy znak drogowy w tle tego nie zmieni.
5. RotTR 4K DSR - krzaczki ładniejsze, ale i tak są to lekko pogięte tekstury. Poza tym, na tym ujęciu nie widać, ale RotTR cierpi na te same badziewne cienie na plecach co Mad Max.
6. W3 w 4K DSR - w 4K te krzaki są tak ostre, że przebiły Geraltowi nogi!
No i się zgadza, to może wreszcie czas zadbać o te detale, bo kanciastość krzaków, badziewność cieni czy różnych materiałów (jak ubrania, pościel) albo ogolne najcześciej biedne wyposażenie wnętrz widać nawet lepiej w 4K niż FHD. Połowa efektów, to straszne uproszczenia (jak np. SSAO).
np.
imgur.com/a/HwC55
No i o to właśnie chodzi! Mając 4.2TF dostajemy taki efekt, a co możnaby zrobić z 10TF z GTX1080ti albo 12.5TF z nadchodzącej Vegi? A tu mi wklejają film z GTA V z 2015 roku w 4K DSR, gdzie mamy kwadratowe krzaki ale za to w 4K.
Jakby tych kwadratowych krzaków nie było, to by ludziki płakały, że zła optymalizacja. Już widzę te komentarze: "Jak tak można zrobić, że na Ultra nawet GTX 980Ti nie bangla"." Co te leniwe dewelopery wyprawiają. Powinni za darmo, bez żarcia zapie****ć na galerach"." To w ogóle nie usprawiedliwia takich horrendalnych wymagań!" :]
Ah. Jakie cudowne by to było. Tyle soczystego bulu dópska o poranku.
I właśnie dlatego 4K jest fajne. Tak ***iście wszystko widać, że jeszcze lepiej widać słabości grafiki. Ostatnio gdzieś pisałem coś podobnego w komentarzach odnośnie Wiedźmina. Wchodzę do sadu i kupa drzew porośniętych kwiatami. Przy 1080p pikseloza jak leci. Przy 4K żyleta, ale z drugiej strony lipa. Bo kwiatki byle jakie, jeszcze w zasadzie 2d. I to było widać ;d
Do tego dużo lepiej widać było na dalsze odległosci (wiadomo wincyj pikseli).
imgur.com/a/6aBLb
Przydałoby się więcej detali, ale z drugiej strony osoby które miałyby 1080p narzekałyby srogo ;p
No bo co tutaj widzieć... jak piseloza ;d
Jasne możesz napisać, że Mafia II. Ma złe tekstury i cokolwiek innego. Tylko powiedz to ludziom którzy mieli w tamtym czasie na kartach po 512mb-1024mb pamięci ram, że to kilkanaście razy za mało ;p bo chcesz sobie zapchać kartę 8gigabajtami tekstur ;p Ile zajmowała by gra wtedy. Jak gry zaczeły zajmować po 20GB to było przecież wtf. Jasne tak możesz, ze wszystkim. Ale jak masz zapas mocy na grafie. To zawsze możesz sobie te 4K odpalić i poprawi to grafikę. Nawet jeżeli jest to durny zegar na ścianie w FEAR z 2005r ;p Ja po zmianie na ekran 4K nie narzekam. Fakt, w nowych grach 1070 to mało, ale zawsze mogę odpalic stare gry, które zawsze dostaną coś na atrakcyjności. Nawet jak tytuł ma już 12 lat ;p Ba. Oba NWN odpaliłem i wyglądały super. Dragon Age'e też fajnie. FarCry... no dobra. Jak zobaczyłem sprajty w tej grze, to od razu pliki konfiguracyjne leciały :D
Jak ma się gpu które napędzi to nie widze problemu. Zaznaczam tylko, że ja jeszcze jestem przed 30 i wzrok mam na tyle dobry, że nie używam w ogóle skalowania. Nawet messenger na fb mi nie wadzi :p
Ale tak.. Przy 4K na 1070. Rotr 30 klatek. Andromeda 20-30 klatek. Skyrim z the journey <40 fps. To trzeba mieć na uwadze. No i trzeba brać poprawkę na wielkość. Mi się wydaje taki na styk łamane przez trochę duży przy tych 70cm od monitora. Jak czytam, że sobie ludzie dają po 40cali+. To tak trochę zonk.
W istocie nim nie jest. Różnice między GP100 i GP102 są bardzo duże.
Patrz:
forums.anandtech.com/threads/gp100-and-gp104-are-different-architectures.2473319/
anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5
Co prawda są to porównania GP100 i GP104, ale pod względem architektury GP102 jest odpowiednikiem GP104, nie GP100.
Innymi słowy - GP100 i reszta Pascali to dwie zupełnie różne architektury.
Pascal dla mas to podrasowany Maxwell w 16nm i nic więcej. GP100 to już zupełnie coś innego. W linkachm, które podałem masz kilka podstawowych różnic. Czyli innymi słowy - sam przestań pisać farmazony, chyba, że jesteś w stanie udowodnić mi, że się mylę. Na razie ja podałem linki z dowodami, Ty nie podałeś nic.
Nie waż się mówić że HBM przydaje sie do gier bo zaraz przyjdzie Kowal_ i powie że nie masz racji xd
Dławiący się APU 3870 (Athlon II x4) + 8GB + R9 380 4GB (do niedawna R7 260X).
A Gloom to fajny na splitscreen był! ;>
Phenom II 955 x4 @3.9
I NVIDIA nie zabija wydajnosci sterownikami. Po prostu karty maja krotszy czas wsparcia a to roznica.
Nie cpaj albo bierz polowe zanim wejdziesz na PPC
/beka off.
Chyba jednak nie do Wiedźminka 3 - tutaj na najwyższych detalach (bez ekstra włosów) + mody w FHD nawet głupie GTX970 daje ponad 50fps (normalnie) ze spadkami oczywiście do około 40fps czasem.
1080 to już w okolicach 75fps a 1080ti to około 100 fps. Nawet w najcięższych miejscach w 4k 1080ti wyrabia się ponad 50fps, w zwykłych lokacjach w najwyższych ustawieniach uzyskuje (1080 zwykłe) około 100fps a 1080ti ponad 120fps.
Pozostałych gier nie znam dobrze więc się nie będę wypowiadał.
Na przykład GTX 1080Ti(GP102) przy GPU@2GHz osiąga 14.336 TFlops.
3584(SP) x 2000(MHz) x 2 = 14 336 000(14.336 Bilionów(naszych ;)) zmiennoprzecinkowych operacji obliczeniowych pojedynczej precyzji na sekundę)
TMU 224 x 2000MHz = 448 000 co daje 448-524.16(do 17% lepsza kompresja tekstur) GTekseli/sek czyli od 448 do 524.16 miliardów Tekseli na sekundę.
ROP 88 x 2000MHz = 176 000 co daje 176-205,92(do 17% lepsza kompresja kolorów) GPikseli/sek
czyli od 176 do 205.92 miliardów pikseli na sekundę.
GDDR5X 352bit 11GB: 488-570.96(+ do 17%) GB/s
ASUS GTX 1080Ti OC GAMING ;)
Porównuj proszę podkręcone do podkręconego. Czy ktoś będzie GP100 podkręcał to inna sprawa, nie szukałem nigdy informacji na ten temat :)