Portret użytkownika bahus
Reputacja
10465
#
Oj będzie się działo... zieloni dalej w wydajność idą. Najciekawiej wygląda Tensor Core. Czekam z niecierpliwością.
Portret użytkownika siwyak
Reputacja
27
#
Tensor Core jest do uczenia maszynowego, więc nie wiem na co czekasz. Do gier tego nie użyjesz, zresztą wątpię, by w konsumenckich Voltach te rdzenie w ogóle były aktywne.
Portret użytkownika bahus
Reputacja
10465
#
Liczyłem że takiej wydajności nie zmarnują. Ale wychodzi na to że faktycznie masz rację. Zobaczymy co wyjdzie finalnie, w końcu programiści to zdolne bestie.
Portret użytkownika Grave
Reputacja
3113
#

bahus, czw., 11/05/2017 08:00 #

Liczyłem że takiej wydajności nie zmarnują. Ale wychodzi na to że faktycznie masz rację. Zobaczymy co wyjdzie finalnie, w końcu programiści to zdolne bestie.

Nvidia ma bardzo pragmatyczne podejście. Jednostki które wymagają specjalnych optymalizacji w oprogramowaniu daje do kart gdzie software jest dedykowany.

Natomiast w kartach do gier zostawia tylko niezbedne jednostki w jak największej ilości i o jak najwyższym zegarze tak zgrupowane żeby mogły działać efektywnie bez dedykowanych optymalizacji w grach.

I to podejście w dobie bardzo słabo optymalizowanych gier się sprawdza.

W kontekście Volty najbardziej cieszy to że szykuje się kolejny znaczny wzrost perf/Watt i to mimo niewiele lepszego procesu.
Portret użytkownika Zeneko
Reputacja
80
#
Byle by z Titanami nie pojechali znów po bandzie...
Portret użytkownika Grave
Reputacja
3113
#

Zeneko, czw., 11/05/2017 09:31 #

Byle by z Titanami nie pojechali znów po bandzie...

Jeżeli przez pojechanie po bandzie rozumiesz usunięcie z GPU do gier tego co w grach się do niczego nie przyda to nowy Titan do gier raczej będzie tak samo zrobiony.

I jest to dosyć logiczne. Po co marnować krzem na coś co się do niczego nie przyda (w grach).

Niemal na pewno wszystkie Volty do gier będą okrojone z FP64, Tensor Cores a także z HBM 2.

Zamiast tego NV da więcej Cuda Cores/ TMU/ROP, pociągnie zegar a zamiast HBM2 wsadzi GDDR6.

Tego się spodziewam - czyli analogicznie jak w Pascalach będą dwa duże GPU - jeden pod HPC a drugi pod gry.
Portret użytkownika kwasior500
Reputacja
378
#
Ja przez pojechanie po bandzie rozumiem wydanie Titana, a następnie 1% mniej wydajnego Ti za 50% ceny.
Portret użytkownika Grave
Reputacja
3113
#

kwasior500, czw., 11/05/2017 12:20 #

Ja przez pojechanie po bandzie rozumiem wydanie Titana, a następnie 1% mniej wydajnego Ti za 50% ceny.

Ale co w tym złego, że firma wydaje produkt tak samo wydajny ale tańszy ?
Portret użytkownika mbe
Reputacja
4366
#

Grave, czw., 11/05/2017 12:29 #

kwasior500, czw., 11/05/2017 12:20 #

Ja przez pojechanie po bandzie rozumiem wydanie Titana, a następnie 1% mniej wydajnego Ti za 50% ceny.

Ale co w tym złego, że firma wydaje produkt tak samo wydajny ale tańszy ?

Wszyscy wiemy że ty nie widzisz w tym nic złego.
Portret użytkownika Grave
Reputacja
3113
#
Owszem ja nie widze. A Ty widzisz coś złego w obniżce ceny?
Portret użytkownika mbe
Reputacja
4366
#

Grave, czw., 11/05/2017 12:41 #

Owszem ja nie widze. A Ty widzisz w tym cos złego ?

Tak. Postaw się w sytuacji ludzi którzy kupili pierwszego Titana a potem NV serwuje im to samo tylko sporo taniej.

Ja bym ci nazwał jak to się nazywa ale przemilczę temat.
Portret użytkownika Grave
Reputacja
3113
#
Ale od dawna wiadomo że z czasem ceny spadają i dany pułap wydajności jest dostępny taniej. Osoby kupujące Titana o tym wiedziały.

Tym bardziej że od premiery TX (Pascal) do 1080Ti minęło ok 9 miesięcy.

Absurdem jest zarzucanie firmie że po jakimś czasie sprzedaje to samo (praktycznie to samo) taniej.

Więc jeżeli do kogoś kupujący Titana mogą w ogole mieć żal to tylko do samych siebie.
Portret użytkownika blasph
Reputacja
6752
#
a osoby kupujace titana wiedziały ze wyjdzie drugi titan?
Portret użytkownika Grave
Reputacja
3113
#
Co kilka miesięcy wydawane są nowe karty a starsze są przeceniane. Każdy to wie. A jak nie wie to potem ma zal.

Tym bardziej że Titan X Pascal to przyciety chip GP102. Było jasne że za jakiś czas NV wyda pełne GPU a wtedy pocięty Titan będzie musiał być przeceniony albo zastąpiony czymś tańszym.

Co więcej dokładnie tak samo było z Titanem generacji Keppler.

I najważniejsze nikt nikogo nie zmuszał do kupowania Titana w premierowej cenie.
Portret użytkownika mbe
Reputacja
4366
#

Grave, czw., 11/05/2017 12:51 #

Ale od dawna wiadomo że z czasem ceny spadają i dany pułap wydajności jest dostępny taniej. Osoby kupujące Titana o tym wiedziały.

Tym bardziej że od premiery TX (Pascal) do 1080Ti minęło ok 9 miesięcy.

Absurdem jest zarzucanie firmie że po jakimś czasie sprzedaje to samo (praktycznie to samo) taniej.

Więc jeżeli do kogoś kupujący Titana mogą w ogole mieć żal to tylko do samych siebie.

Tak sobie to wytłumaczyłeś?? Super.
Portret użytkownika niezarejestrowany
Reputacja
48830
#

mbe, czw., 11/05/2017 12:59 #

Grave, czw., 11/05/2017 12:51 #

Ale od dawna wiadomo że z czasem ceny spadają i dany pułap wydajności jest dostępny taniej. Osoby kupujące Titana o tym wiedziały.

Tym bardziej że od premiery TX (Pascal) do 1080Ti minęło ok 9 miesięcy.

Absurdem jest zarzucanie firmie że po jakimś czasie sprzedaje to samo (praktycznie to samo) taniej.

Więc jeżeli do kogoś kupujący Titana mogą w ogole mieć żal to tylko do samych siebie.

Tak sobie to wytłumaczyłeś?? Super.

No tak, zła Nvidia wydaje kartę o podobnej wydajności do titana za dużo mniej. No kurczę tak to jedziecie, że posiadacze titanów to idioci dający się dymać nvidii, a tu nagle obrońcy posiadaczy titanów. Hipokryzja najwyższej postaci.
Portret użytkownika blasph
Reputacja
6752
#
przecież nie chodzi o Ti tylko drugiego titana xp
Portret użytkownika niezarejestrowany
Reputacja
48830
#
Z tym drugim titanem to prawda, ale sam Gosu przebąkiwał, że czeka na pełny rdzeń :)
Portret użytkownika Grave
Reputacja
3113
#
Bo taka prawda. Gdyby uznać to za coś nagannego to trzeba by konsekwentnie uważać WSZYSTKIE OBNIŻKI CEN za złe.

O ile w ogóle obniżka ceny to coś zlego. Bo moim zdaniem nie.

Wg Ciebie NV jak raz wycenila Titana na 6000 zł to nie ma prawa ani obniżyć ceny ani wydać czegoś równie wydajnego taniej. Przecież to jest chore myślenie.
Portret użytkownika mbe
Reputacja
4366
#

Grave, czw., 11/05/2017 13:12 #

Bo taka prawda. Gdyby uznać to za coś nagannego to trzeba by konsekwentnie uważać WSZYSTKIE OBNIŻKI CEN za złe.

O ile w ogóle obniżka ceny to coś zlego. Bo moim zdaniem nie.

Wg Ciebie NV jak raz wycenila Titana na 6000 zł to nie ma prawa ani obniżyć ceny ani wydać czegoś równie wydajnego taniej. Przecież to jest chore myślenie.

Chyba się nie rozumiemy. Ja nie piszę o TX i TXp ale o TX i 1080Ti...

Przy TXp nie ma co dyskutować bo to jest obecnie najwydajniejsza karta. Ale wciskanie 1080Ti to qrestwo wobec tych co wydali 6k na TX.
Portret użytkownika Grave
Reputacja
3113
#
Nie qurestwo tylko normalna kolej rzeczy - obniżanie z czasem ceny za dany pułap wydajności.

Dokładnie tak samo było z Titanem generacji Kepler.

Zresztą możliwe, że tego nie pamiętasz, ale ja pamiętam jak kiedyś nowa topowa karta graficzna była prezentowana średnio co ok pół roku, a dotychczasowy top błyskawicznie tracił na wartości.

Taka kolej rzeczy - decydując się na topową kartę płacimy od cholery kasy TYLKO za fakt, że mamy najszybszą i ten status trwa tylko przez MOMENT i kupujący MUSI o tym wiedzieć!

Kogo rzeczywiście stać na taki sprzęt nie będzie narzekał, bo jest tego procesu świadom wie że płaci nie tylko za samą wydajność, ale za swego rodzaju pierwszeństwo w dostępie do tej wydajności.

Natomiast żal mają głównie ci których na dłuższą metę na hi-end nie stać, ale odkładali miesiącami na Titana i jak już go mają to woleli by żeby rozwój i ceny stanęły w miejscu. Że skoro oni dali 6 000 zł to żeby przypadkiem nikt nie mógł tego dostać taniej przez co najmniej kilka lat.

Ąle taki żal wynika głównie z nieznajomości rynku. Wychodzą szybsze karty, a wydajność starszych spada do niższego pułapu cenowego i to jest normalne. Można się z tym pogodzić, albo ... odpuścić sobie kupowanie najdroższych kart.
Portret użytkownika mbe
Reputacja
4366
#

Grave, czw., 11/05/2017 13:51 #

Nie qurestwo tylko normalna kolej rzeczy - obniżanie z czasem ceny za dany pułap wydajności.

Dokładnie tak samo było z Titanem generacji Kepler.

Zresztą możliwe, że tego nie pamiętasz, ale ja pamiętam jak kiedyś nowa topowa karta graficzna była prezentowana średnio co ok pół roku, a dotychczasowy top błyskawicznie tracił na wartości.

Taka kolej rzeczy - decydując się na topową kartę płacimy od cholery kasy TYLKO za fakt, że mamy najszybszą i ten status trwa tylko przez MOMENT i kupujący MUSI o tym wiedzieć!

Kogo rzeczywiście stać na taki sprzęt nie będzie narzekał, bo jest tego procesu świadom wie że płaci nie tylko za samą wydajność, ale za swego rodzaju pierwszeństwo w dostępie do tej wydajności.

Natomiast żal mają głównie ci których na dłuższą metę na hi-end nie stać, ale odkładali miesiącami na Titana i jak już go mają to woleli by żeby rozwój i ceny stanęły w miejscu. Że skoro oni dali 6 000 zł to żeby przypadkiem nikt nie mógł tego dostać taniej przez co najmniej kilka lat.

Ąle taki żal wynika głównie z nieznajomości rynku. Wychodzą szybsze karty, a wydajność starszych spada do niższego pułapu cenowego i to jest normalne. Można się z tym pogodzić, albo ... odpuścić sobie kupowanie najdroższych kart.

Fajne sobie to tłumaczysz...
Portret użytkownika Grave
Reputacja
3113
#
Zobacz sobie np na lata 2000-2002 kiedy to weszły CZTERY generacje GeForce'ów plus wersje specjalne (Ti/ULTRA) - nowa topowa karta miała premierę średnio co pół roku i jakoś nikt o qurestwie nie pisał mimo, że przykładowo najtańszy GeForce 4 Ti miał dużo lepszą wydajność niż wprowadzony kilka miesięcy wcześniej GeForce 3 Ti 500 za ułamek ceny tego ostatniego.

Przypuszczalnie w tych czasach nie miałeś jeszcze komputera.... to i teraz coś co nie jest niczym zaskakującym nagle Cię oburza....
Portret użytkownika mbe
Reputacja
4366
#

Grave, czw., 11/05/2017 13:57 #

Zobacz sobie np na lata 2000-2002 kiedy to weszły CZTERY generacje GeForce'ów plus wersje specjalne (Ti/ULTRA) - nowa topowa karta miała premierę średnio co pół roku i jakoś nikt o qurestwie nie pisał mimo, że przykładowo najtańszy GeForce 4 Ti miał dużo lepszą wydajność niż wprowadzony kilka miesięcy wcześniej GeForce 3 Ti 500 za ułamek ceny tego ostatniego.

Człowieku ja nie mowie o topowej karcie. Piszę o TX (bez p) i 1080Ti.

Po za tym dajesz przykład różnych generacji kart co jest kwestią normalna a ja piszę o tej samej generacji.

Pierwszy komputer miałem w 93r (486 SX 33 a karty graficznej nie pamiętam ale latał na tym Car&Driver czy Stunts)...
Portret użytkownika Grave
Reputacja
3113
#
Jak się nazywa karta to bez znaczenia. Istotne jest, że co kilka miesięcy wychodzą nowe karty i nie ma takiej możliwości, że ktoś sobie kupi topowy model i on topowy pozostanie przez lata.

A z tym się wiąże druga kwestia, że cena za dany pułap wydajności z czasem jest coraz niższa i to też wszyscy wiedzą, którzy kupują najwydajniejsze karty.

Więc każdy kto ma jakieś pojęcie o rynku, a już zwłaszcza każdy kto widział co się działo w generacji Kepler doskonale wiedział, że Nvidia wydajność TItana za kilka m-cy zaoferuje w niższej cenie, bo dokładnie to zrobiła w przypadku Keplera.

Titan (Kepler) został zastąpiony GTX780Ti, a później jeszcze doszedł Titan Black. Teraz mamy dokładnie to samo. Po pociętym Titanie (Pascal) wchodzi podkręcony GTX1080 Ti, a zaraz po nim pełny Titan Xp.
Portret użytkownika mbe
Reputacja
4366
#

Grave, czw., 11/05/2017 14:17 #

Jak się nazywa karta to bez znaczenia. Istotne jest, że co kilka miesięcy wychodzą nowe karty i nie ma takiej możliwości, że ktoś sobie kupi topowy model i on topowy pozostanie przez lata.

A z tym się wiąże druga kwestia, że cena za dany pułap wydajności z czasem jest coraz niższa i to też wszyscy wiedzą, którzy kupują najwydajniejsze karty.

Więc każdy kto ma jakieś pojęcie o rynku, a już zwłaszcza każdy kto widział co się działo w generacji Kepler doskonale wiedział, że Nvidia wydajność TItana za kilka m-cy zaoferuje w niższej cenie, bo dokładnie to zrobiła w przypadku Keplera.

Titan (Kepler) został zastąpiony GTX780Ti, a później jeszcze doszedł Titan Black. Teraz mamy dokładnie to samo. Po pociętym Titanie (Pascal) wchodzi podkręcony GTX1080 Ti, a zaraz po nim pełny Titan Xp.

Wszystko spoko tylko że po wyjściu 1080Ti cena TX nie spadła... Twoja teoria legła u podstaw.
Portret użytkownika Grave
Reputacja
3113
#

mbe, czw., 11/05/2017 14:24 #

Grave, czw., 11/05/2017 14:17 #

Jak się nazywa karta to bez znaczenia. Istotne jest, że co kilka miesięcy wychodzą nowe karty i nie ma takiej możliwości, że ktoś sobie kupi topowy model i on topowy pozostanie przez lata.

A z tym się wiąże druga kwestia, że cena za dany pułap wydajności z czasem jest coraz niższa i to też wszyscy wiedzą, którzy kupują najwydajniejsze karty.

Więc każdy kto ma jakieś pojęcie o rynku, a już zwłaszcza każdy kto widział co się działo w generacji Kepler doskonale wiedział, że Nvidia wydajność TItana za kilka m-cy zaoferuje w niższej cenie, bo dokładnie to zrobiła w przypadku Keplera.

Titan (Kepler) został zastąpiony GTX780Ti, a później jeszcze doszedł Titan Black. Teraz mamy dokładnie to samo. Po pociętym Titanie (Pascal) wchodzi podkręcony GTX1080 Ti, a zaraz po nim pełny Titan Xp.

Wszystko spoko tylko że po wyjściu 1080Ti cena TX nie spadła... Twoja teoria legła u podstaw.

Cena ściśle za Titana X nie spadła, bo nie musiała. Titan X został zastąpiony pełnym Titanem XP. Natomiast cena za pułap wydajności Titana X spadła, właśnie poprzez pojawienie się 1080Ti.
Portret użytkownika mhojlo
Reputacja
58
#
Przy czym warto podkreślić, że pułap wydajności jest praktycznie ten sam - nowy TXp to 2-5% przyrostu w grach czyli tyle co nic. Dobrze chłodzone 1080Ti przy max OC spokojnie to nadrabia.
Portret użytkownika grajon
Reputacja
1452
#

Grave, czw., 11/05/2017 14:04 #

Zobacz sobie np na lata 2000-2002 kiedy to weszły CZTERY generacje GeForce'ów plus wersje specjalne (Ti/ULTRA) - nowa topowa karta miała premierę średnio co pół roku i jakoś nikt o qurestwie nie pisał mimo, że przykładowo najtańszy GeForce 4 Ti miał dużo lepszą wydajność niż wprowadzony kilka miesięcy wcześniej GeForce 3 Ti 500 za ułamek ceny tego ostatniego.

Przypuszczalnie w tych czasach nie miałeś jeszcze komputera.... to i teraz coś co nie jest niczym zaskakującym nagle Cię oburza....


W latach 200-2002 premierę miały 3 generacje GeForce, 256 debiutował w 1999. Ti nie były żadnymi specjalnymi wersjami. Top karty miały premierę raz w roku, GF 2 Ultra sierpień 2000/ GF 3 Ti500 - październik 2001/ GF 4 Ti 4600 luty 2002. GeForce 4 Ti 4600 nie kosztowała żadnego ułamka ceny GF 3 Ti 500 bo też za te karty wołano 350 - 400$. Tańsze było Ti 4200 ale nie było specjalnie wydajniejsze od Ti 500 (chyba tylko w 3Dmark bo w grach miały zbliżone wyniki).
Portret użytkownika niezarejestrowany
Reputacja
48830
#

mbe, czw., 11/05/2017 13:53 #

Grave, czw., 11/05/2017 13:51 #

Nie qurestwo tylko normalna kolej rzeczy - obniżanie z czasem ceny za dany pułap wydajności.

Dokładnie tak samo było z Titanem generacji Kepler.

Zresztą możliwe, że tego nie pamiętasz, ale ja pamiętam jak kiedyś nowa topowa karta graficzna była prezentowana średnio co ok pół roku, a dotychczasowy top błyskawicznie tracił na wartości.

Taka kolej rzeczy - decydując się na topową kartę płacimy od cholery kasy TYLKO za fakt, że mamy najszybszą i ten status trwa tylko przez MOMENT i kupujący MUSI o tym wiedzieć!

Kogo rzeczywiście stać na taki sprzęt nie będzie narzekał, bo jest tego procesu świadom wie że płaci nie tylko za samą wydajność, ale za swego rodzaju pierwszeństwo w dostępie do tej wydajności.

Natomiast żal mają głównie ci których na dłuższą metę na hi-end nie stać, ale odkładali miesiącami na Titana i jak już go mają to woleli by żeby rozwój i ceny stanęły w miejscu. Że skoro oni dali 6 000 zł to żeby przypadkiem nikt nie mógł tego dostać taniej przez co najmniej kilka lat.

Ąle taki żal wynika głównie z nieznajomości rynku. Wychodzą szybsze karty, a wydajność starszych spada do niższego pułapu cenowego i to jest normalne. Można się z tym pogodzić, albo ... odpuścić sobie kupowanie najdroższych kart.

Fajne sobie to tłumaczysz...

Od kiedy tak nagle Ci szkoda posiadaczy Titana? Przyznaj, że po prostu znajdujesz sobie powody, byleby pocisnąć po nv.
Portret użytkownika Sevard85
Reputacja
16738
#
W tym konkretnym przypadku nie musi niczego szukać - NVIDIA ładnie wali swoich użytkowników premium w tyłek bez wazeliny, a ci są jeszcze z tego powodu szczęśliwi.
Portret użytkownika mhojlo
Reputacja
58
#
Jest sporo osób, które po prostu nie mają co zrobić z kasą. Jak masz zabezpieczoną przyszłość, to po co odkładać pieniądze na jakieś śmieszne lokaty czy nudne inwestycje - wydajesz na to co cię najbardziej interesuje:) Na zachodzie takie 6000pln to jak u nas powiedzmy 1500-2000, czyli śmiesznie mało jak za produkt high-end (i to stosunkowo wymierny high-end, w porównaniu do głośników za 400k czy słuchawek za 10-15k). Uwzględniając odsprzedaż to w ogóle grosze są.
Portret użytkownika Sevard85
Reputacja
16738
#
Sytuacja w której NVIDIA najpierw wypuściła niepełne GP102 w postaci Titana X (Pascal) ustalając za niego taką, a nie inną cenę, by po paru miesiącach wypuścić nowego, tym razem w pełni odblokowanego Titana Xp to coś, czego raczej się nie robi i to nawet w przypadku sprzętu dla entuzjastów. Tym bardziej, że od momentu wsprowadzenia nowego Titana, starego nie da się dostać, więc osoby, które kupiły jednego starego Pascala z myślą o dołożeniu drugiego do SLI w przyszłości, naprawdę mocno wkurzyły się na NVIDIĘ.
Poza tym Titana X (Pascal) obecnie nie jesteś w stanie sprzedać z niewielką stratą - dużo tańszy GTX 1080Ti oferuje podobną wydajność, a w tej samej cenie masz nieco wydajniejszego, pełnego Titana Xp.
Portret użytkownika Grave
Reputacja
3113
#
8 miesięcy to nie jest "parę"...
Portret użytkownika Kowal_
Reputacja
8827
#

Grave, czw., 11/05/2017 16:21 #

8 miesięcy to nie jest "parę"...

Ja się zastanawiam skąd u niego taka chęć zaglądania do kieszeni, tak się przejmuje tymi biednymi posiadaczami titanów, szczególnie, że sam się nabił na furiota x :D
Portret użytkownika Grave
Reputacja
3113
#
A.. a propos fury :-D Właśnie Fury X kosztował na starcie 3000 zł , teraz kosztuje 1000 zł -" toz to AMD dyma swoich fanów którzy przecież nie po to wydali 3000 zł żeby ktoś inny mógł kupić za 1000 zł :-P. Teraz to nawet nie idzie korzystnie sprzedać Fury jak jest dostępny za 1/3 pierwszej ceny w sklepach "

;-)
Portret użytkownika Kowal_
Reputacja
8827
#

Grave, czw., 11/05/2017 16:33 #

A.. a propos fury :-D Właśnie Fury X kosztował na starcie 3000 zł , teraz kosztuje 1000 zł -" toz to AMD dyma swoich fanów którzy przecież nie po to wydali 3000 zł żeby ktoś inny mógł kupić za 1000 zł :-P. Teraz to nawet nie idzie korzystnie sprzedać Fury jak jest dostępny za 1/3 pierwszej ceny w sklepach "

;-)
FuryX to na starcie kosztował więcej niż 980Ti ;)
Portret użytkownika grajon
Reputacja
1452
#

Kowal_, czw., 11/05/2017 17:00 #

FuryX to na starcie kosztował więcej niż 980Ti ;)


649$ AMD to jest więcej niż 649$ Nvidi ?
Portret użytkownika DjXbeat
Reputacja
1907
#

grajon, czw., 11/05/2017 19:19 #


649$ AMD to jest więcej niż 649$ Nvidi ?

W Polsce tak.
Portret użytkownika Aslaf
Reputacja
867
#

grajon, czw., 11/05/2017 19:19 #

Kowal_, czw., 11/05/2017 17:00 #

FuryX to na starcie kosztował więcej niż 980Ti ;)


649$ AMD to jest więcej niż 649$ Nvidi ?


Na pewno mniej opłacalnie biorąc pod uwagę, że furyx jest kartą zyskującą słabsze wyniki.

Nie za bardzo interesowałem się wynikami tej karty, ale ostatnio ktoś trafnie sprostował mnie, że 580 wcale nie ma gorszej wydajności od 390x. Zaszokowało mnie, że czesto ostatnio zrównuje się z furyx. Chyba pierwsza karta AMD, która starzeje się naprawdę dziadowsko. 980 ti jak na razie lepiej znosi próbę czasu, a jak NVIDIA zaczyna się lepiej starzec od radeona to już jest poważny problem z czerwonym produktem.

Właściwie tylko ze względu na ten "ficzer", (lepsze wsparcie po latach) czekam na Vege. Jeżeli ten (ostatni?) atut zostanie utracony to nie mam nawet co patrzeć na karty czerwonych, bo zwyczajnie NVIDIA robi to naprawdę dobrze i nie trzeba na nią czekać.
Portret użytkownika mat9v
Reputacja
30169
#

Grave, czw., 11/05/2017 16:33 #

A.. a propos fury :-D Właśnie Fury X kosztował na starcie 3000 zł , teraz kosztuje 1000 zł -" toz to AMD dyma swoich fanów którzy przecież nie po to wydali 3000 zł żeby ktoś inny mógł kupić za 1000 zł :-P. Teraz to nawet nie idzie korzystnie sprzedać Fury jak jest dostępny za 1/3 pierwszej ceny w sklepach "

;-)


Nie wiem gdzie za 1000zł widzałeś FuryX - najtańsze na allezgrozie są po 1600 używki i ponad 3K nowe (jakiś obłęd). Zwykłe Fury używki są po 1400zł
Portret użytkownika Sevard85
Reputacja
16738
#
A gdzie ja komukolwiek do kieszeni zaglądam?
Poczytaj sobie opinie o tym całym wałku na zagranicznych forach i wtedy przekonasz się, że bogatemu zachodowi tego typu zagrania również nie pasują.
A z Fury X jestem bardzo zadowolony (nawet teraz znalezienie lepszej karty za 1400 zł, które wydałem, jest nieco skomplikowane). Szkoda, że nie można tego powiedzieć o osobie, od której tą kartę kupowałem - wymieniła Fury X na Pascala i teraz tego żałuje.
Portret użytkownika Kowal_
Reputacja
8827
#

Sevard85, czw., 11/05/2017 17:21 #

Szkoda, że nie można tego powiedzieć o osobie, od której tą kartę kupowałem - wymieniła Fury X na Pascala i teraz tego żałuje.

Naprawdę daruj sobie tego typu teksty. Twoja standardowa retoryka - nvidia to, nvidia tamto, ale nvidia gdzie robisz to za każdym razem wybielając amd jest do zdzierżenia, ale takie bajki to już totalny odlot.
Portret użytkownika Sevard85
Reputacja
16738
#
To Ty sobie daruj - z nas dwóch to Ty jesteś ślepo zapatrzony na NVIDIĘ, a nie ja na AMD.
Upgrade z Fury X to GTXa 1080 to żaden upgrade i to jest niestety fakt. Spytaj się osób, które tego dokonały.
Portret użytkownika mat9v
Reputacja
30169
#

Sevard85, czw., 11/05/2017 20:04 #

To Ty sobie daruj - z nas dwóch to Ty jesteś ślepo zapatrzony na NVIDIĘ, a nie ja na AMD.
Upgrade z Fury X to GTXa 1080 to żaden upgrade i to jest niestety fakt. Spytaj się osób, które tego dokonały.


Jest. Fury X w najlepszym razie sięga do 1070, najczęściej dużo mniej. Przy bardzo przychylnym podejściu kiedy FuryX dogoni 980Ti, to nadal zostaje 5-10% od 980Ti do 1070, potem następne 15% do 1080 a następnie podkręcenie 1080 o jeszcze 15%. Ale co ja się będę produkował:
overclock3d.net/reviews/gpu_displays/doom_pc_performance_review/8 - w chyba najkorzystniejszej dla FuryX grze (Doom na Vulkanie) mocno zostaje w tyle w 1080p mniej więcej wyrównuje w 1440 i nareszcie wygrywa w 4k.

Tutaj kompleksowe wyniki z wielu gier:
techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/26.html
FuryX zostaje od 25-30% za GTX1080, Fury podkręci się o 10%, GTX1080 o 15% - w efekcie mamy 30-35% wydajniejszą kartę która zjada znacznie mniej energii. Oczywiście są ludzie którzy uważają że kupno nowej karty ma sens przy 100% wzroście wydajności (jak ja), inni zadowolą się 20%-30% bo wymieniają co roku i sprzedają stare (z reguły dopłacając 500-750zł). Co kto lubi.
Portret użytkownika Sevard85
Reputacja
16738
#

mat9v, czw., 11/05/2017 21:32 #

Jest. Fury X w najlepszym razie sięga do 1070, najczęściej dużo mniej. Przy bardzo przychylnym podejściu kiedy FuryX dogoni 980Ti, to nadal zostaje 5-10% od 980Ti do 1070, potem następne 15% do 1080 a następnie podkręcenie 1080 o jeszcze 15%. Ale co ja się będę produkował:

W testach. W rzeczywistości Fury X bez problemu daje się ustawić tak, żeby nieco przebijało GTXa 1070, zwłaszcza przy dłuższej rozgrywce - większość wczesnych modeli GTXów 1070 i 1080 przy dłuższej rozgrywce zaczynało zbijać takty po paru minutach gry (część modeli do teraz ma ten problem) i na ten problem trafił ów znajomy. A wiadomo, że nikt normalny nie będzie co 5 minut gry restartował.

Patrz np. tu:
nl.hardware.info/reviews/7081/28/nvidia-geforce-gtx-1070-en-1080-round-up-de-beste-keuze-voor-4k-en-vr-duurtest
Portret użytkownika Gosu
Reputacja
6043
#
Co tu się wyrabia...Coraz większe absurdy. Jak ktoś takie rzeczy pisze to możliwości jest tylko kilka.

1.Trollowanie
2. Bajkopisartstwo
3.Łączenie I5 + GTX 1080 i z racji ograniczeń ze strony procka, takie "wnioski".
4.Fanatyzm
5.Brak umiejętności obsługi komputera.

Realia są takie, że Fury X nie lażało nawet obok GTX 1080, daleko mu do wydajności GTX 980Ti/ 1070.

Wręcz walczyć musi z kręconym GTX 980. I to jest fakt.
Portret użytkownika mat9v
Reputacja
30169
#

Gosu, pt., 12/05/2017 01:31 #

Co tu się wyrabia...Coraz większe absurdy. Jak ktoś takie rzeczy pisze to możliwości jest tylko kilka.

1.Trollowanie
2. Bajkopisartstwo
3.Łączenie I5 + GTX 1080 i z racji ograniczeń ze strony procka, takie "wnioski".
4.Fanatyzm
5.Brak umiejętności obsługi komputera.

Realia są takie, że Fury X nie lażało nawet obok GTX 1080, daleko mu do wydajności GTX 980Ti/ 1070.

Wręcz walczyć musi z kręconym GTX 980. I to jest fakt.


Zapominasz ciągle dodać że Ty wypowiadasz się wyłącznie o podkręconych produktach bo braku podkręcania nie uznajesz. Musisz to dopisywać bo regularnie ludzi w błąd wprowadzasz. Co do punktu 3 nie ma pojęcia do czego piejesz bo test który Sevard85 zlinkował jest robiony na 5960X@4Ghz. Może i nie jest to super konfiguracja ale spokojnie starcza do ukazania różnic w wydajności między kartami w miejscach które nie są ściśle procesorowe. Zresztą wykresy nie są płaskie.
Przy takim założeniu faktycznie, FuryX ma trudności z dogonieniem 980Ti.
FuryX do 980Ti brakuje jakieś 15%, po podkręceniu obu 20-25% w zależności od egzemplarza. 980Ti podkręcony do 1070 podkręconego to następne 15%. Dalszy stosunek wydajności jest znany. Ostatecznie FuryX po podkręceniu brakuje conajmniej 50% do podkręconego 1080 (który się aż tak dobrze nie kręci, megahercami tak, ale procentowo już sporo mniej).
Co więcej odnośnie do spadania częstotliwości pracy kart w czasie trwania testu to owszem, niektóre stały prawie w miejscu, inne zjechały aż o 100Mhz podczas gry. To niby tylko 5% ale faktycznie jest.
Portret użytkownika Gosu
Reputacja
6043
#
980Ti OC i 1070 OC ( uśrednione ) to ta sama wydajność. Z przewagą dla 980Ti i tak, żadne 15% odjazdu dla 1070...

Ludzi w błąd nie wprowadzam, mam świeże podejście do tematu i testów nie kieruje do laików. Po za tym, miałem u siebie wszystkie te karty i wiem doskonale jakie są realia. A, te są zupełnie inne niż wymysły ludzi lecących teoriami.

Kolejna sprawa, to to, że mało kto potrafi robić testy prawidłowo. Wiem co nieco o tym , ponieważ bardzo konkretnie obracam się w tych kręgach. Nie tylko PL. Sebastian na PPC trzyma poziom. Gdybyś wiedział co się wyrabia gdzie indziej, zrozumiałbyś w czym rzecz.
Portret użytkownika kapibara
Reputacja
2057
#
Jak się robi testy prawidłowo?
Portret użytkownika Gosu
Reputacja
6043
#
Kluczowa kwestia, to mieć świadomość, że karta karcie nie jest równa. Ten sam model, inny ASIC co za tym idzie inny boost, napięcie, temperatury i wyniki są różne. Do tego testy refów na stock vs nierefy z OC po wyjęciu z pudła, również niewiele wspólnego mają z wydajnością realną sprzętów.

No ale taka jest większość testów, ponieważ kierowane są do laików którzy o pewnych aspektach nie mają pojęcia. To też jest potrzebne i tyle :) Jednak dla bardziej zaawansowanych użytkowników, jest to mylące.
Portret użytkownika Sevard85
Reputacja
16738
#
1. Ja nigdzie nie piszę, że Fury X to to samo co GTX 1080 piszę tylko, że wymiana Fury X na GTXa 1080 daje zbyt mały skok wydajnościowy, by miało to ręce i nogi.
2. Piszę tu o rzeczywistej różnicy, a nie tym co wynika z testów. Prawda jest taka, że wszyscy ustawiają grę tak, żeby było płynnie, a nie wszystko na maksa i już z tego powodu większość testów nie ma sensu. To, że na jednych ustawieniach jakaś karta ma znaczna przewagę nie oznacza, że będzie miała już również na innych. Z tego powodu zawsze lubiłem testy na HardOCP - szukali najlepszych grywalnych ustawień na danej karcie w danym tytule, a nie ustawiali wszystko na maksa i spuszczali się, że jedna karta generuje 30 FPSów, a druga tylko 27.
3. Dalej - domyślne ustawienia sterowników AMD i NVIDII są inne - optymalizacje NVIDII w grach AAA są dużo bardziej agresywne, dzięki czemu gry generują więcej klatek (i lepiej wychodzą w benchmarkach), ale często generują obraz gorszej jakości niż karty AMD. Najlepiej jest to widoczne w Crysisie 3, czy z nowszych gier w DOOMie. Jeśli ustawisz Fury X oraz GTXa 980Ti/GTXa 1070, żeby generowały taki sam obraz, to uśredniając jest to dokładnie ta sama półka wydajnościowa. Taki mały psikusik.
Portret użytkownika Gosu
Reputacja
6043
#
Jedno podstawowe pytanie - Czy sprawdzałeś to wszystko osobiście, mając te wszystkie karty u siebie?
Portret użytkownika fallcon87
Reputacja
38
#
Wg. mnie nie, to taki typ besserwissera, znaffcy teoretyka, jakich w komentarzach na portalach wielu. ;)
Portret użytkownika Gosu
Reputacja
6043
#
Zdecydowanie na to właśnie to wygląda :)
Portret użytkownika Zeneko
Reputacja
80
#
To ten sam typ ludzi którzy twierdzą, że Ryzen jest idealny do zastosowań PRO, a w życiu w żadnym oprogramowani PRO nie siedzieli i żadnej platformy pod to nie optymalizowali.

Czyli nie mają pojęcia co jest w realnych zastosowaniach implementowane. Dla nich nagle na guru wyrósł Lipton, bo jest jedyny który słodzi im testami wspierającymi ich teorie, obecnie nawet do Sebastina są w kontrze... bo wyniki im się nie podobają, więc to z pewnością jego wina.

Taktyka takich osób jest prosta, przesukać net, znaleźć testy potwierdzające ich oczekiwania i publikować je jak prawdę objawioną.

Podobnie robił mój syn jak miał 6 lat. Chodził od osoby do osoby pytał czy cukierki są zdrowe, jak mu to ktoś potwierdził lub chociaż nie zaprzeczył, to był jego bohaterem dnia i autorytem w negocjacjach z rodzicami.... jak widać niektórzy z tego nie wyrastają.
Portret użytkownika Gosu
Reputacja
6043
#
No pięknie to ująłeś :) Też tak właśnie to widzę. Twój syn, dobry cwaniak ;-)
Portret użytkownika Kowal_
Reputacja
8827
#

Sevard85, czw., 11/05/2017 20:04 #


Upgrade z Fury X to GTXa 1080 to żaden upgrade i to jest niestety fakt. Spytaj się osób, które tego dokonały.

Tak, ty sobie go ustawiłeś, że masz wydajność 1080.

Haha
Portret użytkownika mat9v
Reputacja
30169
#

Sevard85, czw., 11/05/2017 17:21 #

A gdzie ja komukolwiek do kieszeni zaglądam?
Poczytaj sobie opinie o tym całym wałku na zagranicznych forach i wtedy przekonasz się, że bogatemu zachodowi tego typu zagrania również nie pasują.
A z Fury X jestem bardzo zadowolony (nawet teraz znalezienie lepszej karty za 1400 zł, które wydałem, jest nieco skomplikowane). Szkoda, że nie można tego powiedzieć o osobie, od której tą kartę kupowałem - wymieniła Fury X na Pascala i teraz tego żałuje.


Nom, generalnie się zgadzam, ale na allezgrozie ceny GTX980Ti spadły do właśnie 1400zł - mimo wszystko to lepsza propozycja od FuryX choćby ze względu na podkręcalność. Bez większego stresu można uzyskać wydajność bliską standardowego 1070.
Portret użytkownika Zeneko
Reputacja
80
#
8 miesięcy to jest właśnie parę, paręnaście to od biedy można od 10 liczyć.

I dokładnie wycofanie pierwszego Titana z rynku i wprowadzenie drugiego nie jest fair.

Zgadzam się w 100%. Jakbym się na to nadział to bym też się poczuł dziwnie.

Niemniej NVIDIA sama będzie musiała wypić to piwo, ciekawie jak im pójdzie sprzedaż "nowego" Titana jeśli bedzie cięty z niepełnego CHIPu
Portret użytkownika Kowal_
Reputacja
8827
#

Zeneko, czw., 11/05/2017 16:47 #


Niemniej NVIDIA sama będzie musiała wypić to piwo, ciekawie jak im pójdzie sprzedaż "nowego" Titana jeśli bedzie cięty z niepełnego CHIPu

Mnie tam mało co interesuje jak nvidia będzie sprzedawała titany, ile ich będzie i po ile będą. Ni mnie to nie ziębi, ni grzeje. Mam w głębokim poważaniu te karty. Może nie sprzedać ani jednego. Mnie interesuje karta w okolicach 2000zł i TDP 150-180W oraz to jaką wydajność zaoferuje przy tym. I to również niekoniecznie na premierę. 1070 nie licząc posiadanego rabatu kupiłem za 1699zł z grą, pół roku później sprzedałem go za tyle samo przed obniżkami cen i za 2000zł kupiłem 3 miesięcznego 1080.

Wydajność do 1440p wystarczająca, piekarnika nie ma, Nie wydaję co pół roku prawie 6000zł na nowego titana i jest mi z tym dobrze. Dopłacając niewiele zawsze otrzymuję wysoką wydajność, którą pożytkuję w danym okresie użytkowania karty. Jak jej troszkę brakuje to delikatnie detale w dół i można się dobrze bawić dalej.
Portret użytkownika Zeneko
Reputacja
80
#
I bardzo ładnie, należy Cie za to pochwalić.

Niemniej jakbym kupił Titana P do Octane (na szczęście nie kupiłem bo silnik nie był gotowy), a potem bym chciał kupić kolejne a nie mógł to byłoby słabo...
Portret użytkownika Michaelius
Reputacja
11095
#

mbe, czw., 11/05/2017 13:53 #

Fajne sobie to tłumaczysz...


Może po prostu on rozumie jak się produkuje układy półprzewodnikowe, więc dla niego to normalne, że gdy poprawia się uzysk to cena karty może spaść tak samo jak to, że uzysk mógł nie pozwalać na wydanie pełnego chipu GP102 na początku a po kilku miesiącach i wzroście produkcji (oraz spadku popytu z powodu 1080ti) można sobie pozwolić na produkcję mającego ponad 500 mm^2 układy bez skazy.
Portret użytkownika Kayti
Reputacja
228
#

Grave, czw., 11/05/2017 12:51 #

Ale od dawna wiadomo że z czasem ceny spadają i dany pułap wydajności jest dostępny taniej.


Ehh... Chciałbym aby to była uniwersalna prawda :) Ze 3 lata tamu kupiłem za jakieś 1500 zł nowego Asus DCII 290x, teraz w tej cenie nie dostanę nic nowego co by było zauważalnie wydajniejsze. Wychodzi na to, że FPS/zł dużo się nie zmienił na przestrzeni lat :)
Portret użytkownika kwasior500
Reputacja
378
#
Dla potencjalnych nabywców nic, dla obecnych właścicieli sporo.
Portret użytkownika Gosu
Reputacja
6043
#
Nie no, bez przesady nie 1% ;)

1080Ti @2025/12000 jest jakieś 5% mniej wydajny od TX P 2016 @2025/11000.

Od TXp 2025/12000 , TX P o powyższych taktach wolniejszy jest o 5% a Ti o 10% ;)

No ale to są żadne różnice biorąc pod uwagę wydajność tych kart. TITANY X mają po 12gb vram no a Ti 11, ale też żadna różnica względem tego jak było z TX M vs 980Ti. Maxwell TX M vs 980Ti to przy zegar w zegar 10% no i 12 gb vram zamiast 6. Także tak, NV pojechała po bandzie z TX Pascalami . No ale karty są zacme, starczą na długo :)
Portret użytkownika Zeneko
Reputacja
80
#
nie, mam na myśli wydania Titana kastrata, a potem Titana kastrata mniej, a tak naprawdę, żaden z nich pełnoprawnych Titanem nie jest w rodzinie Pascal
Tensore Core zgoda HBM pewnie ekonomia zadecyduje, FP64 chciałoby się by mnie cieli. Ale wątpie by tak to zrobili...
Mam niejasne wrażenie, że w tej architekturze mogą manipulować proporcjami pomiędzy SP a FP64 dość płynnie tak jak i ilością Tensor Cores.
Portret użytkownika Zeneko
Reputacja
80
#
A mówili coś na temat zmian w działaniu WARP Scheduler i Dispatch Unit? Bo to jest IMHO najciekawszy kawałek z punktu widzenia gier, SM 6.0, implementacji HLSL....
Portret użytkownika Michaelius
Reputacja
11095
#
To była prezentacja stricte profesjonalna o deep learningu , więc nie mówili nic o kartach dla graczy.
Portret użytkownika Dives93
Reputacja
3006
#
and I'm just sitting here with my 920MX....
Portret użytkownika Jegred
Reputacja
159
#
Buy new notebook.
Portret użytkownika Aslaf
Reputacja
867
#
Giełda już zareagowała. Po ogłoszeniu wyników finansowych i meetingu akcje poszybowały o 18 dolków w górę.

To prawie dwukrotność wartości akcji AMD.

Mnie ciekawi, czy karty Volta będą miały jednostki do obliczeń asynchronicznych. Czy na podstawie tego co zostało powiedziane można już coś na ten temat powiedzieć?

Jak Volta nie będzie miała tych jednostek, to można brać śmiało Pascale - nie będą wtedy aż tak udupione na wyjście Volty.
Portret użytkownika Barwa
Reputacja
151
#

Aslaf, śr., 10/05/2017 21:19 #

Giełda już zareagowała. Po ogłoszeniu wyników finansowych i meetingu akcje poszybowały o 18 dolków w górę.

To prawie dwukrotność wartości akcji AMD.

.


Tylko, że cena akcji sam w sobie nic nie mówi bo chodzi jeszcze o ilość akcji. AMD dwa lata teamu było warte na giełdzie poniżej 2B dolców dziś jest to 10B+ z czego rywalizuje w CPU i GPU a sam Nvidia warta jest 70B+ nie mówiąc o intelu... to, że ta firma nadal potrafi konkurować z tymi gigantami to albo sukces albo porażka gigantów
Portret użytkownika DisconecT
Reputacja
1973
#

Barwa, śr., 10/05/2017 21:31 #

to, że ta firma nadal potrafi konkurować z tymi gigantami to albo sukces albo porażka gigantów

Istnieje po to, aby NV i Intel nie musieli się z urzędami antymonopolowymi borykać :)
Portret użytkownika niezarejestrowany
Reputacja
48830
#
No i niech ktoś teraz powie, że lepiej by amd upadło :)
Portret użytkownika Jegred
Reputacja
159
#
Z tym, że amerykański bilion to nasz miliard.
To ani sukces ani jej porażka tylko skutek działania prawa antymonopolowego.
Portret użytkownika Michaelius
Reputacja
11095
#

Barwa, śr., 10/05/2017 21:31 #

to, że ta firma nadal potrafi konkurować z tymi gigantami to albo sukces albo porażka gigantów


Raczej ich dobra wola warto mieć takiego konkurenta by uzasadniać wysokie ceny.

Wystarczyłoby aktywować HT w i5 i Pentiumach kilka lat temu i AMD musiałoby sprzedawać FXy w cenie krzemowego złomu.
Portret użytkownika faldżip
Reputacja
3439
#

Aslaf, śr., 10/05/2017 21:19 #


Mnie ciekawi, czy karty Volta będą miały jednostki do obliczeń asynchronicznych. Czy na podstawie tego co zostało powiedziane można już coś na ten temat powiedzieć?

Zależy co przez to rozumiesz, bo obliczenia asynchroniczne, to obliczenia jak każde inne wykonywane tych samych rdzeniach CUDA (NV) czy SP (AMD). Asynchroniczne - to znaczy takie, gdzie zlecasz zadanie GPU i nie musisz czekać na wynik, by zlecić kolejne (definiujesz tylko bariery w stylu, zadanie X nie może wystartować póki zadania A, B, C się nie skończą). I teraz GPU może to olać i tak wykonać wszystkie asynchroniczne zadania synchronicznie, czyli jedno po drugim w kolejności zleceń, co może nie być optymalne jeśli każde z tych zadań nie wykorzystuje GPU w 100%, albo GPU może starać się to zrównoleglić, skoro wie, że nie są one zależne od siebie nawzajem (bo tak mu powiedziałeś zlecając to jako zadania asynchroniczne i za pomocą barier), by wykorzystać swoją moc w 100%. AMD posiada specjalny kawałek krzemu w GPU, który zajmuje się jak najsprawniejszą realizacją tego drugiego podejścia. W Maxwellach to było robione mniej więcej tak, żę to sterownik starał się odgadnąć jak bardzo obciążające to mogą być zadania i starał się to podzielić na kawałki i poukładać tak, by dobrze wykorzystać GPU, które już nic nie wiedziało, tylko leciało po kolei - w prostych przypadkach potrafi to dać lepsze wydajność niż w AMD, w bardziej skomplikowanych - beznadziejną :P W Pascalach już jest lepiej, poszli trochę w stronę AMD i chyba jakiś prosty algorytm w GPU dali realizujący część tego procesu, ale nie wiem co i jak za bardzo.
Portret użytkownika Gatts1978
Reputacja
6137
#
Dobry czas trzeba zamglić to co chce zaprezentować AMD.PLAYSTATION 5 to będzie dopiero power jak tu takie potworki przed Nami.Najgorszy czas przed Nami bo szykują się wydatki a jak jeszcze ogłoszony zostanie nowy silnik graficzny w grach z takim nowym CRISISEM tych czasów ale oparty już na DX12 wykorzystujący te 15TF to nagle karty pokroju VEGA PIERWSZA i TITAN PASCAL staną się wspomnieniem.
Portret użytkownika DisconecT
Reputacja
1973
#
NVIDIA się nie obija, idzie jak burza, więc w AMD już trwają narady zarządu:

imgur.com/thCSaDS
Portret użytkownika SWENOR27
Reputacja
1146
#
Na szczęście Ryzeny im jakoś wyszły. Dzięki temu intel coś tam ceny pochlastał. Gdyby nie AMD, to byś dawał 700 PLN za GT 940MX na 64bit.
Portret użytkownika oliwer21
Reputacja
3831
#
Ta? Czego byly obnizki?
Portret użytkownika mat9v
Reputacja
30169
#

oliwer21, czw., 11/05/2017 00:34 #

Ta? Czego byly obnizki?


Nie było i nie będzie obniżek. Intel woli sprzedać 2 rdzenie więcej albo odblokować HT niż obniżyć ceny. Cięcia jeśli jakieś będą skryją się w reformie nazewnictwa (jak ostatnio z Xeonami) i w odblokowaniu rdzeni/HT, tak że nagle I5 będzie miało HT a flagowy I7 (nie HEDT) pojawi się z 6 rdzeniami.
To oczywiście spekulacje, ale tak działa Intel.
Portret użytkownika oliwer21
Reputacja
3831
#
To bylo ironiczne pytanie;)
Swoja drogo co sie takiego wydarzylo z tym ze intel zmienil nazewnictwo xeonow? Z tego co wiem niema jeszcze ich cen ani dokladnych specyfikacji.
Portret użytkownika mat9v
Reputacja
30169
#

oliwer21, czw., 11/05/2017 09:06 #

To bylo ironiczne pytanie;)
Swoja drogo co sie takiego wydarzylo z tym ze intel zmienil nazewnictwo xeonow? Z tego co wiem niema jeszcze ich cen ani dokladnych specyfikacji.


Według Intela to usystematyzowanie nazewnictwa. Według obserwatorów rynku nowy system pozwoli od nowa poukładać ceny by lepiej je dostosować do konkurencji. Nie chodzi tu o obniżenie cen a o zmianę "priorytetów" w wycenianiu. Domyślam się że przeniosą nacisk z częstotliwości na ilość rdzeni. Ale to tylko mój domysł :)
Ja też tylko tabelkę z nazewnictwem widziałem, pewnie wyciekną szczegóły później, w okolicach premiery Naples ;)
Portret użytkownika oliwer21
Reputacja
3831
#
Akurat niesadze aby chodzilo o zwiekszanie liczby rdzeni bo intel ma w ofercie juz 22 rdzeniowe jednostki... do tego mozna je montowac nawet po 4.
Ale fakt robi sie duzo unikatowych opcji i jakos trzeba to podzielic: platformy 2 i wiecej procesorowe plus(to sie laczy ze maja byc 2 nowe sockety) ma jeszcze byc podobno 6 kanalowy kontroler pamieci i niewiem czy zostanie tez wersja 4 kanalowa.
Takze tego sporo.
Portret użytkownika niezarejestrowany
Reputacja
48830
#

oliwer21, czw., 11/05/2017 00:34 #

Ta? Czego byly obnizki?

Ryzena :)
Portret użytkownika kainan
Reputacja
3
#
Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6
Portret użytkownika Eclipse
Reputacja
2280
#

kainan, śr., 10/05/2017 21:37 #

Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6

a tymczasem Vega zapoda 8 Giga ultranowoczesnego HBM2 ktory przy jakosci gier obecnie sie szybko zapcha. Fury ich nie nauczylo.
Portret użytkownika kubas246
Reputacja
5302
#
Nauczyło. Po prostu nie wycofają się z technologii, którą współtworzyli i wywalili na to pewnie nie małą kasę.
Portret użytkownika Zeneko
Reputacja
80
#
Dokładnie, przestrzelili, liczyli na powszechność i dodatkowe przychody w przypadku jakby NV też zaczęła to stosować, ale nie wyszło. Rywal wstawił GDDR5X i game over.
Portret użytkownika mat9v
Reputacja
30169
#

Eclipse, śr., 10/05/2017 21:43 #

kainan, śr., 10/05/2017 21:37 #

Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6

a tymczasem Vega zapoda 8 Giga ultranowoczesnego HBM2 ktory przy jakosci gier obecnie sie szybko zapcha. Fury ich nie nauczylo.


Tak te 12-16GB RAM które przyda się w 5 tytułach na krzyż (tych co zapełniają całą dostępną pamięć preloadując tekstury bez względu na to czy są potrzebne - było już na ten temat kilka testów, w kwestii rzeczywistego wykorzystania ich podczas rozgrywki) i tylko w rozdzielczości 4K lub wyższej dla tego 1% graczy posiadających oczywiście monitory 4K. O jakości gier nie stanowi naładowanie ich teksturami bo o to wyjątkowo łatwo, tylko grywalność.
Portret użytkownika Zeneko
Reputacja
80
#
2018 oznacza:
- nowy interface HDMI,
- nowy DP.
- matryce 4K które będa potrafiły działać w +100Hz i z HDR.
- już teraz TV 4Kmają szybsze procesor obrazu i sporo mniejszy input lag niż 1-2 lata temu.

Upowszechnienie się tego na rynku gaming to tylko kwestia czasu i to nie aż tak odległego.

Teraz kółko się zamyka: nie było dłuuugo pojedynczej karty do grania w 4K to nie było zalewu monitorów. Ale skoro te karty wchodzą to wejdą i monitory. Entuzjaści już za optymalizację tej półki zapłacili, Pora by zawitała do mainstream.
Portret użytkownika mat9v
Reputacja
30169
#

Zeneko, czw., 11/05/2017 10:34 #

2018 oznacza:
- nowy interface HDMI,
- nowy DP.
- matryce 4K które będa potrafiły działać w +100Hz i z HDR.
- już teraz TV 4Kmają szybsze procesor obrazu i sporo mniejszy input lag niż 1-2 lata temu.

Upowszechnienie się tego na rynku gaming to tylko kwestia czasu i to nie aż tak odległego.

Teraz kółko się zamyka: nie było dłuuugo pojedynczej karty do grania w 4K to nie było zalewu monitorów. Ale skoro te karty wchodzą to wejdą i monitory. Entuzjaści już za optymalizację tej półki zapłacili, Pora by zawitała do mainstream.


Oczywiście masz rację, ja tylko o rozmiarze pamięci pisałem.
Ech, wszyscy o tych entuzjastach piszą jakby tylko oni sprzęt kupowali, podczas gdy stanowią znikomą część rynku. Monitory 4k wśród graczy to globalnie nadal poniżej 1% i w ostatnim miesiącu przybyło ich o 0.04% :) Ale masz rację, że kiedyś z pewnością to się zmieni, tylko zanim to nastąpi to przeleci wiele generacji kart. Dlatego nowe HDMI i nowy DisplayPort są dla większości użytkowników marginalnie ważne. Prawda że telewizory są dużo szybsze (najlepsze 4K to 20-30ms) ale do "szybkich" 9ms w FHD jeszcze im sporo brakuje - a to przy wyższych częstotliwościach odświeżania przestaje się chować w 16ms okienkach 60hz ekranu.
Dobre źródło informacji i baza danych monitorów/telewizorów - displaylag.com/display-database/
Jedyne co mnie kusi to HDR bo wygląda ślicznie ale inwestycja 10k złociszy mi się nie uśmiecha.
Portret użytkownika Zeneko
Reputacja
80
#
Dobry monitor dla grafika to zawsze było od 8kzł w górę, dobry dla CADów trochę taniej 4-5kzł.

Swego czasu kupiłem TV na bazie tej listy do gier właśnie wybierając najniższy możliwy IL jaki istniał.
Portret użytkownika mbe
Reputacja
4366
#

kainan, śr., 10/05/2017 21:37 #

Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6

Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.
Portret użytkownika Huriken
Reputacja
970
#

mbe, śr., 10/05/2017 22:03 #

kainan, śr., 10/05/2017 21:37 #

Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6

Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.

:) :) :) Ty to potrafisz śmieszkowac jak mało kto. Teksty na poziomie pana Labovskiego. Czas przełknąć gorzka pigułę, że nVIDIA jest nie jedną, a dwie długości przed AMD które tak bardzo ubóstwiasz. Zero obiektywizmu, zero.
Portret użytkownika mbe
Reputacja
4366
#

Huriken, śr., 10/05/2017 22:06 #

mbe, śr., 10/05/2017 22:03 #

kainan, śr., 10/05/2017 21:37 #

Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6

Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.

:) :) :) Ty to potrafisz śmieszkowac jak mało kto. Teksty na poziomie pana Labovskiego. Czas przełknąć gorzka pigułę, że nVIDIA jest nie jedną, a dwie długości przed AMD które tak bardzo ubóstwiasz. Zero obiektywizmu, zero.

Więc trochę liczb:
P100
3584Cuda 1328MHz-1480MHz 9.6TFlops (10.6TFlops NVlink)

V100
5120Cuda czyli 42% więcej
1450MHz
15TFlops (zakładam że to wartość przy użyciu NVlink ale porównam do wersji PCIe) czyli 57% więcej.

Wynika z tego ze zegar w zegar wydajność wzrosła o ok 10% przy takiej samej ilości Cuda.

Fakt jest taki że zwiększyła się wydajność na mm* i tu nie ma co się kłócić.
Portret użytkownika mat9v
Reputacja
30169
#

mbe, śr., 10/05/2017 22:26 #

Huriken, śr., 10/05/2017 22:06 #

mbe, śr., 10/05/2017 22:03 #


Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.

:) :) :) Ty to potrafisz śmieszkowac jak mało kto. Teksty na poziomie pana Labovskiego. Czas przełknąć gorzka pigułę, że nVIDIA jest nie jedną, a dwie długości przed AMD które tak bardzo ubóstwiasz. Zero obiektywizmu, zero.

Więc trochę liczb:
P100
3584Cuda 1328MHz-1480MHz 9.6TFlops (10.6TFlops NVlink)

V100
5120Cuda czyli 42% więcej
1450MHz
15TFlops


videocardz.com/69378/nvidia-announces-tesla-v100-with-5120-cuda-cores
Tutaj jest fajna tabelka ze szczegółami, według niej wydajność Tesli P100 jest 10.6Tflops (NVlink nic do tego nie ma AFAIK) i wydajność tych kart jest ściśle zależna od ilości SP i zegara - po znormalizowaniu o zegar wzrost wydajności to 2.6%.
Portret użytkownika Michaelius
Reputacja
11095
#

mbe, śr., 10/05/2017 22:26 #



Wynika z tego ze zegar w zegar wydajność wzrosła o ok 10% przy takiej samej ilości Cuda.

Fakt jest taki że zwiększyła się wydajność na mm* i tu nie ma co się kłócić.


Jeśli taktowanie kart konsumenckich będzie na poziomie Pascalowego to duża Volta może mieć ok 20TFlopów.
Portret użytkownika mbe
Reputacja
4366
#

Michaelius, czw., 11/05/2017 00:11 #

mbe, śr., 10/05/2017 22:26 #



Wynika z tego ze zegar w zegar wydajność wzrosła o ok 10% przy takiej samej ilości Cuda.

Fakt jest taki że zwiększyła się wydajność na mm* i tu nie ma co się kłócić.


Jeśli taktowanie kart konsumenckich będzie na poziomie Pascalowego to duża Volta może mieć ok 20TFlopów.

Jak żeś to wyliczył??
Portret użytkownika Michaelius
Reputacja
11095
#

mbe, czw., 11/05/2017 06:40 #

Michaelius, czw., 11/05/2017 00:11 #

mbe, śr., 10/05/2017 22:26 #



Wynika z tego ze zegar w zegar wydajność wzrosła o ok 10% przy takiej samej ilości Cuda.

Fakt jest taki że zwiększyła się wydajność na mm* i tu nie ma co się kłócić.


Jeśli taktowanie kart konsumenckich będzie na poziomie Pascalowego to duża Volta może mieć ok 20TFlopów.

Jak żeś to wyliczył??


Korzystając z twojego wyliczenia:

V100
5120Cuda czyli 42% więcej
1450MHz
15TFlops

Zgaduję, że konsumenckie GV102 będzie miało liczbę sp identyczną jak GV100, więc skoro przy 1450 Mhz - jest 15TF to przy 2000 MHz wychodzi koło 20.
Portret użytkownika mbe
Reputacja
4366
#

Michaelius, czw., 11/05/2017 10:05 #

mbe, czw., 11/05/2017 06:40 #

Michaelius, czw., 11/05/2017 00:11 #



Jeśli taktowanie kart konsumenckich będzie na poziomie Pascalowego to duża Volta może mieć ok 20TFlopów.

Jak żeś to wyliczył??


Korzystając z twojego wyliczenia:

V100
5120Cuda czyli 42% więcej
1450MHz
15TFlops

Zgaduję, że konsumenckie GV102 będzie miało liczbę sp identyczną jak GV100, więc skoro przy 1450 Mhz - jest 15TF to przy 2000 MHz wychodzi koło 20.

A czy GP102 ma więcej TFlops jak GP100 pomimo wyższych zegarów??
Portret użytkownika Michaelius
Reputacja
11095
#

mbe, czw., 11/05/2017 10:14 #

Michaelius, czw., 11/05/2017 10:05 #

mbe, czw., 11/05/2017 06:40 #


Jak żeś to wyliczył??


Korzystając z twojego wyliczenia:

V100
5120Cuda czyli 42% więcej
1450MHz
15TFlops

Zgaduję, że konsumenckie GV102 będzie miało liczbę sp identyczną jak GV100, więc skoro przy 1450 Mhz - jest 15TF to przy 2000 MHz wychodzi koło 20.

A czy GP102 ma więcej TFlops jak GP100 pomimo wyższych zegarów??


Owszem ma

anandtech.com/show/11172/nvidia-unveils-geforce-gtx-1080-ti-next-week-699

nawet pocięty do ti ma 11.3 przy oficjalnie liczonym booście

Nowy Tytan z pełnym rdzeniem 12TF

blogs.nvidia.com/blog/2017/04/06/titan-xp/
Portret użytkownika mat9v
Reputacja
30169
#

Michaelius, czw., 11/05/2017 00:11 #

mbe, śr., 10/05/2017 22:26 #



Wynika z tego ze zegar w zegar wydajność wzrosła o ok 10% przy takiej samej ilości Cuda.

Fakt jest taki że zwiększyła się wydajność na mm* i tu nie ma co się kłócić.


Jeśli taktowanie kart konsumenckich będzie na poziomie Pascalowego to duża Volta może mieć ok 20TFlopów.

W mokrych snach :)
Żadna Volta konsumencka nie będzie miała na starcie wydajności choćby zbliżonej do Tesli. Może wersja Ti albo Xv się zbliżą ale to pod koniec przyszłego roku :)
Portret użytkownika Michaelius
Reputacja
11095
#
No przecież napisałem, że duża volta czyli GV102.
Portret użytkownika Zeneko
Reputacja
80
#
Dlaczego nie? W pojedyńczej precyzji?

W podwójnej lub w DL to nie ma szans... tutaj zgoda...
Portret użytkownika mat9v
Reputacja
30169
#

Zeneko, czw., 11/05/2017 10:36 #

Dlaczego nie? W pojedyńczej precyzji?

W podwójnej lub w DL to nie ma szans... tutaj zgoda...


Eh? A do czego ci w grach pojedyncza precyzja? Przydaje się tylko w obliczeniach naukowych.
Równie dobrze możesz napisać że Vega na starcie będzie miała 25Tflops wydajności...

@Michaelius - to teraz wydajność podajemy z uwzględnieniem boosta? To już lepiej podawać z konkretnym OC bo boost rzecz zmienna, raz większy raz mniejszy i zależny od programu, egzemplarza karty, producenta i nawet temperatury w komputerze. Duża Volta jeśli pójdzie w ślady Pascala będzie miała faktycznie wydajność Tesli (V) ale pojawi się conajmniej pół roku po premierze xx80 czyli za ponad rok - trochę zbyt długi horyzont jak dla mnie do gdybania.
Portret użytkownika Sevard85
Reputacja
16738
#

mat9v, czw., 11/05/2017 17:30 #

Eh? A do czego ci w grach pojedyncza precyzja? Przydaje się tylko w obliczeniach naukowych.

Większość obliczeń w grach jest wykonywana z pojedynczą precyzją. Większa precyzja nie jest zazwyczaj potrzebna. Mniejszej nie wspierały dotychczasowe karty, a i DX11 tego nie wspierał.
Nowe API dodają poprawną obsługę połówkowej precyzji i w grach może dać to sporego boosta jeśli chodzi o wydajność.
Portret użytkownika mat9v
Reputacja
30169
#

Sevard85, czw., 11/05/2017 17:39 #

mat9v, czw., 11/05/2017 17:30 #

Eh? A do czego ci w grach pojedyncza precyzja? Przydaje się tylko w obliczeniach naukowych.

Większość obliczeń w grach jest wykonywana z pojedynczą precyzją. Większa precyzja nie jest zazwyczaj potrzebna. Mniejszej nie wspierały dotychczasowe karty, a i DX11 tego nie wspierał.
Nowe API dodają poprawną obsługę połówkowej precyzji i w grach może dać to sporego boosta jeśli chodzi o wydajność.


Nom, masz oczywiście rację, myślałem o FP16.
Volta xx80 na starcie będzie miała, jak dobrze pójdzie, wydajność 30%-40% wyższą od 1080, muszą sobie przecież zostawić miejsce na wersję Ti i XPv :) które ukażą się odpowiednio jakieś pół roku po premierze podstawowej wersji. Jeśli jak zapowiada Micron pamięci do xx80 pojawią się na początku 2018 roku to Ti zjawi się w 2 połowie roku, czyli ponad rok od chwili obecnej. Poddaję się w temacie gdybania :)
Portret użytkownika Grave
Reputacja
3113
#

mbe, śr., 10/05/2017 22:03 #

kainan, śr., 10/05/2017 21:37 #

Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6

Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.


Bo tu nie chodzi o to, żeby "nabić flopsy" jak najmniejszą liczbą tranzystorów (w tym mistrzami były Radeony generacji VLIW) tylko żeby tę moc jak najefektywniej wykorzystać.
Portret użytkownika zriel
Reputacja
4063
#

Grave, śr., 10/05/2017 22:11 #

mbe, śr., 10/05/2017 22:03 #

kainan, śr., 10/05/2017 21:37 #

Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6

Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.


Bo tu nie chodzi o to, żeby "nabić flopsy" jak najmniejszą liczbą tranzystorów (w tym mistrzami były Radeony generacji VLIW) tylko żeby tę moc jak najefektywniej wykorzystać.


I dlatego Pascale również nie dostały sprzętowego Async Compute :)
Portret użytkownika mat9v
Reputacja
30169
#

mbe, śr., 10/05/2017 22:03 #

kainan, śr., 10/05/2017 21:37 #

Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6

Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.


Dokładnie, żadnej optymizacji architektury nie ma. Różnica w wydajności pochodzi wyłącznie ze zwiększenia ilości SP (w granicach kilku %). Dla graczy oznacza to że można oczekiwać wzrostu wydajności kosztem większego rdzenia, o ile dokładnie to trudno powiedzieć bo jeżeli w rdzeniach nie będą obecne Tensor Cores a tylko wzrośnie ilość SP to różnica nie będzie duża, jeśli będą klepać tylko uniwersalne rdzenie i wyłączać to będzie rdzeń większy. Nie wiadomo ile przejście na mniejszy proces technologiczny da jeśli chodzi o możliwość podkręcania, o ile wzrosną zegary bazowe. Na razie wygląda na to, że mniejszy proces dał około 40% zmniejszenie poboru energii co jest bardzo miłą wiadomością (bo przy stałym zużyciu wzrosła ilość SP przy zachowanym zegarze).
Nic nie wspomnieli o graczach a dostępność profesjonalnej Volty zapowiedzieli na 3 kwartał (zadzwoń, zamów teraz podczas premiery, dostaniesz w 3 kwartale), ale nie mają problemu z pamięciami bo HBM2 jest dostępne. Nie wiadomo jak będzie z GDDR6, poczekamy zobaczymy.
Portret użytkownika blasph
Reputacja
6752
#
Hynix na konferencji podał że gddr6 beda dostepne najwczesniej w 1 kwartale 2018
Portret użytkownika mat9v
Reputacja
30169
#

blasph, śr., 10/05/2017 22:48 #

Hynix na konferencji podał że gddr6 beda dostepne najwczesniej w 1 kwartale 2018


Na tej co zaprezentowali ten wafelek z GDDR6? Jeśli tak to ta informacja mi umknęła :(
A to bardzo wiele by zmieniało, bo Volta dla graczy miałaby premierę stosunkowo znacznie później niż Vega dla graczy miała względem Vegi dla biznesu.
Portret użytkownika mbe
Reputacja
4366
#

mat9v, śr., 10/05/2017 22:46 #

mbe, śr., 10/05/2017 22:03 #

kainan, śr., 10/05/2017 21:37 #

Zanosi sie ze Volta będzie miała dobrego kopa względem Pascala:)Chętnie bym przygarnal następcę gtx 1070 .Przypuszczam że to może być Gtx 2070 12-16 GB GDDR6

Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.


Dokładnie, żadnej optymizacji architektury nie ma. Różnica w wydajności pochodzi wyłącznie ze zwiększenia ilości SP (w granicach kilku %). Dla graczy oznacza to że można oczekiwać wzrostu wydajności kosztem większego rdzenia, o ile dokładnie to trudno powiedzieć bo jeżeli w rdzeniach nie będą obecne Tensor Cores a tylko wzrośnie ilość SP to różnica nie będzie duża, jeśli będą klepać tylko uniwersalne rdzenie i wyłączać to będzie rdzeń większy. Nie wiadomo ile przejście na mniejszy proces technologiczny da jeśli chodzi o możliwość podkręcania, o ile wzrosną zegary bazowe. Na razie wygląda na to, że mniejszy proces dał około 40% zmniejszenie poboru energii co jest bardzo miłą wiadomością (bo przy stałym zużyciu wzrosła ilość SP przy zachowanym zegarze).
Nic nie wspomnieli o graczach a dostępność profesjonalnej Volty zapowiedzieli na 3 kwartał (zadzwoń, zamów teraz podczas premiery, dostaniesz w 3 kwartale), ale nie mają problemu z pamięciami bo HBM2 jest dostępne. Nie wiadomo jak będzie z GDDR6, poczekamy zobaczymy.

To nie jest mniejsza litografia a ulepszone 16nm ff
Portret użytkownika mat9v
Reputacja
30169
#

mbe, śr., 10/05/2017 22:50 #

mat9v, śr., 10/05/2017 22:46 #

mbe, śr., 10/05/2017 22:03 #


Patrząc na powierzchnię rdzenie i Flops-y to szału nie ma.


Dokładnie, żadnej optymizacji architektury nie ma. Różnica w wydajności pochodzi wyłącznie ze zwiększenia ilości SP (w granicach kilku %). Dla graczy oznacza to że można oczekiwać wzrostu wydajności kosztem większego rdzenia, o ile dokładnie to trudno powiedzieć bo jeżeli w rdzeniach nie będą obecne Tensor Cores a tylko wzrośnie ilość SP to różnica nie będzie duża, jeśli będą klepać tylko uniwersalne rdzenie i wyłączać to będzie rdzeń większy. Nie wiadomo ile przejście na mniejszy proces technologiczny da jeśli chodzi o możliwość podkręcania, o ile wzrosną zegary bazowe. Na razie wygląda na to, że mniejszy proces dał około 40% zmniejszenie poboru energii co jest bardzo miłą wiadomością (bo przy stałym zużyciu wzrosła ilość SP przy zachowanym zegarze).
Nic nie wspomnieli o graczach a dostępność profesjonalnej Volty zapowiedzieli na 3 kwartał (zadzwoń, zamów teraz podczas premiery, dostaniesz w 3 kwartale), ale nie mają problemu z pamięciami bo HBM2 jest dostępne. Nie wiadomo jak będzie z GDDR6, poczekamy zobaczymy.

To nie jest mniejsza litografia a ulepszone 16nm ff


Reklamują to jako 12nm. Chyba nie sugerujesz że to takie oszustko dla gawiedzi, co?
Portret użytkownika mbe
Reputacja
4366
#

mat9v, śr., 10/05/2017 23:12 #

mbe, śr., 10/05/2017 22:50 #

mat9v, śr., 10/05/2017 22:46 #



Dokładnie, żadnej optymizacji architektury nie ma. Różnica w wydajności pochodzi wyłącznie ze zwiększenia ilości SP (w granicach kilku %). Dla graczy oznacza to że można oczekiwać wzrostu wydajności kosztem większego rdzenia, o ile dokładnie to trudno powiedzieć bo jeżeli w rdzeniach nie będą obecne Tensor Cores a tylko wzrośnie ilość SP to różnica nie będzie duża, jeśli będą klepać tylko uniwersalne rdzenie i wyłączać to będzie rdzeń większy. Nie wiadomo ile przejście na mniejszy proces technologiczny da jeśli chodzi o możliwość podkręcania, o ile wzrosną zegary bazowe. Na razie wygląda na to, że mniejszy proces dał około 40% zmniejszenie poboru energii co jest bardzo miłą wiadomością (bo przy stałym zużyciu wzrosła ilość SP przy zachowanym zegarze).
Nic nie wspomnieli o graczach a dostępność profesjonalnej Volty zapowiedzieli na 3 kwartał (zadzwoń, zamów teraz podczas premiery, dostaniesz w 3 kwartale), ale nie mają problemu z pamięciami bo HBM2 jest dostępne. Nie wiadomo jak będzie z GDDR6, poczekamy zobaczymy.

To nie jest mniejsza litografia a ulepszone 16nm ff


Reklamują to jako 12nm. Chyba nie sugerujesz że to takie oszustko dla gawiedzi, co?

Ja nic nie sugeruje tylko stwierdzam fakt.
Portret użytkownika mat9v
Reputacja
30169
#

mbe, śr., 10/05/2017 23:19 #

mat9v, śr., 10/05/2017 23:12 #

mbe, śr., 10/05/2017 22:50 #


To nie jest mniejsza litografia a ulepszone 16nm ff


Reklamują to jako 12nm. Chyba nie sugerujesz że to takie oszustko dla gawiedzi, co?

Ja nic nie sugeruje tylko stwierdzam fakt.


Chyba powinienem był tam dopisać "/s" ale wtedy bym na czerwono popłynął :) i tak tutaj się chyba wszyscy zwolennicy Nvidii zeszli bo nawet za prawdę już dostaję minusy :)
Bardzo im nie pasuje że IPC ani trochę nie wzrasta...
Portret użytkownika Michaelius
Reputacja
11095
#
Po co Nvidia miałby klepać uniwersalne rdzenie ?
Portret użytkownika Zeneko
Reputacja
80
#
Moim zdaniem jest tylko tego w TFLOPS nie widać. Liczę na przebudowany scheduler i przebudowany Dispatch unit, liczę na SM 6.0 z HLSL.
I żeby nie było myślę, że te zmiany we wchodzącej generacji kart są zasługą bliższej współpracy AMD i MS zarówno na płaszczyźnie konsol jak i PC, zaś NV musi się dostosować.

I nie rozumiem sarkazmu w temacie premiery VOLTY. Przecież to tak musi działać. AMD ma wielokrotnie mniejszy budżet R&D od Intela +NV. Więc nie jest w stanie w tym samym tempie, z tą samą dynamiką reagować na oczekiwania rynku i wprowadzać nowe generacje produktów. TEGO SIĘ NIE DA ZROBIĆ. Oczywiście w żadnym razie ani PR ani marketing AMD tego głośno nie powie. Ale tak działa rzeczywistość, to nie komiks Marvel'a

VEGA wyjdzie w Q3 tego roku, jest dostępność będzie odpowiedzią na ssanie z rynku, bo AMD nie może sobie pozwolić na długie zapasy magazynowe. Czyli początkowa dostępność będzie mniejsza niż popyt. Obstawili pełną dostępność dla CPU, rynek nie zareagował tak, jakby chcieli, an drugi strzał nie mają już prochu. To jest niestety, aż tak proste.
Ale może zagwarantują VOLTĄ w końcu DX12.x działające tak, że devom będzie się opłacało w pełni to wspierać jaki wiodący system. Chociaż fakt, że dołożyli vulkan niekoniecznie tutaj pomaga.

A co do NVIDIA, to niech sobie będzie 3.0% przyrostu proporcjonalnego w TFLOPS, ale niech poprawią to co w Pascalach kulało... i tak są w stanie nadgonić zegarem i liczbą jednostek.
Portret użytkownika mat9v
Reputacja
30169
#

Zeneko, czw., 11/05/2017 10:21 #

Moim zdaniem jest tylko tego w TFLOPS nie widać. Liczę na przebudowany scheduler i przebudowany Dispatch unit, liczę na SM 6.0 z HLSL.
I żeby nie było myślę, że te zmiany we wchodzącej generacji kart są zasługą bliższej współpracy AMD i MS zarówno na płaszczyźnie konsol jak i PC, zaś NV musi się dostosować.

I nie rozumiem sarkazmu w temacie premiery VOLTY. Przecież to tak musi działać. AMD ma wielokrotnie mniejszy budżet R&D od Intela +NV. Więc nie jest w stanie w tym samym tempie, z tą samą dynamiką reagować na oczekiwania rynku i wprowadzać nowe generacje produktów. TEGO SIĘ NIE DA ZROBIĆ. Oczywiście w żadnym razie ani PR ani marketing AMD tego głośno nie powie. Ale tak działa rzeczywistość, to nie komiks Marvel'a

VEGA wyjdzie w Q3 tego roku, jest dostępność będzie odpowiedzią na ssanie z rynku, bo AMD nie może sobie pozwolić na długie zapasy magazynowe. Czyli początkowa dostępność będzie mniejsza niż popyt. Obstawili pełną dostępność dla CPU, rynek nie zareagował tak, jakby chcieli, an drugi strzał nie mają już prochu. To jest niestety, aż tak proste.
Ale może zagwarantują VOLTĄ w końcu DX12.x działające tak, że devom będzie się opłacało w pełni to wspierać jaki wiodący system. Chociaż fakt, że dołożyli vulkan niekoniecznie tutaj pomaga.

A co do NVIDIA, to niech sobie będzie 3.0% przyrostu proporcjonalnego w TFLOPS, ale niech poprawią to co w Pascalach kulało... i tak są w stanie nadgonić zegarem i liczbą jednostek.



No przecież nie mogę się wypowiedzieć na temat optymalizacji które nie wpływają na Tflopsy bo to jedyna wartość jaką podała Nvidia (poza organizacją bloków wykonawczych). Wydajność SP zegar w zegar prawie nie wzrosła i tylko tyle napisałem - czyli prawdopodobnie niewiele usprawniono też kontroler pamięci, chociaż kto wie jak teoretyczna wydajność układu przekłada się na rzeczywistą...
Ani trochę sarkastycznie nie podchodzę do dat premiery Volty - no może troszkę się podśmiewam z tych wszystkich zielonoarmistów ;) którzy twardo krzyczeli, że Volta dla graczy jeszcze w tym roku wyjdzie, może nawet w 3 kwartale i Vega nie będzie miała czasu żeby cokolwiek sprzedawać bo Volta od razu ją pokona. Irytuje mnie za to zbieżność w czasie kompletnie papierowej premiery Volty ze spodziewaną premierą Vegi dla graczy, papierowej dlatego że kupić sprzęt nawet ten profesjonalny będzie można dopiero pod koniec 3 kwartału. Chociaż może nie powinienem tak reagować, w końcu AMD Ryzena ogłosiło w grudniu, a sprzedaż ruszyła na początku marca.
BTW, skąd masz info że Vega wyjdzie w Q3? Premiera ma być pod koniec czerwca, sądzisz że dostępność zajmie im następne 3 miesiące w sytuacji gdy od marca sprzedają już wersje profesjonalne Vegi?
Z tego co w statystykach sprzedaży widać i opiniach od klientów to Ryzeny sprzedają się całkiem dobrze, czy poniżej oczekiwań AMD to nie wiadomo i nie wiem czy można taki wniosek wyciągnąć z małej obniżki cen procesorów. kitguru.net/components/cpu/paul-taylor/amds-ryzen-has-not-brought-the-price-wars-we-all-wantedneeded/ - tutaj jest ciekawe porównanie cen procesorów Intel i AMD na przestrzeni ostatnich kilku miesięcy (i więcej w przypadku Intela). Jedyny chyba procesor AMD któremu obniżono oficjalnie cenę to 1800X z 499$ na 469$.
Portret użytkownika Pider
Reputacja
20
#
Dodali rdzenie Tensor, które swoje zajmują.
Portret użytkownika zakius
Reputacja
17419
#
ciekawe czy w ogóle będą w (naj)mniejszych chipach
Portret użytkownika Krukow
Reputacja
209
#
A na koncu konferencji odbyla sie prezentacja pierwszego terminatora z "maczeta" w rece, ktory uczy sie nia wymachiwac :). Holodeck ze star treka tez zostal zaprezentowany w ver 1.0
Portret użytkownika Skubaniec
Reputacja
377
#
Bosze... AMD Vega jeszcze nie wyszła, jak źe pójdzie będzie dostępna pod koniec wakacji w większej ilości, a ci już Voltę pokazują... Nie ma co, mają rozmach...
Portret użytkownika robertsup
Reputacja
6
#
czyli 2070 w czerwcu jak ma byc identycznie jak rok temu?
Portret użytkownika Sebastian Oktaba
Reputacja
36179
#

robertsup, śr., 10/05/2017 21:41 #

czyli 2070 w czerwcu jak ma byc identycznie jak rok temu?

Nie ma na to najmniejszych szans, najwcześniej Q3 i to pewnie bliżej końca. Sporo zależy od kondycji Vegi, ale ta pozostaje wielką niewiadomą, a ostatnie informacje o wydajności i dostępności optymistycznie nie nastrajają.

Co by nie mówić o NVIDII, dobrze przeprowadzają konferencje dając soczysty konkret - tyle a tyle będzie CUDA-sów, tyle i tyle pamięci, takie i siakie taktowania. Dziękuje, piszemy, zamykam temat.
Portret użytkownika robertsup
Reputacja
6
#
dzieki a tak na marginesie ze wgledu na zblizajaca sie premiere x299 mam nadzieje ze dostaniecie sampla cpu 8/16 oprocz topowego modelu bylby bezbosredni wynik do 1800x
Portret użytkownika Pider
Reputacja
20
#
A AMD rozdaje koszulki rok przed premierą xDDD
Portret użytkownika mat9v
Reputacja
30169
#

Sebastian Oktaba, śr., 10/05/2017 21:46 #

robertsup, śr., 10/05/2017 21:41 #

czyli 2070 w czerwcu jak ma byc identycznie jak rok temu?

Nie ma na to najmniejszych szans, najwcześniej Q3 i to pewnie bliżej końca. Sporo zależy od kondycji Vegi, ale ta pozostaje wielką niewiadomą, a ostatnie informacje o wydajności i dostępności optymistycznie nie nastrajają.

Co by nie mówić o NVIDII, dobrze przeprowadzają konferencje dając soczysty konkret - tyle a tyle będzie CUDA-sów, tyle i tyle pamięci, takie i siakie taktowania. Dziękuje, piszemy, zamykam temat.


Absolutnie pięknie poprowadzona konferencja, głośno, wyraźnie ze szczegółami, nawet można by powiedzieć że z "jajem". Gdyby tak wyglądały konferencje AMD to zaufanie klientów do ich technologii wzrosło by niebotycznie :)
Portret użytkownika DjXbeat
Reputacja
1907
#

Sebastian Oktaba, śr., 10/05/2017 21:46 #


Nie ma na to najmniejszych szans, najwcześniej Q3 i to pewnie bliżej końca. Sporo zależy od kondycji Vegi, ale ta pozostaje wielką niewiadomą, a ostatnie informacje o wydajności i dostępności optymistycznie nie nastrajają.

Jen-Hsun Huang zapytany przez jednego z dziennikarzy o to czy "premiera AMD Vega zmieni coś na rynku" jednoznacznie odpowiedział "NIC".
Nie nastraja to optymizmem. :/
Portret użytkownika blasph
Reputacja
6752
#
A co miał innego powiedzieć?:)
Portret użytkownika DjXbeat
Reputacja
1907
#

blasph, czw., 11/05/2017 08:51 #

A co miał innego powiedzieć?:)

Nie chodzi o to co miał powiedzieć ale chodzi o pewność siebie w wypowiedzi.
Nawet Intel, który miał znacznie większą przewagę na procesorami AMD nie wypowiadał się w ten sposób przed premierą Ryzen'a.
Ewidentnie NV wie z jaką wydajnością wyjdzie Vega i po prostu nie mają się czego obawiać stąd taka pewność siebie w wypowiedzi.
Żeby nie było to sam czekam na Vegę bo mam 1440p 144Hz z FreeSync i tutaj przydało by się coś znacznie mocniejszego od RX 480.
Portret użytkownika zriel
Reputacja
4063
#

DjXbeat, czw., 11/05/2017 10:11 #

blasph, czw., 11/05/2017 08:51 #

A co miał innego powiedzieć?:)

Nie chodzi o to co miał powiedzieć ale chodzi o pewność siebie w wypowiedzi.
Nawet Intel, który miał znacznie większą przewagę na procesorami AMD nie wypowiadał się w ten sposób przed premierą Ryzen'a.
Ewidentnie NV wie z jaką wydajnością wyjdzie Vega i po prostu nie mają się czego obawiać stąd taka pewność siebie w wypowiedzi.
Żeby nie było to sam czekam na Vegę bo mam 1440p 144Hz z FreeSync i tutaj przydało by się coś znacznie mocniejszego od RX 480.


Tego typu wypowiedzi u NV to akurat standard. Potra fili się odnieść jeszcze bardziej arogancko nawet do intela. Ale w większej części gość ma rację - nv ma ugruntowaną pozycję na rynku i dobry PR, mają też spore grono swoich "ambasadorów" na youtube i twitchu, że o redaktorach nie wspomnę. Nawet jeśli by karty AMD(zaznaczam "jeśli") okazały się wydajniejsze i bardziej energooszczędne to Nvidia przy tak dominującej pozycji zawsze zdoła "odwrócić kota ogonem", do tego standardowo dzorzuci jakąś promocję, małą obniżkę i pozamiatane.
Portret użytkownika Zeneko
Reputacja
80
#
Naprawdę uważasz, że miał tylko jedną opcję do wyboru? Proszę:

że to się dopiero okaże...

że konkurencja z silną ofertą zawsze wprowadza pewne zmiany w rynku, ale wierzą w moc swojego produktu...

że nie chce spekulować, bo w przeszłości AMD pokazał ukryty potencjał....

Odpowiedź NIC, świadczy o dobrym rozeznaniu co wejdzie i niechęci do kopania leżącego....
I faktycznie źle rokuje...
Portret użytkownika mhojlo
Reputacja
58
#
W czerwcu ale 2018 to będzie identycznie, po co mają wydawać nowe archi rok po roku? Czyżby miała być jakaś konkurencja? :) no i gddr6 dopiero w późnym 2018 przecież...
Portret użytkownika f67
Reputacja
4699
#
Widać Nvidia nie szczypie się i z nadwyżki kasy stawia też sobie nową siedzibę za 370mln$
(a stać ich to kto bogatemu zabroni)

media.bizj.us/view/img/5480991/nvidia-new-corporate-hq-aerial*660xx1024-576-0-54.jpg
Portret użytkownika Zeneko
Reputacja
80
#
ależ oczywiście i należy się cieszyć, spróbuje ściągnąć młode taleny, o które rynek walczy do niekomfortowego lub przestarzałego miejsca pracy...
Portret użytkownika kwasior500
Reputacja
378
#
blogs.nvidia.com/blog/2013/02/20/nvidia-to-build-a-new-home-20-years-after-our-founding/
Portret użytkownika piwo1
Reputacja
1318
#
Tsmc będzie gotowa z procesem 12nm dla każdej wielkosci chipow na Q3 2017. Więc NVIDIA może szykować już nowe karty. Dwa gddr6 też jest już gotowy. Przypomnijcie kiedy GF ma wprowadzić duże chipy w 10nm? 2019 rok? Oj szykuje się kolejny rok nvidii. Cały 2018 już w ciemno obstawiam że NVIDIA będzie mieć chip dla graczy conajmniej 40% szybszy od jakiejkolwiek pojedynczej karty AMD. AMD zostanie segment kart do 2500zl maks a NVIDIA będzie zarabiać krocie na tańszych i droższych kartach za 3500zl. Brawo NVIDIA. Tak to się robi.
Portret użytkownika f67
Reputacja
4699
#

piwo1, śr., 10/05/2017 21:48 #

Przypomnijcie kiedy GF ma wprowadzić duże chipy w 10nm? 2019 rok?

GF porzuca 10nm i chce pod koniec przyszego roku już klepać 7nm i Navi w 7nm, ale wiadomo jak to u nich zawsze z planami, nigdy nie są na czas.
Portret użytkownika piwo1
Reputacja
1318
#
Fakt. Czyli cały rok 2018 NVIDIA bedzie miała tranzystory w 12nm a AMD w 14nm z czego technologie 16nm tsmc i 14gf były porównywalne a mimo to NVIDIA pobierała mniej prądu i miała wyższe takty. 7nm może GF wprowadzi w 2018r dla armow. Ale nie stworzy w tym procesie chipa 600mm2 dość długo. Może pod koniec 2019 im się uda. A tsmc w Q3 2017 będzie klepać układy 800mm2 w 12nm
Portret użytkownika blasph
Reputacja
6752
#
Przestan bredzic, polarisy a takze chipy do 1050ti i 1050 robi jedna fabryka , pobór mocy, takty itp zależy od architektury a nie tego czy klepia ją tsmc czy gf
Portret użytkownika piwo1
Reputacja
1318
#
Co nie zmienia faktu że od Q3 NVIDIA będzie mogła skorzystać z kolejnego bonusu w postaci lepszego procesu dla swoich dużych chipow. Co pozwoli im jeszcze bardziej odskoczyć energetycznie.
Portret użytkownika blasph
Reputacja
6752
#
Marketingowy bełkot, 12 nm to w rzeczywistości ulepszony 16nm
Portret użytkownika tracer123
Reputacja
2950
#
procesory w iphonach robił samsung i tsmc (chyba) ten sam procesor, inny producent, różny pobór prądu.
Portret użytkownika Pider
Reputacja
20
#
Ale marketingowej papki na temat wielkości tranzystora to nie musisz powielać. 12nm, 13nm, 13nm. Co za różnica? To jest praktycznie to samo.
Portret użytkownika mhojlo
Reputacja
58
#
Gddr 6 nie jest gotowy i do 2018 nie będzie, przecież sam hynix powiedział...
Portret użytkownika kojak_ct
Reputacja
16
#
Tak to się robi z punktu widzenia biznesowego a z punktu widzenia użytkownika tylko idiota się cieszy bo w 2019 roku top będzie za 5000zł. Ehh. NVIDIA umie sobie wychować pokolenie konsumentów.

Dawno temu KNŻ stworzył kawałek Konsument- by nie myślał ale działał jak instrument.

Właśnie to dziś obserwuję :(
Portret użytkownika mat9v
Reputacja
30169
#

kojak_ct, śr., 10/05/2017 22:28 #

Tak to się robi z punktu widzenia biznesowego a z punktu widzenia użytkownika tylko idiota się cieszy bo w 2019 roku top będzie za 5000zł. Ehh. NVIDIA umie sobie wychować pokolenie konsumentów.

Dawno temu KNŻ stworzył kawałek Konsument- by nie myślał ale działał jak instrument.

Właśnie to dziś obserwuję :(

Dobre czasy były, szkoda że teraz Kazik nie ma już tak ciętego języka. Spalam się i Spalaj się to były pierwsze płyty które na CD kupiłem :)
Portret użytkownika faldżip
Reputacja
3439
#

kojak_ct, śr., 10/05/2017 22:28 #

Tak to się robi z punktu widzenia biznesowego a z punktu widzenia użytkownika tylko idiota się cieszy bo w 2019 roku top będzie za 5000zł. Ehh. NVIDIA umie sobie wychować pokolenie konsumentów.

Dawno temu KNŻ stworzył kawałek Konsument- by nie myślał ale działał jak instrument.

Właśnie to dziś obserwuję :(

Właśnie niedawno się zastanawiałem dokąd ten świat zmierza? Produkuje się coraz więcej, kupuje się coraz wiecej i szybciej się to wyrzuca i kupuje nowe, bo robi się coraz większy badziew, bo producenci chcą zarobić. A konsumenci nauczeni są, że wszystko musi być szybko na teraz i kolejne i kolejne. Zastanawiam się czy utoniemy w morzu śmieci jeszcze za mojego pokolenia czy spotkanie dopiero moje dzieci... Smutne to. Pracuje jako programista i razem z kumplem programista dyskutowaliśmy, że on stracił wiarę w to co robi, bo on marzy o tym żeby robić dobrze ale nikt tego nie chce. Pracodawcy chcą szybko i byle jak, bo sprzedawcy naobiecywali gruszki na wierzbie i to na wczoraj (i dostali za to premie). Inna branża - ostatnio słyszałem opinie jednego mechanika, że ceny używanych samochodów rosną m.in. dlatego, że teraz produkuje się taki badziew, że strach to kupować.
Portret użytkownika kojak_ct
Reputacja
16
#
Wiem to bo akurat siedzę w branży mechaniki i elektroniki samochodowej. Strach pomyśleć co będzie dalej. :(
Portret użytkownika Zeneko
Reputacja
80
#

kojak_ct, śr., 10/05/2017 22:28 #

Tak to się robi z punktu widzenia biznesowego a z punktu widzenia użytkownika tylko idiota się cieszy bo w 2019 roku top będzie za 5000zł. Ehh. NVIDIA umie sobie wychować pokolenie konsumentów.

Dawno temu KNŻ stworzył kawałek Konsument- by nie myślał ale działał jak instrument.

Właśnie to dziś obserwuję :(


No na coś się trzeba zdecydować:
- albo oczekujemy produktu, które starczy na 10 lat, albo postępu; Nie zamierzam tłumaczyć czemu to się wzajemnie wyklucza;
- albo oczekujemy przełomowych technologii i gwałtownej strzałki wzrostu, albo niskich cen topowych konstrukcji i znów nie zamierzam tłumaczyć dlaczego to się wzajemnie wyklucza;

- podobnie jest z oprogramowaniem, szczególnie w przypadku dużych rozległych światów gier. Albo władamy kasę i czas w optymalizację albo zrzucamy na to szybki sprzęt.

Wszystko jest swojego rodzaju balansem i kompromisem.

A za wychowanie odpowiada rodzina i edukacja i kształtowany przez wiele czynników aparat świadomego podejmowanie decyzji, a nie jedna czy druga firma.

Ja rozumiem, że jeśli kogoś było stać na TOP wczoraj a już wie, że nie będzie go stać jutro, to rodzi to frustrację. Ale takiej porażki nie należy przypisywać tym których jutro będzie stać, najwyraźniej oni potrafili się osiągnąć założony cel. Sugeruje raczej szczerze odpowiedzieć sobie na pytanie co poszło nie tak, że samemu jest się w innym punkcie i co można z tym w przyszłości zrobić. Koncentrowanie się na innych jakości własnego życia nie zmieni.

Mnie jest obojętne czy nowy TITAN będzie kosztował 4000zł czy 5000zł, czy 6000zł i tak za to zapłacą odbiorcy projektów..., ani się nie cieszę ani nie płaczę. I nie zamierzam tracić energii na próby korygowana polityki cenowej wielkich korporacji, lub próby zmiany zachować społecznych iluś tam milionów konsumentów, nie od tego zależy moja i moich dzieci jakość życia.

Równie dobrze można napisać, że znów grono życiowych idiotów będzie narzekać na ceny, przez pryzmat swojego nieudacznictwa. Jest to tak samo grzeczne i prawdzie jak Twoja wypowiedź.

Każdego na coś stać i na coś nie, ciekawe, że dobie gospodarki rynkowej dalej to tak trudno pojąć.
Portret użytkownika mat9v
Reputacja
30169
#

piwo1, śr., 10/05/2017 21:48 #

Tsmc będzie gotowa z procesem 12nm dla każdej wielkosci chipow na Q3 2017. Więc NVIDIA może szykować już nowe karty. Dwa gddr6 też jest już gotowy. Przypomnijcie kiedy GF ma wprowadzić duże chipy w 10nm? 2019 rok? Oj szykuje się kolejny rok nvidii. Cały 2018 już w ciemno obstawiam że NVIDIA będzie mieć chip dla graczy conajmniej 40% szybszy od jakiejkolwiek pojedynczej karty AMD. AMD zostanie segment kart do 2500zl maks a NVIDIA będzie zarabiać krocie na tańszych i droższych kartach za 3500zl. Brawo NVIDIA. Tak to się robi.


Pierwszy wafelek z GDDR6 wiosny nie czyni, od tego punktu wiele miesięcy upłynie zanim pamięci wejdą do seryjnej produkcji. Nie bez powodu planowali premierę na 1-2 kwartał przyszłego roku, przyspieszyli ją pod naciskiem Nvidii ale takie przyspieszenie też ma swoje ograniczenia i konsekwencje (jak choćby dopracowanie produktu). Od tych miesięcy jeszcze trochę aż trafią do kart a te na półki sklepowe. Obstawiam 4 kwartał na gwiazdkę.
Portret użytkownika Michaelius
Reputacja
11095
#
GDDR6 mogą dać tylko do 80tki a 70ka dostanie 5X przykładowo.
Portret użytkownika Zeneko
Reputacja
80
#
nie jestem przekonany pomiędzy GDDR6 a GDDR5x są większe różnice, wystarczy, że mają kontroler który może obsłużyć GDDR6 lud HDM2, dorzucenie kolejnego typu pamięci może się okazać za trudne do realizacji
Portret użytkownika mat9v
Reputacja
30169
#

Michaelius, czw., 11/05/2017 00:46 #

GDDR6 mogą dać tylko do 80tki a 70ka dostanie 5X przykładowo.


Zależy od tego czy kontroler pamięci by GDDR5X obsługiwał, w takiej sytuacji musieli by marnować miejsce na uniwersalny kontroler dla 5X i 6 albo robić różne chipy dla xx80 i xx70 zamiast ładować jeden gatunek i przycinać te które są częściowo uszkodzone - bardzo nieekonomiczne podejście.
Portret użytkownika Zeneko
Reputacja
80
#
Jestem prawie pewien, że szykują się na październik/ listopad. Pytanie od czego zaczną.
Niestety jak widać strategia 1080 / 1070 first, trochę potem false Titan (pewnie z wafli o parametrach nie do końca spełniających oczekiwania rynku PRO), a dopiero w drugim rzucie Ti i Titan prawie pełen, jest niepokojąco skuteczna....

Ponieważ to może się bezboleśnie udać tylko za pierwszym razem to może teraz będzie inaczej....
Portret użytkownika mat9v
Reputacja
30169
#

Zeneko, czw., 11/05/2017 10:01 #

Jestem prawie pewien, że szykują się na październik/ listopad. Pytanie od czego zaczną.
Niestety jak widać strategia 1080 / 1070 first, trochę potem false Titan (pewnie z wafli o parametrach nie do końca spełniających oczekiwania rynku PRO), a dopiero w drugim rzucie Ti i Titan prawie pełen, jest niepokojąco skuteczna....

Ponieważ to może się bezboleśnie udać tylko za pierwszym razem to może teraz będzie inaczej....


Jak mają się szykować jeśli Micron stwierdził że pamięci będą w końcu tego roku albo w przyszłym roku? No chyba że to był fejk z tą informacją o GDDR6...
SK Hynix potwierdził produkcję GDDR6 na początek przyszłego roku na GTC2017.
Portret użytkownika Zeneko
Reputacja
80
#
Zobaczymy. Może tym razem zaczną od grubego Titana. Z puntku widzenia studzenia inwestorów, 1Q2018 jest lepszą opcją na rynku SOHO.

Ale inwestorzy też swoje prawa mają.... i mogą wywierać presję by wyniki 2017 były tak dobre jak 2016, a tego bez nowych kart przed świętami się osiągnie....
Portret użytkownika mat9v
Reputacja
30169
#

Zeneko, pt., 12/05/2017 09:00 #

Zobaczymy. Może tym razem zaczną od grubego Titana. Z puntku widzenia studzenia inwestorów, 1Q2018 jest lepszą opcją na rynku SOHO.

Ale inwestorzy też swoje prawa mają.... i mogą wywierać presję by wyniki 2017 były tak dobre jak 2016, a tego bez nowych kart przed świętami się osiągnie....


Gdyby Nvidia miała wolną rękę w decydowaniu kiedy karty wyda to tak, inwestorzy mogliby naciskać.
Jeśli nie będą mieli pamięci do wydania kart to żadni inwestorzy nic nie zrobią. A na dostępność pamięci w tym roku się nie zanosi.
Jaki to smuteczek, że Nvidia cierpi teraz z tego samego powodu co Vega, z braku dostępnych pamięci na rynku - takie są efekty surfowania po fali innowacji technologicznych :)
Portret użytkownika cincinek
Reputacja
9667
#
(komentarz skasowany)
Portret użytkownika Zetar
Reputacja
853
#
Pilnują żeby nikt im się nie wepchnął do kolejki. Większość pewnie już biwakuje pod magazynem dystrybutora, żeby załapać się na te kilkanaście sztuk które trafi na polski rynek ;)
Portret użytkownika Gosu
Reputacja
6043
#
Oczekują z wyczekiwanien by czekać na dalsze wyczekiwanie ;)
Portret użytkownika f67
Reputacja
4699
#
Mistrzowski sarkazm...
Portret użytkownika Pider
Reputacja
20
#
To nie był sarkazm tylko smutna prawda.
Portret użytkownika Letho1985
Reputacja
4623
#
Ja czekam ;)
Jeszcze miesiąc...
P.S.
W sumie tak pisałem miesiąc temu;)
Ale najważniejsze bym za miesiąc nie musiał się po raz kolejny powtarzać;)
Portret użytkownika GregWPR
Reputacja
463
#
Jak w tym dowcipie:

"Żona do męża: - Stary, kiedy w końcu przykręcisz mi te drzwiczki do szafki w kuchni?
Mąż; - Coś Ty taka nerwowa, Halina? Przecież nie musisz mi co pół roku przypominać!"

Niech ta Vega już wyjdzie. Ceny 1080 pewnie jeszcze spadną i wtedy będzie czas na wymianę wysłużonej 970.
Portret użytkownika Zeneko
Reputacja
80
#
Nie sądze by ceny 1080 spadły, spadną po premierze VOLTY w akcie czyszczenia magazynów...
Portret użytkownika Zgreed66
Reputacja
6119
#
Chyba raczej poczekam ze zmianą karty do momentu, aż zejdą do 7nm i przemęczę to co mam :)
Portret użytkownika Blejd
Reputacja
515
#
Ok to ja czekam na Volte Ti :)
Portret użytkownika robertsup
Reputacja
6
#
bedzie ciekawie premiera vegi cena 1070 -300 (jesli nie u nas to w de)
premiera volty ceny 1070 w dol czy wycofanie z rynku?

palit kalmx 2050 ti 6-8 gb idealny pod itx
Portret użytkownika Grave
Reputacja
3113
#
Volta do gier to dopiero 2018.

A Vega nie jest żadną konkurencją dla Volty, bo prawdopodobnie nawet z topowym Pascalem sobie nie poradzi.
Portret użytkownika robertsup
Reputacja
6
#
a gdzie ja pisalem o obnizce ceny topowych paskali? pisze o 1070 bo 1060 do pracy w 4k zaslaby a i ramu malo
a vega o wydajnosci 1070 do gwarancja obnizki ceny przez zielonych co jak co ale ksiegowych to maja dobrych
Portret użytkownika Zeneko
Reputacja
80
#
a ja myślę, że jest niekoniecznie... może być 4Q2017
Portret użytkownika Alcedo
Reputacja
3404
#
Moc będzie na pewno, tylko cena ściśnie pewnie za gardło i portfel.
Portret użytkownika hexon6
Reputacja
46
#
Ciekawe jak z ceną, bo raczej dwie nerki nie wystarczą? Z 30000zł może być mało.
Portret użytkownika niezarejestrowany
Reputacja
48830
#

hexon6, śr., 10/05/2017 22:24 #

Ciekawe jak z ceną, bo raczej dwie nerki nie wystarczą? Z 30000zł może być mało.

Nie no 100 000 zł to będzie za gtx 2060 :). Bo wiesz monopol spowoduje takie windowanie cen......(sarkazm off).
Portret użytkownika hexon6
Reputacja
46
#

Bielu, śr., 10/05/2017 22:26 #

hexon6, śr., 10/05/2017 22:24 #

Ciekawe jak z ceną, bo raczej dwie nerki nie wystarczą? Z 30000zł może być mało.

Nie no 100 000 zł to będzie za gtx 2060 :). Bo wiesz monopol spowoduje takie windowanie cen......(sarkazm off).


[ziew]
Portret użytkownika niezarejestrowany
Reputacja
48830
#

hexon6, śr., 10/05/2017 22:29 #

Bielu, śr., 10/05/2017 22:26 #

hexon6, śr., 10/05/2017 22:24 #

Ciekawe jak z ceną, bo raczej dwie nerki nie wystarczą? Z 30000zł może być mało.

Nie no 100 000 zł to będzie za gtx 2060 :). Bo wiesz monopol spowoduje takie windowanie cen......(sarkazm off).


[ziew]

Właśnie do tego punktu zamierzałem :)
Portret użytkownika mbe
Reputacja
4366
#

Bielu, śr., 10/05/2017 22:26 #

hexon6, śr., 10/05/2017 22:24 #

Ciekawe jak z ceną, bo raczej dwie nerki nie wystarczą? Z 30000zł może być mało.

Nie no 100 000 zł to będzie za gtx 2060 :). Bo wiesz monopol spowoduje takie windowanie cen......(sarkazm off).

Nie wiem czy jesteś tego świadom ale P100 ociera się o 30k pln...
Portret użytkownika niezarejestrowany
Reputacja
48830
#
Przecież wiadomo, że rozwiązania serwerowe są odpowiednio droższe. Więc nie wiem czemu się dziwisz taką ceną.
Portret użytkownika Bull3tproof
Reputacja
2481
#
Obawiam się, że to nie jest produkt dla Ciebie. Równie dobrze możesz wejść na stronę z newsem o nowym modelu Bugatti i napisać: "Ciekawe jak z ceną, pewnie 10 mln złotych będzie mało. Trzeba by sprzedać 100 ludzi na części".
Portret użytkownika siwyak
Reputacja
27
#
Hexon tak ma, że interesują go rzeczy, na które i tak go nie stać i których nie zamierza nawet kupić.
Portret użytkownika Zeneko
Reputacja
80
#
na rynku pro skala "podwyżki" to 15%. Czyli nie jest źle. Ciekawe do będzie dla Entertainment...
Portret użytkownika Pider
Reputacja
20
#
Wow. Nvidia się nie opierdala w przeciwieństwie do konkurencji.
Portret użytkownika CzystyGAMING
Reputacja
11634
#
Trafnie ujęte.
Portret użytkownika CzystyGAMING
Reputacja
11634
#
R.I.P. AMD :P
Dla nich niespełnione marzenie to dogonić 1080Ti, no powodzenia -.-
Jak za rok wypuszczą Titana z 5120/320/128 to przybiją AMD do ściany.

AMD powraca na rynek CPU (wreszcie!!) i ginie na rynku GPU, no to co panowie, za dwa lata GTX 3050Ti za 1000zł a GTX 3060 za 1600 :)
Portret użytkownika Komentator_PPC
Reputacja
1819
#

CzystyGAMING, śr., 10/05/2017 23:57 #

AMD powraca na rynek CPU (wreszcie!!) i ginie na rynku GPU, no to co panowie, za dwa lata GTX 3050Ti za 1000zł a GTX 3060 za 1600 :)


Całkiem przyjemnie, jeśli tylko przy takich skokach wydajności jak do tej pory ten 3050Ti będzie osiągał poziom obecnego GTX 1080... ;-)
Portret użytkownika Zeneko
Reputacja
80
#
Co nie zmienia faktu, że jeśli w grach A.D. 2020 będzie oferował taką wydajność jak 1050 oferuje w grach 2016 to nie ma prawa tyle kosztować.

Bo tutaj nie chodzi o bezwzględne liczby TFLOPS, ale do czego to w praktyce można użyć, oraz jaki poziom wydajności to zapewnia.
Portret użytkownika Komentator_PPC
Reputacja
1819
#

Zeneko, czw., 11/05/2017 09:35 #

Bo tutaj nie chodzi o bezwzględne liczby TFLOPS, ale do czego to w praktyce można użyć, oraz jaki poziom wydajności to zapewnia.


A tu już dochodzimy do ukochanej przez wszystkich kwestii optymalizacji kodu gry/programu... ;-)

Ale tak, w gruncie rzeczy masz rację. Z jednym zastrzeżeniem - kto powiedział, że w A.D. 2020 trzeba grać w gry z tegoż samego roku? :-) Ja w tej chwili ogrywam perełki które wyszły na przestrzeni - powiedzmy - 4 ostatnich lat. I tu wrócę do początku posta - optymalizacja, optymalizacja, optymalizacja, a w komfortowych warunkach będzie można pograć nawet na niskiej półce. A jak ktoś chce 144 FPS @ 4K w max detalach, u, no to już jego sprawa, życzę zdrowia i dobrze płatnej pracy wykonywanej z wielkim zamiłowaniem. :-)

P.S.
Granie staje się naprawdę ekskluzywnym hobby, czy tego chcemy, czy nie. Zupełnie jak fotografia.
Portret użytkownika Alcedo
Reputacja
3404
#
Ludzie kiedy w zrozumiecie, że konkurencja jest potrzebna. Wytłumaczę takim ja Ty na swoim przykładzie: mieszkam w małej miejscowości gdzie jest jeden dostawca światłowodu. Za internet o prędkości 60/10 płacę 65 zł. Mój brat mieszka w mieście (jest kilku dostawców światłowodów) za internet 150/30 płaci 69 zł. Naprawdę ciężko to zrozumieć.
Portret użytkownika eNeSik
Reputacja
188
#
Powiem Ci, ze to nie jest regula

Sam mieszkam na przedmiesciach malego miasta, jest tutaj tylko 1 dostawca swiatlowodu i co ?
A i nic - za 500/100 place 74zl a obecnie weszla oferta 1000/1000 za 109zl

Ceny mogly byc wyzsze a i tak ludzie braliby od nich "swiatlo" bo co innego ? LTE ? Neo ?
Portret użytkownika Zeneko
Reputacja
80
#
Prowadził ślepy....

Konkurencja redukuje marże, a nie obniża koszty...
Konkurencja zwiększa wydatki na PR i marketing... i wydatki na ochronę przez szpiegostwem przemysłowym...

I duopol to nie jest konkurencja...

A ceny Romet'u nie mają wpływu na ceny Harley'a...

Pewne rzeczy należy upraszczać tylko tak daleko jak to możliwe i ani kroku dalej.
Portret użytkownika Michaelius
Reputacja
11095
#

Alcedo, czw., 11/05/2017 07:21 #

Ludzie kiedy w zrozumiecie, że konkurencja jest potrzebna. Wytłumaczę takim ja Ty na swoim przykładzie: mieszkam w małej miejscowości gdzie jest jeden dostawca światłowodu. Za internet o prędkości 60/10 płacę 65 zł. Mój brat mieszka w mieście (jest kilku dostawców światłowodów) za internet 150/30 płaci 69 zł. Naprawdę ciężko to zrozumieć.


Konkurencja jest potrzebna owszem, ale to musi być konkurencja która oferuje produkt wart zakupu. Co mi po konkurencji , która chce wydać gpu o wydajności tego co kupiłem w 2015 ?
Portret użytkownika Bull3tproof
Reputacja
2481
#
Kolego, toż to "bait", do tego miernej jakości. A Ty się dałeś złapać na haczyk... ;)
Portret użytkownika CzystyGAMING
Reputacja
11634
#

Bull3tproof, czw., 11/05/2017 12:21 #

Kolego, toż to "bait", do tego miernej jakości. A Ty się dałeś złapać na haczyk... ;)

Nie żaden bait. AMD już nigdy się nie wybije w GPU.
Portret użytkownika Hypnot04d
Reputacja
1619
#
przecież jak to bedzie mieć 2x wiecej pamieci to będzie jeszcze droższe niż teraz to 2080 na pewno nie bedzie kosztowac 3600 tylko sporo wiecej
Portret użytkownika ed00s
Reputacja
523
#
Czerwoni minusuja w komentarzach jak szaleni... bo to ich kolor ;)
Prawda boli co ??? Co za zawistni ludzie.
Portret użytkownika mat9v
Reputacja
30169
#

ed00s, czw., 11/05/2017 06:05 #

Czerwoni minusuja w komentarzach jak szaleni... bo to ich kolor ;)
Prawda boli co ??? Co za zawistni ludzie.


Huh? Gdyby tu czerwoni szaleli to ja miałbym posty na niebiesko :)
Jak się odważyłem napisać że Volta dla graczy dopiero w przyszłym roku ze względu na GDDR6 i że Nvidia zrobiła piękne widowisko z papierową premierą (bo karty najszybciej pod koniec 3 kwartału) to jestem głęboko na minusiku :)
Portret użytkownika piwo1
Reputacja
1318
#
a co za roznica za ile. klienci widac tego oczekuja. nie wazna cena wazne ze wydajnosc plus 40%. a karty i tak shcodza jak cieple buleczki. inaczej takie karty za 3500 czyli dawniej gtx 1080 a teraz 1080ti by nie schodzily a widac po tym o czym mowi nvidia i po ich zyskach schodza wysmienicie. ja nie kupilem zadnej kary od 8 lat i pewnie rpzez kolejne 8 lat nie kupie i mnie to rybka. ale fakty sa faktami. nvidia zarabia i wie jak to robic, a amd wydaje karty dla uzytkownikow biednych na ktorych prawie nic nie zarabia, a czasami traci doplacajac do interesu w postaci drogich pamieci hbm (by zniwelowac roznice w poborze pradu i halasu) czy jakichs bonusowych gier. nvidia jeszcze w tym roku wyda nowa generacje kart (moze na gwiazkde) ktore maja mniejszy pobor energii i pewnie wiekszych rozmiarowo co przyniesie spore wzrosty wydajnosci moze tez kolo 40% w danym segmencie cenowym.
a amd vega nie watpie tez przyneisie oszczednosci wynikajace z hbm2 ?(czyli mniejsze rozmiary niz konkurencja, mniejszy pobor energii niz odpowiednik amd z gddr5, nizszy halas) i wieksza wydajnosc niz ich rx580 ale to wszytsko kosztem swoich wlasnych zyskow.
Portret użytkownika mat9v
Reputacja
30169
#

piwo1, czw., 11/05/2017 06:39 #

a co za roznica za ile. klienci widac tego oczekuja. nie wazna cena wazne ze wydajnosc plus 40%. a karty i tak shcodza jak cieple buleczki. inaczej takie karty za 3500 czyli dawniej gtx 1080 a teraz 1080ti by nie schodzily a widac po tym o czym mowi nvidia i po ich zyskach schodza wysmienicie. ja nie kupilem zadnej kary od 8 lat i pewnie rpzez kolejne 8 lat nie kupie i mnie to rybka. ale fakty sa faktami. nvidia zarabia i wie jak to robic, a amd wydaje karty dla uzytkownikow biednych na ktorych prawie nic nie zarabia, a czasami traci doplacajac do interesu w postaci drogich pamieci hbm (by zniwelowac roznice w poborze pradu i halasu) czy jakichs bonusowych gier. nvidia jeszcze w tym roku wyda nowa generacje kart (moze na gwiazkde) ktore maja mniejszy pobor energii i pewnie wiekszych rozmiarowo co przyniesie spore wzrosty wydajnosci moze tez kolo 40% w danym segmencie cenowym.
a amd vega nie watpie tez przyneisie oszczednosci wynikajace z hbm2 ?(czyli mniejsze rozmiary niz konkurencja, mniejszy pobor energii niz odpowiednik amd z gddr5, nizszy halas) i wieksza wydajnosc niz ich rx580 ale to wszytsko kosztem swoich wlasnych zyskow.


Zobacz co się sprzedaje jak ciepłe bułeczki amazon.com/Best-Sellers-Computers-Accessories-Computer-Graphics-Cards/zgbs/pc/284822/ref=zg_bs_nav_pc_2_193870011
podpowiem, że nie jest to żadne 1080. Najsmutniejsze, że według tej listy kompletnie nie sprzedają się karty AMD (pierwsza karta jest na 15!!! miejscu), ale tacy już są ludzie, widzą że Nvidia sprzedaje najszybsze karty więc wydaje im się, że niższe modele od AMD nie konkurują z nią w wydajności.
W takim tempie to AMD może tylko na śmietniku historii wylądować.
Portret użytkownika damianox9
Reputacja
19
#
Koszmar. Niedlugo topowa karta bedzie kosztowac co rownowartosc 10 konsol.
Portret użytkownika mhojlo
Reputacja
58
#
Oj obawiam się, że będzie w drugą stronę - Scorpio/PS5 będą bliżej topowej karty niż dalej. Już teraz PS4 Pro to ponad połowa ceny 1080Ti. Chyba nie sądzisz, że Scorpio będzie za 2k pln na premierę:)
Portret użytkownika CougarV6
Reputacja
117
#
Nie ma jak poczytać komentarze do śniadania.
-Specjaliści od giełdy, notowań oraz analitycy rynkowi
-Wróżbici, magowie, nostradamus
-Banda dzieci które wieszczą ( w symfonii uśmieszków i wykrzykników) rychły upadek AMD
-Pokorni fanboje obu firm bez grama refleksji, czekają na moment gdy będą mogli na kolanach pójść od sklepu i kupić midend w cenie małego auta.
-10% ludzi którzy wiedzą co mówią i mają IQ większe niż szympans.

Sekcja komentarzy na PPC to cancer absolutnie nie mniejszy niż na innych portalach, a był to jeszcze nie tak dawno azyl w tym temacie.
Portret użytkownika Novice
Reputacja
3688
#
Prawda jest taka że gdyby nvidia nie wydawałą nowych architektur i nie dorzucała do pieca tych swoich 30% regularnie co jakiś czas to AMD rebrandowało by jeszcze częściej niż t o teraz robią,czyli już 2-3 razy na generację. Vega byłaby refreshem Fury X z 8GB HBM2 i nieco wyższymi taktowaniami, AMD nie wydawało by pieniędzy na R&D Vegi, wolałoby odgrzać Fury. Widzę że fani AMD są zawiedzeni że V100 ma tylko 15Tflops i 0% wzrostu IPC,szkoda że nie zauważyli że Volta to nowa architektura.... 980 (maxwell) ma 10% niższy FP32 od 780Ti (Kepler), więc też jest 10% wolniejsza. Nie,zaraz...przecież jest co najmniej 10% szybsza.Chyba właśnie się czegoś nowego dowiedzieli... konkretnie tego co to jest nowa architektura. Ale ciężko ich o to winić, od GCN 1.0 do Polarisa AMD poczyniło 18% postepu w 5 lat, czyli tyle co nvidia osiągnęła w 1 generację właśnie między maxwellem a keplerem porównując ich fp32.
Portret użytkownika Eclipse
Reputacja
2280
#

Novice, czw., 11/05/2017 07:57 #

Prawda jest taka że gdyby nvidia nie wydawałą nowych architektur i nie dorzucała do pieca tych swoich 30% regularnie co jakiś czas to AMD rebrandowało by jeszcze częściej niż t o teraz robią,czyli już 2-3 razy na generację. Vega byłaby refreshem Fury X z 8GB HBM2 i nieco wyższymi taktowaniami, AMD nie wydawało by pieniędzy na R&D Vegi, wolałoby odgrzać Fury. Widzę że fani AMD są zawiedzeni że V100 ma tylko 15Tflops i 0% wzrostu IPC,szkoda że nie zauważyli że Volta to nowa architektura.... 980 (maxwell) ma 10% niższy FP32 od 780Ti (Kepler), więc też jest 10% wolniejsza. Nie,zaraz...przecież jest co najmniej 10% szybsza.Chyba właśnie się czegoś nowego dowiedzieli... konkretnie tego co to jest nowa architektura. Ale ciężko ich o to winić, od GCN 1.0 do Polarisa AMD poczyniło 18% postepu w 5 lat, czyli tyle co nvidia osiągnęła w 1 generację właśnie między maxwellem a keplerem porównując ich fp32.

No ale VEga wlasnie JEST refreshen Fury :P
Portret użytkownika Michaelius
Reputacja
11095
#
Tego jeszcze tak na 100% nie wiemy.
Portret użytkownika Zeneko
Reputacja
80
#
nie strasz...
Portret użytkownika mat9v
Reputacja
30169
#

Novice, czw., 11/05/2017 07:57 #

Prawda jest taka że gdyby nvidia nie wydawałą nowych architektur i nie dorzucała do pieca tych swoich 30% regularnie co jakiś czas to AMD rebrandowało by jeszcze częściej niż t o teraz robią,czyli już 2-3 razy na generację. Vega byłaby refreshem Fury X z 8GB HBM2 i nieco wyższymi taktowaniami, AMD nie wydawało by pieniędzy na R&D Vegi, wolałoby odgrzać Fury. Widzę że fani AMD są zawiedzeni że V100 ma tylko 15Tflops i 0% wzrostu IPC,szkoda że nie zauważyli że Volta to nowa architektura.... 980 (maxwell) ma 10% niższy FP32 od 780Ti (Kepler), więc też jest 10% wolniejsza. Nie,zaraz...przecież jest co najmniej 10% szybsza.Chyba właśnie się czegoś nowego dowiedzieli... konkretnie tego co to jest nowa architektura. Ale ciężko ich o to winić, od GCN 1.0 do Polarisa AMD poczyniło 18% postepu w 5 lat, czyli tyle co nvidia osiągnęła w 1 generację właśnie między maxwellem a keplerem porównując ich fp32.


Na razie nic na temat tej nowej architektury nie wiadomo. Tflopsy jak tu mnie już niektórzy ganią to nie wyznacznik wydajności kart w grach a jako że tylko to wiemy to nie ma co szumnie zapowiadać wielkich zmian. Maxwell jest szybszy od wcześniejszych dzięki Tile Rendering - nic nie wiadomo by Nvidia zaoferowała następne zmiany takiej klasy (wydajnościowo). Na razie widać tylko więcej SP i proporcjonalny wzrost Tflopsów, o wydajności w grach nie wiadomo kompletnie nic.
Zmiany architektury:
New Streaming Multiprocessor (SM) Architecture Optimized for Deep Learning
Tensor Cores
Second-Generation NVLink™
HBM2 Memory: Faster, Higher Efficiency
Volta Multi-Process Service
Enhanced Unified Memory and Address Translation Services
Cooperative Groups and New Cooperative Launch APIs
Maximum Performance and Maximum Efficiency Modes
Volta Optimized Software
- praktycznie wyłącznie dotyczą Tesli, nawet zunifikowany kontroler pamięci ma na celu poprawę współdziałania z innymi kartami w klastrze i jest prawdopodobnie krokiem w stronę HSA
Ale ok, ja nie ukrywam że nadzieję pokładam w odmianie Tile Rendering która ma pojawić się w Vedze - gdyby udała się im tak jak udała się Nvidii (w końcu czemu nie miało by się to udać, w Ryzenach od podstaw wprowadzili HT/SMT bez problemów i z podobną wydajnością jak u Intela, może to nie jest jakiś wspaniały przykład, ale pokazuje że nową technologię też są w stanie zaadoptować) to mielibyśmy miłą niespodziankę co do wydajności i zużycia energii. Warto by jeszcze zwrócić uwagę że w Ryzenie postawili na proces produkcyjny charakteryzujący się jak najmniejszym zużyciem energii, miejmy nadzieję że podobny kompromis udało im się osiągnąć także w przypadku grafiki.
Portret użytkownika faldżip
Reputacja
3439
#
Jest tylko jeden mały problem - przypomnijcie mi jakie CPU trzeba do 1080Ti, żeby go nakarmić robotą w grach? Otóż to. I o ile w obliczeniach najczęstszym scenariuszem jest to, że mamy ogromny zbiór danych i na każdym elemencie tego zbioru wykonujemy jakąś operację (do tego ogólnie jest wymyślone OpenCL i CUDA), to tam skalowanie wszerz jest bardzo dobre, więc ilość CUDAków mogą zwiększyć i do np. 65536 i nikt się nie zmartwi, a CPU to może być i pentium G3258, bo jego zadanie, to raz na jakiś długi czas (minuta, godzina, dzień...) wrzucić GPU ten zbiór danych i powiedzieć co ma z tym robić.

W grach sytuacja jest nieco inna - choć piksele (w fhd 1920 * 1080 = 2073600) to dobry zbiór danych dla fragment (pixel) shadera, to jednak podczas generowania klatki wykonywanych jest sporo róznych operacji, jedne łatwo zapychają GPU (te naturą zbliżone do obliczeń opisanych w poprzednim akapicie) inne mniej (mniesze zbiory i wiele operacji, albo sytuacje, gdzie w wyniku jakiejś operacji częśc danych jest odrzucana, a np w GCN puszcza się te dane w "falach" po 64, jedna fala na CU, bo CU ma 64SP, a już na początku przetwarzania np. 20% danych jest odrzuconych [bo np. wynikowe piksele nie będą widoczne na ekranie] i już część GPU się nudzi [akurat z myślą o tym wprowadzane są shader intrinsics - aktualnie jako rozszerzenia, a niedługo jako część Shader Model 6.0]), część operacji można zrównoleglić (Asynchronous Compute), co pozwala w lepszym stopniu wypełnic wszystkie SP w GPU, ale część musi następować po sobie, bo inaczej się nie da. W skrócie - CPU ma sporo roboty, zeby zapewnić sprawne wykorzystanie zasobów GPU, po to wymyślono DX12/Vulkan, ale to wymaga sporo pracy od programistów i zmiany podejścia do niektórych rozwiązań w silnikach...

...albo można wmówić ludziom, że teraz muszą grać w 4K, bo tak najłatwiej zwiększyć obciążenie GPU, nie zwiększając zbytnio obciążenia CPU i nie zmieniając jakości grafiki :/
Portret użytkownika Novice
Reputacja
3688
#

faldżip, czw., 11/05/2017 08:40 #

Jest tylko jeden mały problem - przypomnijcie mi jakie CPU trzeba do 1080Ti, żeby go nakarmić robotą w grach?
(...)
...albo można wmówić ludziom, że teraz muszą grać w 4K, bo tak najłatwiej zwiększyć obciążenie GPU, nie zwiększając zbytnio obciążenia CPU i nie zmieniając jakości grafiki :/

Uważasz że ludzie będą kupowali Titana Voltę do 1080p ? Oczywiście że to będą karty do 4K. Wychodzą już nawet konsole do 4K a ty masz porblem że PC-towcy nie są jeszcze na to gotowi ? Oni na to czekają już kilka lat....
Portret użytkownika faldżip
Reputacja
3439
#

Novice, czw., 11/05/2017 08:44 #

faldżip, czw., 11/05/2017 08:40 #

Jest tylko jeden mały problem - przypomnijcie mi jakie CPU trzeba do 1080Ti, żeby go nakarmić robotą w grach?
(...)
...albo można wmówić ludziom, że teraz muszą grać w 4K, bo tak najłatwiej zwiększyć obciążenie GPU, nie zwiększając zbytnio obciążenia CPU i nie zmieniając jakości grafiki :/

Uważasz że ludzie będą kupowali Titana Voltę do 1080p ? Oczywiście że to będą karty do 4K. Wychodzą już nawet konsole do 4K a ty masz porblem że PC-towcy nie są jeszcze na to gotowi ? Oni na to czekają już kilka lat....

I to jest idealny przykład dla komentarza powyżej o utworze "Konsument". Ile to razy ktoś pisał, że super się gra w 4K, wystarczy obniżyć kilka detali i da radę. Moim zdaniem detale w grach i tak są gówniane, nawet na ultra. No może przesadzam, gry wyglądają ładnie, ale znajdzie się tak z milion rzeczy, które można jeszcze poprawić, żeby gra wyglądała lepiej. Wejdź choćby tu: blog.poliigon.com/blog/top-community-renders-from-april-2017?inf_contact_key=3562ddac25a17cd285c26efd6dcc7965031373c6b04114c7382dcde91ba97d80 i powiedz mi w jakiej rozdzielczości oglądasz te rendery i czy gry wyglądają tak dobrze? Albo czy w 4K będą wygladać lepiej?
Portret użytkownika eNeSik
Reputacja
188
#
Jest roznica miedzy wystepowaniem karty ktora pozwala grac plynnie w 4K bez poswiecania jakosci a obowiazkiem, przymusem kupna takiej karty

To, ze ktos oferuje taka karte/mozliwosc gry w 4K to sie cieszyc, ale to od Ciebie zalezy czy jak bezmyslny lemming polecisz i kupisz a potem sie bedziesz zastanawial do czego ja wykorzystac czy po prostu kupisz karte taka jaka potrzebujesz i spelni Twoje wymagania ktore juz sobie postawiles.
Portret użytkownika faldżip
Reputacja
3439
#
No i fajnie, ale co to ma wspólnego z tym co napisałem?
Portret użytkownika eNeSik
Reputacja
188
#
Dajesz do zrozumienia, ze cos jest zbedne ? Ze detale czy rozdzielczosc tak naprawde nie graja roli i to jest cos wyimaginowanego, ze wmawiamy sobie, ze widzimy roznice a tym samym przekonujemy samych siebie, ze cos jest lepsze gdzie tak naprawde nie jest ?

To, ze Ty nie zauwazasz gdzies roznicy to nie oznacza, ze jej nie ma lub nie widzi jej ktos inny.
Wydaje mi sie, ze dla Ciebie kazdy kto kupuje sprzet gdzie Ty uwazasz, ze "i tak nie zobaczy roznicy" to dla Ciebie cos smiesznego :)
Portret użytkownika faldżip
Reputacja
3439
#

eNeSik, czw., 11/05/2017 09:26 #

Ze detale czy rozdzielczosc tak naprawde nie graja roli

To może napiszę jeszcze raz, to może zrozumiesz:
Detale grają właśnie bardzo dużą rolę i w tej kwestii można jeszcze baaaardzo dużo poprawić nie zwiększając rozdzielczości. Ale to wymagałoby wiele pracy od twórców gier, wyśmienitego opanowania nowych API i wykorzystania możliwości sprzętu w 100%. Zaserwowanie tej samej grafiki, tylko w 4K, to obejście problemu. Oczywiście, w 4K obraz jest ostrzejszy, jest na nim nieco więcej detali, bo np. poligony, które w całości były mniejsze niż jeden piksel, teraz są wieksze i będą wyrenderowane, ale nie bez powodu modele stosowane w grach nazywa się "low-poly" - poprostu składają się ze stosunkowo małej ilości wierzchołków. Zobacz sobie na te rendery z bloga, który wrzuciłem - czy gry tak wygladają? Czy jak odpalisz gry w 4K na ultra, to będą tak wyglądać?
Portret użytkownika eNeSik
Reputacja
188
#
Ale co ma render do gier ? Rendery (a dokladnie w tym przypadku gdyby rozpatrywac to w grach, to prerender) byly zawsze lepsze niz grafika w czasie rzeczywistym. Przy renderze nie jest istotny czas renderowania. A doskonaly przyklad to stare gry i Silicon Graphics.

Porownujesz dwie oddzielne rzeczy. Render to sobie mozna zrobic nawet w 8K na Pentium MMX 166 - kwestia czaaaaaaaaaasu :)

grafika 3D w czasie rzeczywistym to inna bajka.

I jak cytujesz to cytuj cala wypowiedz. Napisalem, ze wg. Ciebie nie graja roli a jako argument - podajesz rendery ? Napisalem Ci juz, ze tych dwoch rzeczy sie nie porownuje

Rozdzielczosc i detale graja duza role bo tylko tym idzie polepszyc wyglad gier z renderowaniem czasu rzeczywistego. A do tego sa potrzebne coraz mocniejsze karty graficzne

Ale faktycznie, mozliwe, ze nie zrozumialem dokladnie Twojego przeslania i jesli faktycznie dazymy do tego samego to sorry, nie bylo tematu :)
Portret użytkownika faldżip
Reputacja
3439
#

eNeSik, czw., 11/05/2017 10:34 #

Ale co ma render do gier ? Rendery (a dokladnie w tym przypadku gdyby rozpatrywac to w grach, to prerender) byly zawsze lepsze niz grafika w czasie rzeczywistym. Przy renderze nie jest istotny czas renderowania. A doskonaly przyklad to stare gry i Silicon Graphics.

Porownujesz dwie oddzielne rzeczy. Render to sobie mozna zrobic nawet w 8K na Pentium MMX 166 - kwestia czaaaaaaaaaasu :)

grafika 3D w czasie rzeczywistym to inna bajka.

I jak cytujesz to cytuj cala wypowiedz. Napisalem, ze wg. Ciebie nie graja roli a jako argument - podajesz rendery ? Napisalem Ci juz, ze tych dwoch rzeczy sie nie porownuje

Rozdzielczosc i detale graja duza role bo tylko tym idzie polepszyc wyglad gier z renderowaniem czasu rzeczywistego. A do tego sa potrzebne coraz mocniejsze karty graficzne

Ale faktycznie, mozliwe, ze nie zrozumialem dokladnie Twojego przeslania i jesli faktycznie dazymy do tego samego to sorry, nie bylo tematu :)

Chodzi mi o to, że te rendery, to są obrazy wyrenderowane za pomocą kompa, a wyglądają bardzo realistycznie, nawet jak ich rozdzielczość nie jest 4K. Wiem, że jest to poziom w tej chwili niedostępny dla gier jeśli chcemy mieć jakiś grywalny poziom fps, ale widać, że jeszcze można sporo ulepszyć w grafice nie zwiększając rozdzielczości, albo w drugą stronę - samo zwiększanie rozdzielczości do 4K, 8K czy 16K nie sprawi, że gry zaczną tak wyglądać. Po prostu moje zdanie jest takie, że można tą moc nowych GPU wykorzystać lepiej, niż zwiększając rozdzielczość.

verul, gdzie jesteś? tylko Ty mnie rozumiesz! ;)
Portret użytkownika faldżip
Reputacja
3439
#
Z resztą przyczepiliście się do tego 4K, a nie to było głownym przesłaniem komentarza :P jako uzupełnienie polecam:
gpuopen.com/concurrent-execution-asynchronous-queues/
Portret użytkownika bahus
Reputacja
10465
#
Tak będą. Jak sądzisz dlaczego w sterownikach od jakiegoś czasu pojawiła się opcja upscalingu (rozdzielczości wirtualnej) ? Bo obraz wyrenderowany w wyższej rozdzielczości zwyczajnie wygląda DUŻO lepiej. To samo tyczy się VR i supersamplingu. Przy włączonym SS x2 lub 2,5 efekt końcowy jest dużo lepszy niż render w natywnej wyświetlaczy z wszelkimi powłączanymi bajerami.

Przykłady:
https://www.youtube.com/watch?v=NQqgs10zzYk
https://www.youtube.com/watch?v=rYNeKweMlrs
Portret użytkownika faldżip
Reputacja
3439
#

bahus, czw., 11/05/2017 10:07 #


Przykłady:
youtube.com/watch?v=NQqgs10zzYk
youtube.com/watch?v=rYNeKweMlrs

I to równie dobrze mogłyby być przykłady na potwierdzenie mojego zdania:
1. GTA w 4K dsr - ostrzejsze drzewka w tle, a krzak zaraz za plecami rażąco kańciasty niezależnie od rozdzielczości, na drugim filmie - ostrzejszy obraz, dzięki któremu lepiej widać kanciastość tyłka laski lecącej na motocyklu
2. AC:U 4K DSR - lepiej widać kijowość włosów, szmata na wozie, to jakaś porażka i już pomijam to, że kobiety w tle przechodzą przez siebie tak samo dobrze jak w FHD...
3. Mad Max 4K DSR - nawet nie wiem czym się różni, bo rozpraszają mnie te migające badziewne cienie na jego plecach
4. Mafia III w 4K DSR - serio? gra, w której grafika nie powala, a tekstury to ogólnie jakaś padaka, nadal taka będzie nawet w 20K i ostrzejszy znak drogowy w tle tego nie zmieni.
5. RotTR 4K DSR - krzaczki ładniejsze, ale i tak są to lekko pogięte tekstury. Poza tym, na tym ujęciu nie widać, ale RotTR cierpi na te same badziewne cienie na plecach co Mad Max.
6. W3 w 4K DSR - w 4K te krzaki są tak ostre, że przebiły Geraltowi nogi!
Portret użytkownika bahus
Reputacja
10465
#
Szczerze polecam Rifta / Vive i odpal sobie np.Elite Dangerous lub darmowego DCS World z supersamplingiem x1 a później ustaw na x2 i x2,5... Różnica miażdży...
Portret użytkownika Michaelius
Reputacja
11095
#
Straszna bzdura - generalnie potrzebne jest zwiększenie wszystkich 3 aspektów - FPSów, rozdzielczości i poziomu detali.
Portret użytkownika faldżip
Reputacja
3439
#

Michaelius, czw., 11/05/2017 10:26 #

Straszna bzdura - generalnie potrzebne jest zwiększenie wszystkich 3 aspektów - FPSów, rozdzielczości i poziomu detali.

No i się zgadza, to może wreszcie czas zadbać o te detale, bo kanciastość krzaków, badziewność cieni czy różnych materiałów (jak ubrania, pościel) albo ogolne najcześciej biedne wyposażenie wnętrz widać nawet lepiej w 4K niż FHD. Połowa efektów, to straszne uproszczenia (jak np. SSAO).
Portret użytkownika Michaelius
Reputacja
11095
#
Tylko, że to jest kwestia roboczo godzin i kosztów ludzkich tworzenia gry bardziej niż mocy gpu. Zobacz takiego Horizona na PS4 Pro - na 4,2 TF gra chodzi w pseudo 4K a wszystkie elementy przyrodnicze w niej są oddane niesamowicie

np.
imgur.com/a/HwC55
Portret użytkownika faldżip
Reputacja
3439
#

Michaelius, czw., 11/05/2017 11:14 #

Tylko, że to jest kwestia roboczo godzin i kosztów ludzkich tworzenia gry bardziej niż mocy gpu. Zobacz takiego Horizona na PS4 Pro - na 4,2 TF gra chodzi w pseudo 4K a wszystkie elementy przyrodnicze w niej są oddane niesamowicie

np.
imgur.com/a/HwC55

No i o to właśnie chodzi! Mając 4.2TF dostajemy taki efekt, a co możnaby zrobić z 10TF z GTX1080ti albo 12.5TF z nadchodzącej Vegi? A tu mi wklejają film z GTA V z 2015 roku w 4K DSR, gdzie mamy kwadratowe krzaki ale za to w 4K.
Portret użytkownika Zgreed66
Reputacja
6119
#
> tu mi wklejają film z GTA V z 2015 roku w 4K DSR, gdzie mamy kwadratowe krzaki ale za to w 4K.
Jakby tych kwadratowych krzaków nie było, to by ludziki płakały, że zła optymalizacja. Już widzę te komentarze: "Jak tak można zrobić, że na Ultra nawet GTX 980Ti nie bangla"." Co te leniwe dewelopery wyprawiają. Powinni za darmo, bez żarcia zapie****ć na galerach"." To w ogóle nie usprawiedliwia takich horrendalnych wymagań!" :]
Ah. Jakie cudowne by to było. Tyle soczystego bulu dópska o poranku.

I właśnie dlatego 4K jest fajne. Tak ***iście wszystko widać, że jeszcze lepiej widać słabości grafiki. Ostatnio gdzieś pisałem coś podobnego w komentarzach odnośnie Wiedźmina. Wchodzę do sadu i kupa drzew porośniętych kwiatami. Przy 1080p pikseloza jak leci. Przy 4K żyleta, ale z drugiej strony lipa. Bo kwiatki byle jakie, jeszcze w zasadzie 2d. I to było widać ;d
Do tego dużo lepiej widać było na dalsze odległosci (wiadomo wincyj pikseli).
imgur.com/a/6aBLb

Przydałoby się więcej detali, ale z drugiej strony osoby które miałyby 1080p narzekałyby srogo ;p
No bo co tutaj widzieć... jak piseloza ;d

Jasne możesz napisać, że Mafia II. Ma złe tekstury i cokolwiek innego. Tylko powiedz to ludziom którzy mieli w tamtym czasie na kartach po 512mb-1024mb pamięci ram, że to kilkanaście razy za mało ;p bo chcesz sobie zapchać kartę 8gigabajtami tekstur ;p Ile zajmowała by gra wtedy. Jak gry zaczeły zajmować po 20GB to było przecież wtf. Jasne tak możesz, ze wszystkim. Ale jak masz zapas mocy na grafie. To zawsze możesz sobie te 4K odpalić i poprawi to grafikę. Nawet jeżeli jest to durny zegar na ścianie w FEAR z 2005r ;p Ja po zmianie na ekran 4K nie narzekam. Fakt, w nowych grach 1070 to mało, ale zawsze mogę odpalic stare gry, które zawsze dostaną coś na atrakcyjności. Nawet jak tytuł ma już 12 lat ;p Ba. Oba NWN odpaliłem i wyglądały super. Dragon Age'e też fajnie. FarCry... no dobra. Jak zobaczyłem sprajty w tej grze, to od razu pliki konfiguracyjne leciały :D
Portret użytkownika Aslaf
Reputacja
867
#
A jaki monitor masz? Może ten LG za 1500-2000 zł?
Portret użytkownika Zgreed66
Reputacja
6119
#
Nei. Parę lat temu powiedziałem sobie, że nie będę kupował już nic koreańczykowego. Skończyło na Benq BL2711U.
Portret użytkownika Aslaf
Reputacja
867
#
I jak wrażenia? Polecasz do grania?
Portret użytkownika Zgreed66
Reputacja
6119
#
Nie mam zastrzeżeń. Pod warunkiem, że single. Bo jak multi... Wiadomo 144hz uber alles. Na hdtv nawet recka jest. Mi się nawet trafił egzemplarz z lepszym równomiernym podświetleniem ;)
Jak ma się gpu które napędzi to nie widze problemu. Zaznaczam tylko, że ja jeszcze jestem przed 30 i wzrok mam na tyle dobry, że nie używam w ogóle skalowania. Nawet messenger na fb mi nie wadzi :p
Ale tak.. Przy 4K na 1070. Rotr 30 klatek. Andromeda 20-30 klatek. Skyrim z the journey <40 fps. To trzeba mieć na uwadze. No i trzeba brać poprawkę na wielkość. Mi się wydaje taki na styk łamane przez trochę duży przy tych 70cm od monitora. Jak czytam, że sobie ludzie dają po 40cali+. To tak trochę zonk.
Portret użytkownika Sevard85
Reputacja
16738
#
Patrząc na historię chipu GP102, będącego w istocie wykastrowanym GP100, taki scenariusz jest najbardziej prawdopodobny.

W istocie nim nie jest. Różnice między GP100 i GP102 są bardzo duże.
Patrz:
forums.anandtech.com/threads/gp100-and-gp104-are-different-architectures.2473319/
anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5
Co prawda są to porównania GP100 i GP104, ale pod względem architektury GP102 jest odpowiednikiem GP104, nie GP100.
Innymi słowy - GP100 i reszta Pascali to dwie zupełnie różne architektury.
Portret użytkownika Pawel_Miazga
Reputacja
1036
#
Obydwa mają 3584 Shading Units, 224 TMU i 96 ROP. Pod względem konfiguracji GPU to to samo, resztę wycięto bo karto do gry jednostki do obliczeń FP64 chyba do niczego by się nie przydały, a HBMK2.0 jest za drogie. Na tej podstawie można zakładać, że najmocniejszy GTX / Titan otrzyma przynajmniej 5120 CUDA i 320 TMU. I nie, nie jest to zupełnie różna architektura, przestań pisać farmazony.
Portret użytkownika Sevard85
Reputacja
16738
#
Jednostki FP64 rzeczywiście - najpewniej do niczego przydatne nie będą. Jednoski FP16 w grach się mogą przydać.
Pascal dla mas to podrasowany Maxwell w 16nm i nic więcej. GP100 to już zupełnie coś innego. W linkachm, które podałem masz kilka podstawowych różnic. Czyli innymi słowy - sam przestań pisać farmazony, chyba, że jesteś w stanie udowodnić mi, że się mylę. Na razie ja podałem linki z dowodami, Ty nie podałeś nic.
Portret użytkownika mhojlo
Reputacja
58
#
Jednak Quadro P100 jest dużo szybsze niż nawet nowy TXp (15-20%) w grach, więc gdzieś musi być róźnica - chyba, że HBM...
Portret użytkownika CzystyGAMING
Reputacja
11634
#

mhojlo, czw., 11/05/2017 14:22 #

Jednak Quadro P100 jest dużo szybsze niż nawet nowy TXp (15-20%) w grach, więc gdzieś musi być róźnica - chyba, że HBM...

Nie waż się mówić że HBM przydaje sie do gier bo zaraz przyjdzie Kowal_ i powie że nie masz racji xd
Portret użytkownika gloom5
Reputacja
93
#
Czy tylko ja jeszcze tutaj siedzę na pierniku Phenom II x4 @ 4,0 + 8GB + GTX 660?
Portret użytkownika Lokaty
Reputacja
1245
#
Nie. :)
Dławiący się APU 3870 (Athlon II x4) + 8GB + R9 380 4GB (do niedawna R7 260X).

A Gloom to fajny na splitscreen był! ;>
Portret użytkownika gloom5
Reputacja
93
#
Wolałem Charmandera ale się ksywka przyjęła. XD
Portret użytkownika faldżip
Reputacja
3439
#
Ja ostatnio najczęściej używam mojego kompa z Athlonem X4 860K @4.3GHz + 8GB RAM 1333@1866 + R7 260X
Portret użytkownika Red_October
Reputacja
809
#

gloom5, czw., 11/05/2017 11:33 #

Czy tylko ja jeszcze tutaj siedzę na pierniku Phenom II x4 @ 4,0 + 8GB + GTX 660?

Phenom II 955 x4 @3.9
Portret użytkownika mistereco22
Reputacja
0
#
(komentarz skasowany)
Portret użytkownika blasph
Reputacja
6752
#
wieksza cena to na pewno, wiekszy chip w tym samym procesie(12nm to bujda dla naiwnych)+ddr6 , podwyżka jest nieunikniona
Portret użytkownika eNeSik
Reputacja
188
#
Dobrze, ze Twoj "Pan" AMD wydaje karty tak czesto i z takim wzrostem wydajnosci jak ta zla, niedobra NVIDIA

I NVIDIA nie zabija wydajnosci sterownikami. Po prostu karty maja krotszy czas wsparcia a to roznica.

Nie cpaj albo bierz polowe zanim wejdziesz na PPC
Portret użytkownika gloom5
Reputacja
93
#
Raczej - don't drink and drive.
Portret użytkownika nautilius xl
Reputacja
2207
#
Podczas premiery Tesli Pascal też dużo było gadania o deep learning jakie to ma możliwości tylko wtedy porównywali do obciętego z FP64 Maxwella :)
Portret użytkownika Kowal_
Reputacja
8827
#
Nie ma asynk kompjót, furiot za 100 lat przegoni tego kastrata!

/beka off.
Portret użytkownika PcGamer003
Reputacja
66
#
Ja już sparowałem tego potwora z i7 12c/24t ;-)
Portret użytkownika dr inż. Adam Głuszek
Reputacja
0
#
(komentarz skasowany)
Portret użytkownika mat9v
Reputacja
30169
#

dr inż. Adam Głuszek, czw., 11/05/2017 17:44 #

Wow cóż za cacko,na taką architekturę czekał świat.
Brak słów,takiej mocy do Witcher 3 i Deus ex jak i Far Cry 5 nam potrzebne


Chyba jednak nie do Wiedźminka 3 - tutaj na najwyższych detalach (bez ekstra włosów) + mody w FHD nawet głupie GTX970 daje ponad 50fps (normalnie) ze spadkami oczywiście do około 40fps czasem.
1080 to już w okolicach 75fps a 1080ti to około 100 fps. Nawet w najcięższych miejscach w 4k 1080ti wyrabia się ponad 50fps, w zwykłych lokacjach w najwyższych ustawieniach uzyskuje (1080 zwykłe) około 100fps a 1080ti ponad 120fps.
Pozostałych gier nie znam dobrze więc się nie będę wypowiadał.
Portret użytkownika AMDK11
Reputacja
934
#
"A czy GP102 ma więcej TFlops jak GP100 pomimo wyższych zegarów??"

Na przykład GTX 1080Ti(GP102) przy GPU@2GHz osiąga 14.336 TFlops.
3584(SP) x 2000(MHz) x 2 = 14 336 000(14.336 Bilionów(naszych ;)) zmiennoprzecinkowych operacji obliczeniowych pojedynczej precyzji na sekundę)

TMU 224 x 2000MHz = 448 000 co daje 448-524.16(do 17% lepsza kompresja tekstur) GTekseli/sek czyli od 448 do 524.16 miliardów Tekseli na sekundę.

ROP 88 x 2000MHz = 176 000 co daje 176-205,92(do 17% lepsza kompresja kolorów) GPikseli/sek
czyli od 176 do 205.92 miliardów pikseli na sekundę.

GDDR5X 352bit 11GB: 488-570.96(+ do 17%) GB/s

ASUS GTX 1080Ti OC GAMING ;)
Portret użytkownika mat9v
Reputacja
30169
#

AMDK11, pt., 12/05/2017 03:05 #

"A czy GP102 ma więcej TFlops jak GP100 pomimo wyższych zegarów??"

Na przykład GTX 1080Ti(GP102) przy GPU@2GHz osiąga 14.336 TFlops.
3584(SP) x 2000(MHz) x 2 = 14 336 000(14.336 Bilionów(naszych ;)) zmiennoprzecinkowych operacji obliczeniowych pojedynczej precyzji na sekundę)

TMU 224 x 2000MHz = 448 000 co daje 448-524.16(do 17% lepsza kompresja tekstur) GTekseli/sek czyli od 448 do 524.16 miliardów Tekseli na sekundę.

ROP 88 x 2000MHz = 176 000 co daje 176-205,92(do 17% lepsza kompresja kolorów) GPikseli/sek
czyli od 176 do 205.92 miliardów pikseli na sekundę.

GDDR5X 352bit 11GB: 488-570.96(+ do 17%) GB/s

ASUS GTX 1080Ti OC GAMING ;)


Porównuj proszę podkręcone do podkręconego. Czy ktoś będzie GP100 podkręcał to inna sprawa, nie szukałem nigdy informacji na ten temat :)
Portret użytkownika AMDK11
Reputacja
934
#
Ja tylko chciałem pokazać że 2 GHz dla GP102 na autorskim PCB nie jest jakimś specjalnym wyczynem a oferuje przy tym bardzo wysoka moc obliczeniowa ;)
Portret użytkownika pleomati
Reputacja
646
#
youtube.com/watch?v=iMYCAEA7FaU