Aktualności:

W MEDIA znajdziesz grafiki, banery i avatary

Menu główne

TEST BOINC Sapphire Radeon RX-580 PULSE

Zaczęty przez PoznanskaPyra, 05 Maj 2017, 02:54

PoznanskaPyra

Zaczynam z testami kolejnej karty od Sapphire, czyli RX-580. Porównuje tutaj wszystko na przykładzie produktów firmy Sapphire (takie akurat miałem, aczkolwiek powinien pojawić się w tym miesiącu też asus dla kontrastu).

KONSTRUKCJA

[smg id=10677 type=preview align=center caption="Sapphire RX-580 "]

Względem poprzednika RX-480 NITRO, konstrukcja RX-580 nieco się zmieniła. Elementy wydają się być wyższej jakości, radiator jest większy, a sekcja zasilania jest dodatkowo chłodzona poprzez backplate. Tutaj było największe zaskoczenie jakie mnie w tej karcie spotkało. Mimo, że rozkręcałem już dziesiątki kart, ani razu nie spotkałem się z takim rozwiązaniem rozpraszającym ciepło z mosfetów.

[smg id=10678 type=preview align=center caption="Sapphire RX-580_2 "]

Jak widać mosfety są chłodzone z obydwu stron. Od góry za pomocą standardowego radiatora i od dołu za pomocą, no właśnie czego? Jak nazwać to ustrojstwo? Ten kawałek metalu zalany z obydwu stron pastą termoprzewodzącą przekazuje ciepło z mosfetów na backplate.
Ogólnie karta wydaje się być stworzona do katowania w różnoraki sposób. Każdy ważniejszy podzespół jest aktywnie chłodzony. Kolejnym atutem są wentylatory, których jakość wykonania wydaje się być bardzo dobra. Wentylatory te są też łatwo wyjmowalne, co ułatwia czyszczenie czy ewentualną wymianę.

[smg id=10679 type=preview align=center caption="SAPPHIRE RX-580_3"]

PODSTAWOWE PARAMETRY

[smg id=10680 type=preview align=center caption="RX-580_AIDA"]


TEST BOINC

Amicable Numbers
Jedno wu na raz, brak modyfikacji configu

[smg id=10683 type=preview align=center caption="amicableafter"]

Pobór energii ~140W

PKT na godzinę~11487,8
PKT na dobę    ~275707,2



Collatz Conjecture
Jedno wu na raz, brak modyfikacji configu

[smg id=10691 type=preview align=center caption="rx580collatzafter"]

130684549 121100199 120970 7 May 2017, 15:31:49 UTC 7 May 2017, 15:53:06 UTC Zakończone i zwalidowane 1,262.36 99.88 35,819.72 Collatz Sieve v1.21 (opencl_amd_gpu)

Pobór energii ~195W

PKT na godzinę~102181
PKT na dobę    ~2452336



Einstein@home

(Gamma-ray pulsar binary search)
Jedno wu na raz, brak modyfikacji configu

[smg id=10682 type=preview align=center caption="rx580einigammaafter"]


LATeah0027L_1180.0_0_0.0_15430225_1293311139 5 May 2017, 13:35:54 UTC 5 May 2017, 13:50:17 UTC Completed and validated 720.21 313.86 3.19 3,465.00 Gamma-ray pulsar binary search #1 on GPUs v1.18 (FGRPopencl1K-ati)windows_x86_64


Pobór energii ~ 160W

PKT na godzinę~17325
PKT na dobę    ~415800



MilkyWay@Home
Jedno wu na raz, brak modyfikacji configu

[smg id=10684 type=preview align=center caption="rx580milkyafter"]

2039579963 1458923269 450616 5 May 2017, 15:58:35 UTC 5 May 2017, 16:03:13 UTC Zakończone i zwalidowane 99.33 22.84 227.23 MilkyWay@Home v1.46 (opencl_ati_101)

Pobór energii ~ 150W

PKT na godzinę~8225,7
PKT na dobę    ~197417,4



Moo! Wrapper
Jedno wu na raz, brak modyfikacji configu.
Trzeba przyznać że Moo potrafi wyssać z radeonów ostatnie soki.

[smg id=10685 type=preview align=center caption="rx580mooafter"]

dnetc_r72_1494013260_14_800_0 46631070 5 May 2017, 20:26:30 UTC 5 May 2017, 20:39:26 UTC Zakończone i zwalidowane 761.95 62.16 6,400.00 Distributed.net Client v1.04 (opencl_ati_101)

Pobór energii ~ 205W!!!

PKT na godzinę~30080
PKT na dobę    ~721920




PrimeGird

AP27

[smg id=10689 type=preview align=center caption="rx580pgap27after"]

814257580 310823 7 May 2017 | 7:44:26 UTC 7 May 2017 | 9:18:19 UTC Completed and validated 5,502.04 76.19 4,043.00 AP27 Search v2.02 (opencl_ati_AP27)

Pobór energii ~ 153W

PKT na godzinę~2646
PKT na dobę    ~63511


PPS (Sieve)

[smg id=10690 type=preview align=center caption="rx580pgppsafter"]

814672469 310823 7 May 2017 | 15:05:15 UTC 7 May 2017 | 15:16:39 UTC Completed and validated 548.82 517.39 3,371.00 PPS (Sieve) v1.41 (openclatiPPSsieve)

Pobór energii ~ 190W

PKT na godzinę~22145
PKT na dobę    ~531486


Genefer 15

[smg id=10692 type=preview align=center caption="rx580pggfn15after"]

814596002 527251816 310823 7 May 2017 | 16:14:17 UTC 7 May 2017 | 16:15:36 UTC Completed and validated 61.41 23.77 25.17 Genefer 15 v3.15 (openclatiGFN15)

Pobór energii ~ 150W

PKT na godzinę~1475
PKT na dobę    ~35410



SETI@Home

[smg id=10693 type=preview align=center caption="rx580setiafter"]



Pobór energii ~ 145W

PKT na godzinę~
PKT na dobę    ~
WIZYTÓWKA
Kompy:
AMD Ryzen 9-3900X + GTX980Ti
Intel i5 4570 + HD7970

tito

Z tego co się orientuję to na chwilę obecną AMD świetne nadaje się do Einsteina i Moo. Reszta to dominacja NVidii. Ty tylko ten pobór prądu.. w MOO 205w dziennie to 5kWh. Lekkie przegięcie.

PoznanskaPyra

WIZYTÓWKA
Kompy:
AMD Ryzen 9-3900X + GTX980Ti
Intel i5 4570 + HD7970

tito

Ciekawe ile by się dało wyciągnąć z niej w Einsteinie przy 2 i 3 WU jednocześnie.
Bo mój zabytkowy 7950@900 robi przy 2(3)WU  440k dziennie.

PoznanskaPyra

Bardzo fajny wynik w collatz tej karty :)
WIZYTÓWKA
Kompy:
AMD Ryzen 9-3900X + GTX980Ti
Intel i5 4570 + HD7970

Szopler

Ciekawe jak radzi sobie w SETI@Home ???

PoznanskaPyra

Wu już dawno przeliczone, tylko czekam na innych ;)
WIZYTÓWKA
Kompy:
AMD Ryzen 9-3900X + GTX980Ti
Intel i5 4570 + HD7970

LQG

Cytat: tito w 07 Maj 2017, 07:43
Ciekawe ile by się dało wyciągnąć z niej w Einsteinie przy 2 i 3 WU jednocześnie.
Bo mój zabytkowy 7950@900 robi przy 2(3)WU  440k dziennie.
Jak dorwałem na krótko Gigabyte GV-RX480G1 GAMING-8GD zdecydowanie najlepiej z E@H liczyło się 1WU 1.18 Gamma-ray binary pulsar search, dla 2WU była spora strata. Platforma testowa B250 z prockiem i5-7500.

tito

Czyli co? Staruszek 7950 ciągle wydajniejszy od nowych konstrukcji AMD?

apohawk

No good deed goes unpunished.

tito

Ale tu się rozchodzi o Einsteina, który nie potrzebuje DP. RX 580 ~ 415k dziennie.
Moja 7950 ~ 440k dziennie.

apohawk

A to nie skumałem, że o Einsteina chodzi. To powiem ci tak, Einstein jest kapryśny i sporo zależy od aplikacji, którą liczysz, jej wersji i ile WU na raz. Ale moje Fury potrafi więcej niż 400k dziennie. 31.01.2017 pisałem:
CytatEinstein (Gamma-ray pulsar binary search #1 on GPUs v1.18 (FGRPopencl-Beta-ati)) 1WU/GPU
Run time   CPU Time   Credit   APP
533,21     272,44       3465    FGRPopencl-Beta-ati

Credit/1h = 23394
Credit/24h = 561459
Przy czym gdy spojrzysz na moje konto w boincstats, to zobaczysz w top 10 days makx. 422k, bo nie liczę 24h na dobę, tylko jakieś 12-16h. Do tego Einstein nigdy nie jest w stanie wykorzystać 100% GPU. Mogłem spokojnie liczyć 2WU na raz innej aplikacji Einsteina i grać w Wiedźmina 3. Przy cytowanej aplikacji też mogę grać w Wiedźmina 3. Obecnie grywam w LOTRO, a w tle cały czas boinc na GPU. Obecnie projektem miesiąca jest PrimeGRID i też liczę i gram. Chyba tylko Collatz i MilkyWay są w stanie tak wykorzystać GPU, abym nie mógł pograć. Tak więc aplikacje nie wykorzystują mocy GPU na maksa i mam wrażenie, że im słabsza karta, tym w większym stopniu jest wykorzystana. Tak jakby aplikacja nie chciała przekraczać pewnego progu wydajności, albo CPU blokowało wydajność.

Ta wersja beta (FGRPopencl-Beta-ati) dawała sporego kopa w wydajności. Nie wiem, czy na niej były zbierane dane do tego wykresu.
No good deed goes unpunished.

PoznanskaPyra

To też kwestia architektury. Jeżeli chcesz robić dużo jednocześnie, GCN lepiej się sprawdza. Kiedyś coś takiego testowałem i drop fps-ów na GTX970 był kilkanaście procent większy niż na R9-290.

Takie wyniki osiągał R9-290






A takie GTX970





W BeamNG jest podobnie:

R9-290




GTX970




WIZYTÓWKA
Kompy:
AMD Ryzen 9-3900X + GTX980Ti
Intel i5 4570 + HD7970

apohawk

Szok. O tym to nie wiedziałem, nigdy nvidii nie miałem. Tym bardziej wygląda na to, że karty AMD są do BOINCa.  %)
No good deed goes unpunished.

sirzooro

#14
Cytat: apohawk w 09 Maj 2017, 15:35
A to nie skumałem, że o Einsteina chodzi. To powiem ci tak, Einstein jest kapryśny i sporo zależy od aplikacji, którą liczysz, jej wersji i ile WU na raz. Ale moje Fury potrafi więcej niż 400k dziennie. 31.01.2017 pisałem:
CytatEinstein (Gamma-ray pulsar binary search #1 on GPUs v1.18 (FGRPopencl-Beta-ati)) 1WU/GPU
Run time   CPU Time   Credit   APP
533,21     272,44       3465    FGRPopencl-Beta-ati

Credit/1h = 23394
Credit/24h = 561459
Przy czym gdy spojrzysz na moje konto w boincstats, to zobaczysz w top 10 days makx. 422k, bo nie liczę 24h na dobę, tylko jakieś 12-16h. Do tego Einstein nigdy nie jest w stanie wykorzystać 100% GPU. Mogłem spokojnie liczyć 2WU na raz innej aplikacji Einsteina i grać w Wiedźmina 3. Przy cytowanej aplikacji też mogę grać w Wiedźmina 3. Obecnie grywam w LOTRO, a w tle cały czas boinc na GPU. Obecnie projektem miesiąca jest PrimeGRID i też liczę i gram. Chyba tylko Collatz i MilkyWay są w stanie tak wykorzystać GPU, abym nie mógł pograć. Tak więc aplikacje nie wykorzystują mocy GPU na maksa i mam wrażenie, że im słabsza karta, tym w większym stopniu jest wykorzystana. Tak jakby aplikacja nie chciała przekraczać pewnego progu wydajności, albo CPU blokowało wydajność.

Ta wersja beta (FGRPopencl-Beta-ati) dawała sporego kopa w wydajności. Nie wiem, czy na niej były zbierane dane do tego wykresu.
Tu bardziej chodzi o to że GPU w przeciwieństwie do CPU nie oferuje możliwości wywłaszczania działających tam kerneli (procedur). Jeżeli uruchomiony tam kernel działa za długo, zaczyna przycinać się odświeżanie ekranu bo musi czekać na zakończenie obliczeń. Gdzieś czytałem że bodajże 50ms to jest wartość kiedy odświeżanie jest jeszcze w miarę płynne. Im wolniejsza karta tym kernel się dłużej liczy, więc ewentualne przycinanie się obrazu jest łatwiej zaobserwować. Poza tym są też opóźnienia związane z liczeniem na CPU, przesyłaniem danych przez szynę PCIe i uruchamianiem kerneli, no i oczywiście sam algorytm może być tak zaprojektowany że nie będzie wykorzystywał możliwości GPU w pełni.

Poza tym GPU ma wiele jednostek obliczeniowych, więc karta czy też jej driver będzie je odpowiednio przydzielać wszystkim którzy chcą je wykorzystywać, trochę podobnie jak zwykłe aplikacje współdzielą CPU. Gry odpalone razem z aplikacjami GPU będą więc pewnie mieć mniej fps, ale będą dalej grywalne.

PoznanskaPyra

No ale jak to jest, GTX970 teoretycznie ma więcej mocy obliczeniowej od R9-290, a mimo to w FPS-ach dostaje po dupie aż huczy. Jakiś problem z rozdzielaniem zadań? Czy może, tak mi się wydaje, architektura GCN może więcej rzeczy równolegle robić, ze względu na większą ilość bloków względem maxwell-a?
WIZYTÓWKA
Kompy:
AMD Ryzen 9-3900X + GTX980Ti
Intel i5 4570 + HD7970

sirzooro

Pewnie to zależy od rodzaju obciążenia. Ludzie oddzielają wyniki syntetycznych benchmarków typu 3DMark od tych robionych przy użyciu gier. Można więc się spodziewać że benchamarki OpenCL/CUDA (np. CompuBench) będą dawać jeszcze inne wyniki, a rzeczywiste aplikacje jeszcze trochę inne. Trzeba by się wgłębić bardziej w temat żeby dokładniej powiedzieć jaka jest przyczyna.