Menu

Pokaż wiadomości

Ta sekcja pozwala Ci zobaczyć wszystkie wiadomości wysłane przez tego użytkownika. Zwróć uwagę, że możesz widzieć tylko wiadomości wysłane w działach do których masz aktualnie dostęp.

Pokaż wiadomości Menu

Wiadomości - EDU Enthusiast

#1
to jest prawda, ale jak 1650 super wyszlo na market to 1080Ti bylo dostepne w polowie jej ceny.
(1650 super byla niedostepna w pierwszych miesiacach marketu - scalperzy sprzedawali ja po 400-500 usd - i szla po okolo 300-350 usd przez prawie caly rok swojego istnienia, gdzie 1080Ti chodzila po $150 w tym samym czasie na ebayu)
*(teraz sa praktycznie obie karty tej samej ceny, i 1080ti napewno bedzie miala wyzsza cene od 1650 im wiecej czasu minie)
#2
Nie wspominajac ze dzis kupisz powiedzmy mi210 za 8k a za 2 lata kupisz go za 2k lub mniej. (oryginalnie mi210 kosztowalo $16.5k 2 lata temu - juz stracil jako nowa karta 2x swoja oryginalna cene)

Pytanie czy sie to zwroci w elektryce?

W mojej pracy jako ze duzo zamawiam serwerow i sprzetu widzalem jak ceny spadaja
Jakies 5 lat temu wypchany top R620 kosztowal $1400, R630 kosztowal jakies $2.6k, a R640 jakies 10k.
Jakies 3 lat temu wypchany top r620 kosztowal $900, R630 jakies $1200, a R640 jakies $4-5k
A dzis wypchany top r620 kosztuje $500, R630 jakies $800-900, R640 jakies $1400.

(taka sama klasa sprzetowa tylko z kolejnych generacji)
(r620 z 2x e5-2697v2 256G 1886MHz)
(r630 z 2x e5-2690v4 256G 2400MHz)
(r640 z 2x gold 6138 256G 2666MHz)


Czy warto kupic nowy sprzet jak jest nowy, gdzie za 5 lat kupisz go za 80% nizsza cene?
Ja nie widze by sie to kiedykolwiek zwrocilo w elektryce.
I osobiscie kupuje sprzet jak dochodzi do ceny $1200, i jak stary sprzet nie wyrabia na to do czego go potrzebuje.
(czy tez chce sie pobawic z jakas technologia - jak z sr-iov)
#3
Polecam 2 Metal/Aluminum Mesh filter (jeden na + drogi na -) i coin cell battery. I polozyc przed komputerem z miejsca wktorym wciaga powietrze.

*(on nie zatrzymuje powietrza - ani nie zwalnia, jak zwykle dust meshes na pc to robia - ale za to lapie caly kurz poprzez elektrostatyke)
#4
Cytat: tito w 10 Marzec 2024, 21:55No. Za takie coś Żoneczka by cisnęła we mnie młotkiem :)

Kilka lat temu bawilem sie z watercooling na serwery, jak wspomnialem w innym temacie - mialem 3 serwery polaczone w jednej loopie, gdzie jeden radiator byl na zewnatrz (za oknem), a drogi powieszony z boku racka z wiatrakami ktore manualnie wlaczalem (praktycznie 0 dB slyszales tylko pompy). Jednak brakuje mi zdjec z tego czasu. (znalazlem tylko jedne zdjecie)
https://i.imgur.com/1wnvn9i.jpg

Uzywalem 2x Mo-RA3 420 Pro radiator, i kazdy serwer mial swoja pompe na zewnatrz; kazdy box mial swoj mini reservoir i jeden duzy na zawnatrz.

~3-4 lat temu musialem zrobic ocieplanie na pompy w zime - temp coolantu spadla do -10'C i pompy sie zatrzymaly jak liczylem boinca - a serwery sie wylaczyly przez temperatury i radeon vii poszedl spac na zawsze; Jak zakupilem dom i mialem juz miejsce na serwery zminielem podejscie na 'air is king' i mam gdzies jak glosno to moze byc. Pociagnalem usb, hdmi, dp kable do pokojow i mam dokladnie 0dB w sypialniach mozna tylko uslyszec monitory :-)
#5
Osobiscie nie podoba mi sie build ale tylko chyba dlatego ze mam juz swoje opinie.
Preferuje pull-push konfiguracje tak jak w serwerach - i cieple powietrze wydalane przez hvac duct na zewnatrz.

(dlatego nie cierpie nowych kart graficznych ktore nie maja blowerow - co jak co blowery to znakomita rzecz.)
Potrafia byc glosne, ale nie mieszaja powietrza i trzymaja odpowiedni static pressure wewnatrz obudowy.
~ Ja osobiscie darowalem sobie glos, i trzymam serwery w dedykowanych pokoju ktory czerpie chlodne powietrze zewnatrz albo z wlasnego AC i wyrzyca cieple powietrze na zewnatrz.

To jest z poprzedniego lata jak robilem maintenance (troche red-neckowo)
https://i.imgur.com/mdDZ3eb.png
#6
Ja uwazam ze to jest zmylne ze nowszy hardware bedzie uzywal mniej energi.
Kawiat jest taki, ze nowy sprzet bedzie mniej zuzywal jesli bedzies tyle samo liczyl co na starszym sprzecie. (i.e. undervolt, unclock, limity, itp...) wedlug mnie to ma maly sens - po co wydawac kase jesli nic sie z tego nie ma - a zaplacisz jakies $25 mniej za prad - takie cos moze sie zwroci po 4-6 lat gdzie juz bardziej oplaca ci sie kupic kolejny nowszy ktory da ci mozliwosc liczenia tyle samo za powiedzmy 10-20% mniej energi.

Berkley samo w sobie sie popsulo i raczej nikt sie nie zajmuje boinc'em w realny sposob na dzisiejsze normy - nie oferuje ci ustawien potrzebnych na gpu (jak np ograniczenie ile % chcesz by uzywalo tego GPU - oczywiscie mozesz downclockowac i sie bawic - ale zazwyczaj sprzet nie jest dedykowany do liczenia.)


Na dzisiejszy sprzet load przez dlugi czas czy tez zmiany loadu - szybkie chlodzenie i wzrastanie temp
(przyklad gfn16 taski, powiedzmy leci kilka taskow i konczy - boom clock spada, temp spada i boom kolejny leci.)
CPU/GPU beda po trochu umieraly, poniewaz od ostatnich 2-3 generacji gpu i cpu uzywaja lead-free solder - i ona sie kruszy (na zewnatrz przy soc i wewnatrz die), wymuszajac do reflow/reball itp zabiegow by odratowac karte/plyte/procek) poprostu sprzet nie nadaje sie na liczenie - chyba ze jestes wstanie trzymac ten sprzet naprawde pod niskimi temperaturami (z 50-60'C pod 100% loadem by solder nie mial expansi za duzej).

Bez limitowania, underclockowania,nowszy sprzet potrafi jeszcze wiecej energy zuzyc.
#7
Myslalem ze masz problem bo clocki spadly na ramie bo crashu; ahh


UPS dalej oszczedzi energie i jest bardziej wydajny niz baterie w laptopach (szczegolnie dzisejszych) wszystko sie psuje, ale laptopy jeszcze czesciej - generuje wiecej ciepla a baterie sie psuja jak jest duzo ciepla.

Sugeruje zdobycia platy glownej ktora oferuje nadpisanie (override precision boost / PBO / precision boost overdrive) i zadanie mu minimalnego i maksymalnego clocka, i nadanie maksymalnej package wattage tdp. Pozniej wlaczenie amd cool 'n quiet w biosie i w systemie ustawic balanced power profile; to powinno tez automatycznie scalowac clock multiplier nawet na pamieci.

Jako default amd boost potrafi jechac naprawde wysoko (na kilka sec) i pojsc do 120W+ tdp na soc ;


na auto/default
(jak jest miejsce to potrafi nawet pojsc naprawde wysoko.)

(w tym wypadku poszlo do 166W na package bo temp pozwolaly na to)



Kolejne miejsce w ktorym naprawde duzo energi jest tracone to wiatraki; sugeruje zrobic watercooling loop.
Jesli masz kilka komputerow to mozesz zamknac nawet kilka systemow na tej samej loopie z jednym lub kilkoma radiatorami. Jesli ktos posiada wystarczajaco duzy radiator to moze przezyc bez wiatrakow.

Oczywiscie wszystko sie psuje, i ma swoje inicjalne koszty. Wiem ze nie sa to tanie rzeczy.
#8
Sugeruje kupic ups duzo niestabilnosci wychodzi z jakosci pradu.

Co do systemu
wyjac baterie na 5min.
Zmien wszystkie "auto" opcje w biosie na default voltage tego uzadzenia (plyty asusa/asrocka czesto puszczaja za wysokie voltage)

Ustaw hwinfo by zapisywalo ci wszystkie interesujace statystyki do pliku tekstowego ( w opcjach zmien "Write Direct to Disk (No buffering)" Jesli masz crash a nie masz lepszych dyskow z power-loss protection to stracisz jakas porcje danych.

(mozesz wszystkie na raz loggowac do pliku albo wybrane - jak nie jestes pewny gdzie jest problem - to wszystkie na raz - pozniej eleganco mozna to wkleic do google sheets i widziec gdzie powiedzmy moze byc problem)


Wydaje mi sie ze u ciebie mogl pojsc jeden z VRMow phases od pamieci, i mozliwe ze trzeba byloby podkrecic twoje VRM by bylo wstanie sie wyrobic na wyzsze clocki na pamiec (ale jesli jeden poszedl to pewnie tylko jeden zostal na ram - wiec nie wiem czy warto).

jak pamietam ta plyta ma 2 phases na pamiec, i 4 na soc. (chyba uzywa dublerow - bo widze w spec pisze ze ma 9 phases - to chyba klamstwo marketowe)

Mozna sprawdzic z multimeterem ile przepuszczaja poweru/ czy tez nie --> jak system jest off (jakies 20min poczekac by power calkowicie sie wydostal z capacitors)

// Poniewaz kontroller pamieci znajduje sie na soc w cpu, jest szansa ze niektore sciezki zostaly przepalone - co moze tez spowodowac taki problem. (sugeruje albo naprawic ta plyte glowna - albo kupic nowa jako step1, step2 nowy procek)
#9
Jesli admin potrzebuje/chce niech mi da znac, mam 2 vpsy w stanach z ovh ktore uzywam jako vpn; chetnie moge jednego udzielic.
#10
Kolejna noc kolejny prime.

Na jakies 11-12k taskow przypada prime.
#11
Cytat: stiven w 26 Luty 2024, 00:17No i mam to samo co poprzednio:

PrimeGrid: Notice from BOINC
Błąd składni w app_info.xml

To ma sie znajdowac w pliku
app_config.xml

(windows: C:\ProgramData\BOINC\projects\www.primegrid.com\app_config.xml )


Cytat: chr80♂°🛰� w 25 Luty 2024, 21:52Jeżeli nie liczysz bo jest u ciebie gorąco to utrzymuj kontakt na forum.
Nie wiem czy bede wstanie, to duza prosba. Jesli email notification kiedykolwiek bedzie dzialala i mnie tagniecie gdzies to napewno odwiedze.


Cytat: chr80♂°🛰� w 25 Luty 2024, 21:52Jakiej firmy ten referencyjny model?
Sapphire, ale raczej to nie ma znaczenia wszystkie byly robione przez amd w tym czasie (kupilem prosto ze sklepu na launch day, i kampowalem przed skelpem z rana (razem z tuzinem innych ludzi)
#12
Reference model. Jak temp dopisuja to pod full load idzie ~3150MHz na core.


Za duzo czasu zabieraja mu probki na pojedyncze karty.
Max moze miec 2 karty w tym systemie i lapie po 4 probki.

On przewaznie liczy na cpu po 2 thready na task ~ czyli na raz ma 64 taskow ktore liczy + 4-8 instancji na gpu. Przedewszystkim on jedzie z cpu.

Po ustawieniu mielenia na gfn16 od wczoraj rana *usa central time, znalazlem kolejnego prime (oczywiscie nie znajduje sie na T5K) i przerobilem juz prawie 9.4k taskow gfn16. (gdzie przedewszystkim liczy na jednym 3080Ti ze starym prockiem)
#13
Cytat: chr80♂°🛰� w 24 Luty 2024, 20:13Co by nie było w Tour de Primes 2024 valterc ma sto koszulek, a BOINC.Italy jest liderem. Mają miażdżącą przewagę.
W MilkyWay@home ma 1,263,508,642 pkt a, nasza drużyna 8,513,636,057.72 pkt. Więc na pewno karty ma dobre w FP64.
My robimy co możemy, a niektórzy liczą tak często jak przelatuje Kometa Halleya w pobliżu Ziemi.


Tak w fp64 mi100 jest 11.5TFlops (to jedna z kart ktora ma najwiecej fp64)
~ ale bardziej oplaca sie MI250 (ma 4x tyle fp64 @ 45.26TFlops) ~ koszt jakis $5k ebay - odpowiedni serwer pewnie 2x tyle kosztuje bo te karty nie uzywaja pcie.

Na compute system chyba warto zbudowac frankenstein'a o ktorym tutaj pisalem (sa tez linki gdzies pozniej do custom-pcb i mozna kupic SXM karty ktore czesto sa w zanizonej cenie bo nikt w praktyce nie mogl z nich korzystac.

https://forums.servethehome.com/index.php?threads/sxm2-over-pcie.38066/
(nawet ktos zrobil sxm na pcie https://l4rz.net/running-nvidia-sxm-gpus-in-consumer-pcs/ i sprzedawal to)



"niektórzy liczą tak często jak przelatuje Kometa Halleya w pobliżu Ziemi."


Moje usprawiedliwienie jest takie, jest zimno to licze,
Niestety teraz mam za dnia prawie 45'C ambient w pokoju z serwerami (a okna otwarte), w lato musze miec wlaczone AC bez liczenia by sie serwery nie wylaczaly.
(ostatnie 30 dni temp z jednego z serwerow na ktorym jest 3080Ti i A4000 (2x E5-2697v2), media serwer.)



A ceny za prad mam prawie $400 za miesiac (serwery pewnie polowa tego).
#14
amd po 4 taski
<app_config>
    <app>
        <name>genefer16</name>
           <fraction_done_exact>1</fraction_done_exact>
           <report_results_immediately>1</report_results_immediately>
    </app>
    <app_version>
        <app_name>genefer16</app_name>
        <plan_class>openclatiGFN16</plan_class>
        <ngpus>.25</ngpus>
        <ncpus>.2</ncpus>
    </app_version>
</app_config>


nv po 2 taski

<app_config>
    <app>
        <name>genefer16</name>
           <fraction_done_exact>1</fraction_done_exact>
           <report_results_immediately>1</report_results_immediately>
    </app>
    <app_version>
        <app_name>genefer16</app_name>
        <plan_class>OCLcudaGFN16</plan_class>
        <ngpus>.5</ngpus>
        <ncpus>.2</ncpus>
    </app_version>
</app_config>


Przez cala noc (~9h) przemielilem  GFN16  2178 Taskow na 3080Ti i 7900XTX ( z czego przez 4h nie bylo taskow)
3080Ti = 1066 Taskow
7900xtx =  1112 Taskow

A4000 = 580 Taskow
P100 = 73 Taskow


Notki:
1. 3080ti, i A4000 zapewne traci troche przez slaby cpu.
2. A4000 i P100 nie liczyly tylko GFN16 mialy tez inne taski.
3. 3080Ti max robi tylko 4 pozniej ma compute errors u mnie, najlepiej po 2 taski (czasowo)
4. 7900xtx moze robic 8x ale juz zbytnio zwalnia. Najlepiej po 4 taski (czasowo)
5. A4000 to jest jedyny system ktory chodzi na dockerze i szaruje resourcy z moim media serwerem i ai
6. Nie zawsze byly taski, pomiedzy 6am UTC a 10am UTC nie bylo taskow dla mnie; co nasuwa ze byloby prawie 2x tyle przeliczone. (ten mi100 nie mial tego problemu - mial caly czas taski)

Double-check Task GFN16
3080ti 2x = 5-7sec
A4000 1x = 3sec
7900xtx 4x = 8-10sec
P100 1x = 4sec

Main Task GFN16
3080ti 2x = 94-134sec
A4000 1x = 62sec
7900xtx 4x = 115-150sec
P100 1x = 450-750sec


Specyfikacyjnie MI100 jest podobny do 7900xtx (7900xtx powinnien byc z 3x szybszy w fp32 - patrzac na probki z mi100 i moje wyglada na to ze lepiej liczy na linuxie, jest szansa ze mi100 nie liczy po 8 probek tylko po 4 tak jak ja - ale moze liczy poprostu o wiele lepiej na linuxie - nie wiem.
7900xtx jest tez wolniejszy w pamieci o jakies 300GB/s, ale ogolem poinnien lepiej wygladac jako iz latency jest o wiele lepszy na gddr od hbm
7900xtx jest tez wolniejszy w fp16 o 60TFlops i fp64 o 9TFlops (CPU na obydwuch systemach jest ten samej generacji zen i raczej wygrywam na clockach)


Ten Mi100
Wydaje mi sie ze robi po 4x taski na M100
Po 64 taski na CPU
Przez ostatnie 9h przeliczyl okolo 5440 taskow (gdzie wiekszosc to double-checki)

Double Check Task
CPU = 15-17 sec
Mi100 = 11-12sec

Main Task
CPU = 835 sec
Mi100 = 110-128sec

// 3080Ti bedzie dalej liczyl - ma ok chlodzenie jeszcze.
#15
Cytat: chr80♂°🛰� w 23 Luty 2024, 19:58Co by nie było trafił 96 liczb w 2024 Tour de Primes.
A jego drużyna 108 i mają pierwsze miejsce.
Znajdź takie cztery choćby za 10 tyś. $ biorę wszystkie.

Mozesz tak samo liczyc na zwyklym 3080Ti poprostu schedulni gfn16 by chodzily po 8 taskow na raz, mozliwe ze bys byl nawet szybszy od niego.

Ta osoba robi przedewszystkim 8x gfn16 ktore zajmuja mu po 12-15sec. Jak pamietam moj 3080ti na kvm ivy bridge xeonie robil gfn16 w ciagu 1-2sec (mi sie nie chcialo mieszac w ustawieniach i poprostu wolalem robic wieksze taski jak extreme i gfn 19-22) gdybym robil 8x taskow na raz gfn16 to jakies 8-16sec by to zabieralo na task i mozliwe ze bylby szybszy nawet od tej maszynki.

Jak ktos jest tym zainteresowany to podeslicie mi config by bral 8 taskow na raz i moge poscic gfn16 na 3080ti na 24h
(a jak sie juz nie da edytowac configa w ten sposob to mozna wlaczyc 8 dockerow na tej samej karcie)
(gfn16 wydaje mi sie ze raczej nie zapisza sie do T5K listy wiec duzo ale malo)


// sprawdzilem 8 taskow - double check taski wygladaja tak samo, ale 3080ti nie lubi normalnych na wiecej niz 3.
//Zobacze przez nastepne 24h jak idzie gfn16.
// 7900xtx jest ok z 8 taskow, zabiera jakies 268sec na task, 4 taskow jakies 140sec na task ~ podobnie co ten Mi100 (jesli liczy 8siem na raz)
// stwoze google sheet z taskami pozniej.
#16
Cytat: chr80♂°🛰� w 11 Luty 2024, 19:11I jak tu konkurować z ludźmi z takim sprzętem?
https://www.primegrid.com/show_host_detail.php?hostid=1312896
AMD EPYC 7V13 64-Core 512GB RAM i 8x Akceleratorów GPU z 32GB VRAM każdy.
Działa na Rocky Linux 9.1 (Blue Onyx) [5.14.0-162.18.1.el9_1.x86_64|libc 2.34].
Pewnie koszt 25-40 tyś $. W naszej drużynie by się taki jeden przydał i farma fotowoltaiczna.
Pomarzyć można - trzeba się cieszyć z tego co się ma.


Ta osoba nie ma 8x MI100's; to jest przez rocm podzielony pojedynczy MI100 uzywajac sr-iov i siedzi na dockerze. Caly box spodziewam sie ze kosztowalby jakies $5k max (usd)
(Mi100 trafia sie po $1.4k - dla mnie bez uzyteczna - ona tylko potrafi compute - nie dziala vgpu na tej karcie)


Cytat: SzaMoT w 23 Luty 2024, 10:15Kolejne trafienie tym razem EDU Enthusiasts of Digital Universe
PPSE
Gratulacje
https://www.primegrid.com/workunit.php?wuid=1073909192

Dziekuje prime wpisal sie na T5K (ale bardzo szybko wypadnie z listy - stracil 20 miejsc przez kilka godzin)

// Praktycznie tyle z liczenia w tym roku - wiosna szybko przyszla i zaczyna sie robic cieplo
#17
@tito
https://einsteinathome.org/host/13069252/tasks/4/0

(wszystkie ustawienia stock w einstein)
Uzywa ~90%

Clock spokojnie trzyma sie na 3GHz core (bez oc)
(max)
Core: 48'C
TjMax: 62'C
Ambient 6'C

W grach jak cyberpunk, wszystko na maxa
min: 58
max: 102
avg: 68

Przelicze kilka taskow i pobawie sie jeszcze troche. (pozniej przetestuje prawdziwa przepustowosc pamieci, rad7 pro nie potrafil tak naprawde zrobic wiecej niz 882GB/s)
:ahoy:


Co mi narazie sie nie podoba   >:( :
Brak Fluid-motion
Nie lubi sie z Radeon Pro VII (moze pozniej jak beda pro drivery / pro wersja tej karty) poprostu nie idzie mu zaladowac driverow na 7900xtx jak jest rad pro 7.
HDR wyglada gozej niz na rad pro vii
#18
 :p_arr:

(jak przyjdzie to odpale wszystkie karty p100, 2080, rad7pro dla porownania)
#19
Ogolnie to moja opinia w moich uzytkach; posiadam nv i amd w roznych tier (desktop, pro, enterprise)

Jak narazie od samego poczatku ML to tak, nv byla szybsza i to o wiele- poniewaz wszystko chodzilona CUDA i pythonie.
Podczas pracy typu AI Art, czy Upscale to stary radeon pro vii na rocm pruje prawie 3x 2080 karty ktore robia to na CUDA (kontra opencl rocm).
Wielkie znaczenie w tym ma ilosc pamieci, przepust pamieci i szybkosc pcie. (rad7 pro ma pcie 4.0)

Wszystko zalezy od karty oczywiscie;

Wiekszosc obliczen jest na fp16, niestety praktycznie wszystkie konsumerskie nv karty maja 1:1 ratio z fp32 do fp16.
Taki 3090 ma niestety tylko 35 TFlopow (fp16), 4090 ma 82 TFlops (fp16) a taki 7900 xtx ma 122 TFlops. (I przychodzi bez problemow nv z zasilaniem)

Na papierze 7900 xtx powinno krolowac na ML. (zobaczymy) co z tego bedzie. Nie obawiam sie edycji kodu na opencl juz sie zapoznalem troche  :ph34r:.
#20
Cytat: tito w 16 Grudzień 2022, 21:35
Do gier, czy BOINC?

BOINC inicjalnie jak bedzie zimno, troche ML, i troche gierek.

// upscaluje wlasnie stare seriale dla siebie prywatnie.
#21
amd i sapphire sie zlitowali nademna - wyslali mi jedno-razowy link na zakup 7900 xtx (wysla mi w nastepnym tygodniu jak stock przyplynie do portu)  :p_arr:
1204 usd wyszlo po taxie; uff co za niesmaczny swiat, kilka lat temu nowke titan v za to bym mial.
#22
w opcjach twojego profilu

W gornym prawym rogu "Profile and Settings"
Ponizej po lewej stronie "Data Sharing"

"Display my data" , "link my devices".
#23
On raportuje skonczone taski co 91sec; ale nie dostaje zadnych nowych puki nie skoncze wszystkich + 10minut. (jakies 80 taskow mogloby jeszcze sie przeliczyc w tych 10 minutach)
#24
Sa jakies tricki by dostac wiecej pracy na milke?

270-300 taskow to za malo.
(4 taski na raz zabieraja 25-30sec)
To jest jakies 30-40min pracy.
#25
nie udalo sie zdobyc 7900 xtx; scalperzy zostali wpuszczenie przed reszta ludzi i zostalo tylko 5-6 kart dla reszty...  :bad:
#26
cat in the bag


primegrid zaorany
przerwa na kilka dni, i rusza milka  :whip:

xtx  :parrrty:
#27
wydaje mi sie ze tak. Jeszcze 3mil, w pending mam 2.3mil.
#28
wkoncu breaker upgradniety do 20amp  :whip:
(dalej lece na WW az bede mial 100 mil)
#30
Nie wiem czy bede wstanie pomoc w tym wyscigu.
1) Chce dobic WW do 100 mil.
2) Musze zainstalowac dodatkowy 20amp breaker i circuit podprowadzic; aktualnie jak doloze 100% load to wywala mi 15amp breaker. (dopiero sie to stanie za 5dni)
3) Juz zaczalem wyscig na "NumberFields" gdzie mamy 3cie miejsce (https://www.boincstats.com/stats/challenge/team/chat/1108) konczy sie 9tego.
#31
sproboje cos pomoc jedna maszynka.
#32
Cytat: Grzegorz R. Granowski w 28 Listopad 2022, 10:52
WW ma za ok 13 dni koniec ... ZACHĘCAM ...  :whip: :parrrty: :whip: :parrrty: Do boju ... A=0 czeka  :arrr:

Grzegorz Roman Granowski

ubijam i ubijam; jeszcze nic nie wszedlo. (62 mil juz jest - nie wiem czy dobije to 100tki.)
#33
Testy Sprzętu / Ryzen 7950X czy I9-13900KF ?
03 Grudzień 2022, 01:58
W ostatnich benchmarkach intel wyglada troche lepiej i jest tanszy od amd.
(amd opcja ma plus avx-512 pipe, intelowski opdowiednik nie ma)
#34
 :parrrty:
#35
Rozmowy nieBOINCowane / Lecą na Księżyc
17 Listopad 2022, 02:44
Artemis oficjalnie wystartowal 7h temu i leci. :p_arr:
#36
Rozmowy nieBOINCowane / Lecą na Księżyc
15 Listopad 2022, 15:01
Cytat: tito w 15 Listopad 2022, 09:24
Nie rozumiem sytuacji. Widziałem wiele startów i lądowań pojazdów kosmicznych i takich problemów nie było. Np Sokół Milenium....  XD

Ahh, problem jest taki ze nasa nie miala wlasnej rakiety od 2011 roku. Wszystko co nasa wystrzeliwala bylo wlasnoscia USAF i zazadzane przez te specyficzne grupy armi amerykanskiej, albo uzywala ruskiego roscosmos, czy spacex. Nie wspominajac ze kultura ludzi ktozy tam pracuja sie zmienila, w praktyce nikt juz tam prawie nie pracuje co zbudowal cokolwiek co latalo w kosmosie. Jest to dosc smutne co sie nasz kraj zrobil z ta agencja.
(zaczelo sie okolo '93-'94 gdzie byla decyzja senatu i congresu by poswiecic wiecej $ na socjalne plany jako nie ma benefitu z kosmosu).

A dzis mamy socjalne programow ktore dzialaja jako pralnie kasy, i wyciaganie wiecej kasy od ludzi na sile - w praktyce nie dajac im nic z tego.  :dunno:

Wiec rezultat jest smutny.

(Jak sie nie myle calosc byla robiona w stanach, przez azjatyckie raczki)
#37
wyglada ze nie ma taskow pod linuxa (WW)
(Na wino sa.)

Zalaczylem pod 2080 i p100.
#38
Cytat: chris80uppers w 13 Listopad 2022, 19:02
Punkty to nie wszystko niestety. Liczą się znaleziska. XD

Komputery masz super.
Ile kosztuje prąd u ciebie za kWh?

Widzę, że masz też komputer E5-2690 v4 z NVIDIA Tesla P100-PCIE-16GB mógłbyś użyć do milkyway'a ma dużo w FP64 (4.763 TFLOPS) :p_arr:

Masz cala racje, kiczowo ze mi nic nie wchodzi, tylko 1 prime z przed dekady. A licze projekty glownie ktore tylko znajduja primy.

Place jakies 200-300 USD za prad. Mam dosc sporo sprzetu w domu poza serwerami. (10.53¢/kWh) servery razem kosza ponizej 2kW nie wiecej. (UPS'y by mi sie crashnely jakbym przekroczyl)
Jak wbije jakies 155mil na prime to ustawie by jechala milka na p100 na kilka tygodni.
#39
Uzywam unraid (jest oparty na slackware), a box jest uzywany jako media server w domu. (boinc jest w dockerze, i w kvm)

W srodku mam:
2x E5-2697v2
256GB DDR3 1866MHz
4x 1TB SSD Crucial MX500 ZFS
4x 8TB SAS 8TB 4kn (HGST) ZFS
3x 1TB NVMe (2x micron 3400, i 1x hynix p41, w najblizszym czasie doloze tam samsung pm983a ktorego ostatnio zakupilem za 110 usd) w raid controllerze (Highpoint) - ZFS L2ARC - Cache
1x RTX 2080 8GB (blower)
1x Quadro A4000 16G (blower)
1300W PSU (Dellowski)




Wymienilem wsrodku wszystkie fany, i cpu heatsinki na noctua nh-d9dx i4 3u; i dodalem fan controller bym mogl miec wieksza kontrole nad chlodzeniem. (Dolozylem dodatkowy 80mm 8k rpm fan przy gornych slotach - tam ma a4000 i nvme raid karte, one sie lubia grzac.)

System jest razem z reszta zabawek w "sun-room", ale bez a4000 spokojnie moglby byc w pokoju i mozna przy nim zasnac jak nie jest obciazany mocno. Aktualnie na zewnatrz jest -2'C, w sun-room jakies 6'C. Bardzo dobrze sie liczy jak jest zimno.