Kliknij tutaj --> ⛈️ karta graficzna nie wykorzystuje swojej mocy
Karta się nudzi na poziomie 50-70% wykorzystania (maksymalny fps w novigradzie jest w okolicach 80 bez względu czy wbiję 720p low czy 1080p low), po wyłączeniu AA skacze fps i wykorzystanie gpu - przynajmniej na rx5600xt.
Podobne tematy do karta graficzna nie zwieksza wydajnosci Sponsorowany: Alta Labs - rewolucyjna technologia sieciowa W dzisiejszych czasach wprowadzenie nowej linii produktowej jest nie lada wyzwaniem, ale Alta Labs śmiało wychodzi na przeciw oczekiwań klientów i prezentuje nowe, rewolucyjne produkty sieciowe.
W przypadku napotkania błędów takich jak karta graficzna Nvidia nie została wykryta w systemie Windows 11, świetną i niezawodną metodą jest aktualizacja BIOS-u, jak pokazano poniżej. 1. Odwiedź witrynę producenta swojej płyty głównej; Na przykład pójdziemy do stronie lenovo i kliknijkomputer osobisty. 2.
Po restarcie systemu karta graficzna przestała działać. Ekran czarny. Obecnie korzystam z zintegrowanej. Wyjąłem kartę, przeczyściłem wszystko od środka. Po wpięciu jej ponownie problem był taki sam. Sprzęt mam bardzo średni, niedługo będę składać nowy zestaw, ale do tego czasu chciałbym, aby obecny jeszcze jakoś działał.
Zazwyczaj poprzez sprawdzenie lokalizacji złącza, do którego jest podłączony monitor, można w łatwy sposób określić jaki typ karty graficznej wykorzystuje dany komputer. Jeśli obok miejsca gdzie podłączyliśmy monitor znajdują się też takie złącza jak USB, albo RJ-45, to jest to zintegrowana karta graficzna.
Site De Rencontre Francais Gratuit Non Payant. Recommended Posts Udostępnij Siema. Ostatnio podczas grania w gry, moja karta była wykorzystywana w 100%. Dzisiaj coś jej 'odwaliło' i nagle jest wykorzystywana tylko mniej więcej w połowie. Co najlepsze, nie ogranicza ją procesor, ponieważ ten jest w użyciu max 40%. Od dzisiaj również zaczęły piszczeć cewki na karcie. Czy to może być tym spowodowane? Mógł się włączyć jakiś 'tryb oszczędzania energii' lub coś podobnego? Karta to MSI GTX 1060, a procesor i7-3770K @ 4,7GHz 1,375v. Pozdrawiam ! Cytuj Link to post Share on other sites Udostępnij Raczej w CS:GO procesor jest używany i GTX 1060 to nie powinien się męczyć w nim na 100%. Ja gram na i5 6600 i GTX 1060 to karta chodzi na max 60% przy średnich-wysokich ustawieniach, procesor też do 70-80% sięga w sumie ;p Cytuj Link to post Share on other sites Autor Udostępnij Raczej w CS:GO procesor jest używany i GTX 1060 to nie powinien się męczyć w nim na 100%. Ja gram na i5 6600 i GTX 1060 to karta chodzi na max 60% przy średnich-wysokich ustawieniach, procesor też do 70-80% sięga w sumie ;p Tak, zgadzam się z tobą. Tylko problem jest taki, że w GTA 5 jest to samo. Kartę kupiłem tydzień temu jako nową i od razu zainstalowałem MSI Afterburner, aby sprawdzić zużycie procesora oraz karty graficznej. W GTA oraz CS karta działała na 100%, procek max max 60%. Poza tym - ustawienia minimalne, więc 160FPS to raczej trochę słabo jak na i7 oraz 1060... Przed "spadkiem wydajności" miałem prawie 500 FPS, a karta działała na 100% (ustawienia takie same)... Cytuj Link to post Share on other sites Udostępnij Możesz albo ustawić plan zasilania w systemie na maksymalną wydajność, albo sprawdzić, czy przypadkiem jakiś nowy cfg nie zmienił Ci fps_max - najlepiej ustaw na 999. Ale to pewnie już sprawdziłeś... Cytuj Link to post Share on other sites Autor Udostępnij Możesz albo ustawić plan zasilania w systemie na maksymalną wydajność, albo sprawdzić, czy przypadkiem jakiś nowy cfg nie zmienił Ci fps_max - najlepiej ustaw na 999. Ale to pewnie już sprawdziłeś... Sprawdzałem jedno i drugie. fps_max mam na 999, a ustawienia zarządzania energią na maksymalną wydajność (te w bios również) Ostatnio bawiłem się napięciem na procesorze, aby zmniejszyć temperatury na CPU. Ustawiłem próbie na 1,370 (aktualnie mam 1,375). Problem jest od tego momentu. Czy możliwe aby zasilacz zwariował i zaczął podawać źle napięcie na cały komputer (przez co ten automatycznie obniża zegary na karcie)? Posiadam Xfx core 550, co prawda już swoje lata ma (około 6), ale chyba nie powinno mu się nic stać... Sam już nie wiem... Cytuj Link to post Share on other sites Udostępnij może masz płytę ze starym portem PCI_E x16 i wystarczy bios zaktualizować... zobacz w programie GPU_Z zegary karty graficznej gpu/mem (zakładka Sensors), oraz tryb magistrali PCI_E (zakładka Graphics Card) Cytuj Link to post Share on other sites Autor Udostępnij Bios aktualizowałem do najnowszego (musiałem, bo wymieniłem procesor). Zegary działają tak, jak podaje producent. Płyta to Asus P8P67. Na stronie producenta niby jest napisane pci-e ale przecież przez tydzień było wszystko ok... Eh Cytuj Link to post Share on other sites Udostępnij Prawdopodobnie to wina twojego ukochanego Windowsa 10, jak masz jakiś wolny dysk zainstaluj tam Windows 7 i wykonaj test. Cytuj Link to post Share on other sites Udostępnij Tak z czystej ciekawosci, co windows 10 moze robic, ze mu wykorzystuje tylko czesc mocy karty? Cytuj Link to post Share on other sites Udostępnij Usuń sterowniki od GPU i MSI Afterburner-a. Później oczywiście zainstaluj nowe. Miałem coś takiego dwukrotnie. Cytuj Link to post Share on other sites Udostępnij Filmiki z youtube wyraznie wskazuja ze nie ma zadnych 500 fps wiec bajdurzysz Cytuj Link to post Share on other sites Autor Udostępnij Prawdopodobnie to wina twojego ukochanego Windowsa 10, jak masz jakiś wolny dysk zainstaluj tam Windows 7 i wykonaj test. Komp po formacie, dalej to samo... Najlepsze jest to, że grafa dostaje czasem "kopa" i zaskakuje na 100%, lecz po chwili dostaje freeza na pół sekundy i znowu ma 50%. Cytuj Link to post Share on other sites Udostępnij Tak z czystej ciekawosci, co windows 10 moze robic, ze mu wykorzystuje tylko czesc mocy karty? jego płyta nie dostała full sterowników dla 10, Cytuj Link to post Share on other sites Autor Udostępnij Dzisiaj na próbę wsadziłem moją starą kartę GTX660. O dziwo - karta działa na 100%. Czysty Windows. Tylko Steam + sterowniki od karty. Ilość FPS w GTA5 oraz CS:GO na GTX 1060 taka sama, jak na GTX 660. Stary zestaw: GPU - 100%, CPU - 60%Nowy zestaw: GPU - 50%, CPU - 45% Uruchomiłem jeszcze 3DMark. Użycie GTX 1060 tylko w nim jest 100%...?? Czyli karta teoretycznie działa jak należy...?? Edytowane 8 Sierpnia 2017 przez proboszcz447 Cytuj Link to post Share on other sites Dołącz do dyskusji Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Instalacja nowej karty graficznej jest wyjątkowo prostym zadaniem. Ciężej jest dobrać taką, która byłaby kompatybilna z naszym komputerem i zmieściła się wewnątrz obudowy. Postanowiliśmy uprościć ten proces, tworząc ten poradnik pomagający dobrać odpowiednią kartę. Aby móc pograć w najnowsze gry w wysokiej rozdzielczości i najwyższych detalach, potrzebna jest mocna karta o wysokiej wydajności. Spora liczba komputerów osobistych korzysta z tak zwanych "zintegrowanych" kart graficznych, które znajdują się albo na płycie głównej, albo są wbudowane w procesor. Pozostałe komputery posiadają "dedykowaną" kartę graficzną, którą instaluje się w porcie rozszerzeń na płycie głównej. Zazwyczaj poprzez sprawdzenie lokalizacji złącza, do którego jest podłączony monitor, można w łatwy sposób określić jaki typ karty graficznej wykorzystuje dany komputer. Jeśli obok miejsca gdzie podłączyliśmy monitor znajdują się też takie złącza jak USB, albo RJ-45, to jest to zintegrowana karta graficzna. Jeśli gniazdo to jest oddalone od innych i w pobliżu znajdują się takie złącza jak DVI, HDMI lub DisplayPort, to jest to prawdopodobnie dedykowana karta graficzna. Zobacz również:Karty graficzne Intel Arc – wszystko, co już wiemy [ zmienić domyślną kartę graficzną? Jakikolwiek typ by to nie był, to w celu wymiany tego komponentu będziemy musieli znaleźć złącze kart rozszerzeń, zwane PCI Express, jak i korespondujące mu usuwalne śledzie na obudowie, gdzie będą złącza naszej dedykowanej karty graficznej. Jak sprawdzić, czy karta graficzna jest kompatybilna - Znajdź port PCI Express W komputerze możemy znaleźć wiele portów rozszerzeń na płycie głównej. Zazwyczaj każdy z nich będzie portem PCI Express, ale aby zainstalować kartę graficzną będziemy potrzebować portu PCI Express x16. Są cztery warianty tego portu, ale wszystkie są wstecznie kompatybilne, więc niezależnie czy karta graficzna ma port w wersji lub to powinna też bez problemu działać na wersji Przedstawiona przez nas płyta główna ma trzy porty PCI Express x16. Najpopularniejszą praktyką jest wykorzystanie portu znajdującego się najwyżej. Jeśli instalowana będzie więcej niż jedna karta, to potrzebna będzie większa ilość takich gniazd. Zanim jednak zacznie się szukać odpowiedniej kombinacji kart, należy sprawdzić, czy nasza płyta główna w ogóle wspiera możliwość instalacji więcej niż jednej karty graficznej. Jak sprawdzić, czy karta graficzna jest kompatybilna - długość i wysokość karty Potężniejsze karty graficzne zazwyczaj potrzebują dużych systemów chłodzenia aby zapewnić im optymalne temperatury pracy. Czyni to je nawet dwukrotnie większymi w porównaniu do produktów o konstrukcji jedno, a czasem i dwu slotowej. Sposób w jaki jest zbudowana większość komputerów osobistych sprawia, że część z wentylatorami na karcie graficznej będzie znajdować się pod nią, zamiast na niej, przez co dobrze jest mieć jeszcze jeden wolny slot pod nią, aby zagwarantować jej odpowiedni obieg powietrza. Dodatkowo należy zmierzyć wymiary karty w obudowie, aby się upewnić, ze nic nie będzie jej blokować. Warto dodać 30-40 mm do długości karty, zwłaszcza w przypadku gdy posiada ona dodatkowe gniazda zasilania na końcu. Powinno nam to zagwarantować łatwą instalację karty z prostym podłączeniem do niej zasilania. W przypadku braku podanych wymiarów karty, można je uzyskać od producenta lub sprzedawcy. Jak sprawdzić, czy karta graficzna jest kompatybilna - Zasilanie karty Część kart graficznych, po umieszczeniu ich w gnieździe PCI Express x16, wymaga jeszcze dodatkowego zasilania. Większość zasilaczy powinno posiadać odpowiednie kable zasilające. Są one zazwyczaj czarne, oznaczone jako "PCI-E" oraz posiadają sześć pinów ułożonych po 3 w 2 rzędach lub osiem ułożonych po 4 w 2 rzędach. Te ostatnie częściej występują jako 6-pinowe z dodatkową kolumną z dwoma pinami. Jeśli zasilacz nie posiada takich złączy, to istnieją przejściówki, które podłącza się pod dwa cztero-pinowe złącza, zwane Molex lub dwa złącza SATA. Jeśli do karty graficznej trzeba podłączyć dwie takie przejściówki, to powinno je się podpiąć pod dwie różne szyny 12 V zasilacza. W większości zasilaczach są to dwie różne wiązki z niego wychodzące. Na koniec zostało sprawdzić czy zasilacz będzie w stanie uciągnąć kartę graficzną. Sprawdzenie, ile komputer bez karty graficznej pobiera prądu może być ciężkie do wykonania, a posiadany przez nas zasilacz nie będzie w stanie ciągle pracować ze swoją maksymalną mocą. Dobrze jest utrzymywać wykorzystanie zasilacza poniżej 80 % jego maksymalnej mocy. Producenci kart graficznych na szczęście ułatwili nam proces sprawdzania kompatybilności zasilacza z ich kartami graficznymi podając w specyfikacji jego rekomendowaną minimalną moc.
W artykule Test najpopularniejszych kart graficznych ostatniej dekady sprawdzaliśmy, jak zmieniała się wydajność najchętniej kupowanych kart graficznych w ciągu ostatnich lat. Kolejne generacje GPU, zmiany procesu technologicznego wpływały na znaczny wzrost wydajności. Oczywiście rosła również cena. Aktualnie na przeciętną kartę graficzną trzeba przeznaczyć około 1000 złotych, kilka lat temu za 1500 złotych można było kupić znacznie wyżej usytuowany w hierarchii model. W obrębie 10 lat postęp jest bardzo duży, jeżeli jednak spojrzymy na znacznie krótszy okres czasu, który obejmuje jedną lub dwie architektury, rodzi się pytanie o segmentacje kart. Flagowy GPU określa aktualne możliwości najnowszej technologii i technik, na nic więcej nie możemy liczyć. Oczywiście karty wyposażone topowy układ graficzny, są drogie, obecnie nawet bardzo. Tak duża kwota wstępu do grona graczy byłaby dla wielu osób zaporą nie do przebycia, toteż od wielu lat producenci układów graficznych skutecznie tworzą wiele słabszych i niżej wycenionych dzieje się to w dwojaki sposób. W trakcie produkcji nowych układów lepszy uzysk daje możliwość stworzenia jeszcze lepszej karty, która będzie działać szybciej. Z drugiej strony naturalne jest, że powstają słabsze modele ograniczone sztucznie przez producenta. Ograniczenie to może być zrealizowane na kilka sposobów: Niższa częstotliwość taktowania rdzenia oraz TDP. Mniejsza liczba bloków funkcjonalnych, która bezpośrednio przekłada się na wydajność obliczeniową. Mniej pamięci graficznej, co ma znaczenie w przypadku niektórych gier. Węższa magistrala pamięci. W ten sposób, regulując te parametry, można stworzyć całą rodzinę kart, zapewniającą pełne spektrum wydajnościowe i cenowe. W wypadku architektury Turing, w sklepach znajdziemy karty z serii GTX, z czego najtańszy model GeForce GTX 1650, pozbawiony modułów RT, kosztuje nieco ponad 600 złotych. Flagowy model GeForce RTX 2080 Ti dostępny jest w cenie ponad 5000 złotych. Architektura ta sama, jednak konfiguracja GPU, rozmiar rdzenia i możliwości jakże inne. O ile firma AMD nie ma jeszcze propozycji w najwydajniejszym segmencie, to zarówno Nvidia, jak i AMD w średnim i budżetowym przedziale cenowym mają bardzo wiele modeli GPU. Co ciekawe, pod względem wydajności i cen, karty rzadko rywalizują ze sobą. Owszem, są modele mniej lub bardziej opłacalne, ale poprzez zmianę wyżej wymienionych parametrów producenci GPU są w stanie precyzyjnie umieścić dany model w segmencie wydajnościowym. Patrząc od strony użytkownika, pewne parametry można zmieniać poprzez konfigurację, natomiast zawsze w ograniczonym zakresie. Parametry, na które wpływ ma użytkownik to: Częstotliwość pracy rdzenia graficznego - zwykle można ją zwiększyć, jednak wcześniej należy przydzielić karcie większy budżet energetyczny poprzez zwiększenie parametru TDP. Możliwości podkręcania zależą od wielu czynników, także tych zależnych od konkretnego egzemplarza, a wzrost wydajności nie przekracza kilkunastu-kilkunastu procent. Częstotliwość pracy pamięci - podobnie jak w wypadku GPU, także i pamięć VRAM można podkręcać. W tym wypadku wszystko zależy od modelu i zainstalowanych w nim pamięci. CO więcej, w zależności od architektury wzrost wydajności uzyskany tą metodą może być różny. Po drugiej stronie stoją parametry, które zostały arbitralnie nadane przez producenta GPU podczas segmentacji modeli. Nie mamy na nie wpływu, wszelkie decyzje związane ze specyfikacją GPU podejmujemy podczas zakupu. Liczba i rodzaj jednostek obliczeniowych w GPU Szerokość szyny pamięci Rozmiar zamontowanej pamięci Producent karty ─ wpływ na wydajność Dobrze wiecie, że sam producent karty graficznej nie ma bezpośrednio dużego wpływu na wydajność GPU. Z testów kart niereferencyjnych, które dla Was przeprowadzamy, wynika, że różnice w szybkości podobnie wycenionych modeli nie przekraczają kilku procent. Zdecydowanie ważniejsze są jednak inne kryteria, na przykład układ chłodzący GPU. To on odpowiada za możliwości OC oraz za osiąganą maksymalną częstotliwość w trybie boost. Oczywiście kluczowa jest także głośność pracy, bo jeśli wydajność jest na podobnym poziomie, to podczas wyboru konkretnego modelu pod uwagę należy wziąć kolejne kryteria - również cenowe. Co będziemy testować? W tym artykule postanowiliśmy sprawdzić dla Was czynniki nie zawsze zależne od użytkownika. Na kolejnych stronach dowiecie się, jak TDP, częstotliwość taktowania, a także i napięcie zasilające GPU wpływają na końcową wydajność. Jakiego rodzaju są to zależności oraz jak duży jest to wpływ. Dodatkowo udało nam się wyizolować takie różnice jak: szerokość szyny pamięci, pojemność pamięci lub liczba rdzeni RT. Zapraszamy do lektury. Wpływ TDP na wydajność TDP jest to współczynnik, który służy do odpowiedniego doboru układu chłodzenia do konkretnego procesora - niezależnie, czy to jest CPU lub GPU. Moc tracona w postaci ciepła jest bezpośrednio związana z mocą prądu elektrycznego dostarczanego do urządzenia. Idąc dalej tą ścieżką, logiczne jest więc, że im wyższa wydajność, tym dany sprzęt będzie pobierał więcej prądu. Zależności te w ogólnym rozumieniu są proste, jednak przyglądając się szczegółom, trudniej je interpretować. Warto zauważyć, że w ofercie jednego, konkretnego producenta znajdziemy przynajmniej kilka modeli z tym samym GPU. W wypadku Asus Phoenix RTX 2060 i ROG Strix RTX 2060 największą różnicą, którą zobaczymy na pierwszy rzut oka, to wielkość układu chłodzącego. Asus Phoenix RTX 2060 wyposażony jest w bardzo prosty schładzacz, którego współczynnik TDP wynosi 115 watów (spełnia on więc referencyjne TDP), natomiast w modelu ROG Strix układ chłodzenia charakteryzuje się współczynnikiem 160 do 190 watów. Czy w takim razie 165 procent domyślnego TDP przełoży się na o 65 procent lepszą wydajność? Oczywiście, że nie! Jej wzrost będzie dużo mniejszy, najczęściej możemy mówić najwyżej o dodatkowych 5- lub 10 procentach. TDP jest wiec parametrem, który możemy regulować w ograniczonym zakresie. Zwiększając go, zmieniamy budżet mocy danego układu graficznego. Oznacza to, że układ będzie pobierał więcej prądu, częstotliwość wzrośnie (podobnie jak wytwarzana energia cieplna) i wydajność też. TDP co to jest? TDP, czyli thermal desing power, to parametr opisujący, ile ciepła jest w stanie wygenerować układ graficzny w scenariuszu przy typowym (dużym) obciążeniu np. granie w gry komputerowe. Na podstawie tego parametru dobierana jest wydajność schładzacza. Oczywiście rdzeń karty graficznej nie może pobrać dowolnie dużo prądu. Ma on swoje limity, tj. limit mocy oraz maksymalnego prądu. Limity te określają maksymalny budżet prądowy, którego rdzeń graficzny nie jest w stanie przekroczyć. Więc jak łatwo zauważyć parametr TDP ma wpływ nie tylko na samą temperaturę (aczkolwiek jest to definicja encyklopedyczna), lecz też na pozostałe limity rdzenia graficznego. Dlatego jeśli będziemy w stanie wpłynąć na ten parametr to, możliwe będzie podniesienie wydajności samego układu graficznego. Warunki eksperymentu Testom poddaliśmy trzy popularne karty graficzne: Asus ROG Strix RTX 2070, Nvidia GeForce RTX 2060 Founders Edition i AMD Radeon RX 5700. Test polegał na zwieszaniu w kroku 5 % parametru opisywanego jako TDP. Jednocześnie resztę ustawień zostawialiśmy na ustawieniach referencyjnych, czyli nie podnosiliśmy ręcznie częstotliwości rdzenia, tylko sprawdzaliśmy jak karta graficzna zareaguje na zniesienie domyślnych limitów mocy. Liczyliśmy więc tutaj na działanie trybów turbo. Dodatkowo przy każdej zmianie limitu mocy monitorowaliśmy takie współczynniki jak: pobór mocy rdzenia i całego zestawu. Wyniki Test został wykonany w grze Wiedźmin 3: Dziki Gon. Wybór podyktowany był wzorcową powtarzalnością testów, a odsetek błędu rzadko kiedy przekracza więcej niż 0,2 klatki na sekundę. Średnio karty graficzne przyspieszyły o około dwie klatki na sekundę, czyli niewiele więcej niż 3%. Ich średni pobór prądu wzrósł o około od 10 % dla ROG Strix RTX 2070 do około 19% dla pozostałych kart graficznych. Co nas trochę zaskoczyło to to, że znając mechanizmy Boost w kartach graficznych Nvidii i AMD, spodziewaliśmy się, że wzrost częstotliwości taktowania poszczególnych kart graficznych będize większy. To tylko prowadzi do konkluzji, żeby skorzystać w pełni możliwości podniesienia limitu mocy, trzeba ręcznie zwiększyć częstotliwość pracy rdzenia karty graficznej. Warto zauważyć, że wzrost TDP przekłada się na wzrost napięcia zasilania, to zaś proporcjonalnie wpływa na zmianę mocy prądu pobieranego przez kartę. Podobna zależność jest pomiędzy częstotliwością taktowania a wydajnością. W zależności od modelu karty liczy się jednak przedział, w którym możemy regulować parametr TDP. Undervolting i podkręcanie karty graficznej. Undervolting to celowe obniżanie napięcia na rdzeniu karty graficznej, które ma spowodować niższe zapotrzebowanie karty graficznej na energię elektryczną. Zerknijcie jeszcze raz na poprzednią stronę - zmieniany parametr TDP jest naniesiony na skali liniowej, zaś przebieg Vcore zmienia się wykładniczo. Dlatego w wypadku tego procesu szukamy optymalnej wartości napięcia, przy której nie nastąpi przekroczenie limitów energetycznych GPU przy maksymalnej częstotliwości taktowania. Zazwyczaj jednak po obniżeniu napięcia na rdzeniu realna częstotliwość pracy układu graficznego też ulega pogorszeniu, ale umiejętnie przeprowadzony undervolting nie powinien skutkować dużym spadkiem wydajności. Bardzo często wydajność pozostaje na tym samym poziomie, karta pracuje natomiast ciszej i jest mniej prądożerna. Co ciekawe zdarzają się układy, w których obniżenie napięcia pozwala uzyskać lepszą wydajność. Undervolting w praktyce W wypadku kart z logo AMD w sterownikach Adrenalin mamy nawet opcję do automatycznego undervoltingu. Samo określenie undervoltingu w polskiej wersji sterowników zostało przetłumaczone na podnapięcie GPU. Trochę nieporadnie, ale wiadomo o co chodzi. Możemy je znaleźć w menu o tak samo intuicyjnej nazwie Dostrajanie (ang. Tuning). Możemy też wykonać underwolting ręcznie. W przypadku testowanych kart AMD ręczne ustawienie undervoltingu dało lepsze rezultaty. Na kolejnych slajdach pokażemy tę procedurę krok po kroku. Krok pierwszy - przechodzimy do zakładki dostrajanie i wybieramy tryb ręczny. Krok drugi - obniżamy napięcie rdzenia GPU, do momentu, aż komputer przestanie pracować stabilnie. Bardzo ważne: poprzez obniżenie napięcia na rdzeniu GPU nie uszkodzimy naszej karty graficznej. Po utracie stabilności nastąpi ponowne uruchomienie komputera - wystarczy skonfigurować ostatnie stabilne ustawienia i przetestować je. Szukanie stabilnego napięcia dla GPU potrafi być procesem czasochłonnym, więc nie powinniśmy się zniechęcać od razu. Krok trzeci - sprawdzamy stabilność uzyskanych ustawień. W przypadku testowanych kart graficznych AMD Radeon RX 5700 i 5600 XT wartością graniczną do stabilnej pracy układy granicznego było 0,825 V. Operacja undervoltingu na kartach graficznych Nvidii nie jest tak intuicyjna jak w przypadku AMD. Po pierwsze, nie mamy dedykowanego menu w sterownikach, musimy posiłkować się aplikacjami firm trzecich. W laboratorium używamy oprogramowania MSI Afetrburner. Sam proces przebiega bardzo podobnie, obniżamy napięcie rdzenia do wartości, przy której stabilność jest niezachowana. Następnie szukamy kombinacji wartości częstotliwości rdzenia i jego napięcia, która nas zadowoli. Jak przebiega cała procedura, przedstawiamy na kolejnych slajdach krok po kroku. Krok pierwszy - uruchamiamy MSI Afterburner, następnie wciskamy kombinację klawiszy Ctrl+F, otwiera się nowe okno z krzywą napięcia rdzenia i częstotliwości. Krok drugi - obniżamy krzywą, łapiąc myszką jeden z punktów i ze wciśniętym przyciskiem Shift przesuwamy całą krzywą do dołu. Krok trzeci - wybieramy pojedynczy punkt z krzywej, częstotliwości i napięć rdzenia i akceptujemy go, krzywa wtedy się ustawia. Wyniki Undervolting, okazał się strzałem w dziesiątkę dla testowanych kart graficznych, udało się uzyskać bardzo satysfakcjonujące rezultaty. Na kartach graficznych Nvidii spadek wydajności praktycznie nie występował, pomimo mniejszego napięcia na rdzeniu i niższym nastawom częstotliwości rdzenia. AMD wypada odrobinę gorzej, AMD Radeon RX 5600 XT przed undervoltingiem osiągał średnią liczbę klatek na sekundę w Wiedźminie 3 na poziomie 64,1 kl./s. Po tym zabiegu wartość ta spada do 61,2 kl./s co naszym zdaniem jest nadal bardzo dobrym wynikiem. Wydajniejszy Radeon RX 5700 zachowuje się podobnie. Podkręcanie kart graficznych Możliwość podkręcenia karty graficznej to darmowy bonus od producentów kart graficznych. Jest on co prawda bardzo losowy, ale prawie zawsze możemy liczyć na delikatny wzrost wydajności. Przetestowaliśmy kilka kart graficznych, żeby sprawdzić, ile uda nam się podnieść ich wydajność i czy gra jest warta zachodu. Producenci kart graficznych lubią chwalić się tym, że ich karta graficzna jest podkręcona względem modelu referencyjnego. Nawet takie modele mają jeszcze trochę zapasu wydajności. Dobrym przykładem jest ROG Strix RTX 2070. Ręcznie przeprowadzony proces OC skutkował zyskiem wydajności na poziomie 2 klatek na sekundę. W przypadku kart niepodkręconych fabrycznie możemy liczyć na wzrost wydajności wynoszący około od pięciu do dziesięciu procent, w sporadycznych przypadkach więcej. Szyna danych w karcie graficznej: 192 bit kontra 256 bit - Co to jest? Szyna danych to magistrala komunikacyjna karty graficznej, która odpowiada za przekazywanie (transmisję) danych pomiędzy rdzeniem karty graficznej a pamięcią VRAM. W przypadku karty graficznej komunikacja ta jest równoległa. Najważniejszym parametrem szyny danych jest jej szybkość. W wypadku równoległej transmisji liczba bitów proporcjonalnie przekłada się na wzrost szybkości wymiany danych. Szyna danych (pamięci) - jak to wygląda w praktyce. To bardzo prosty test, a ponieważ szerokość szyny danych to założenie nałożone przez producenta GPU i karty, to trudno jest wyizolować idealnie takie samo GPU z różną szerokością magistrali pamięci. Udało nam się to osiągnąć dzięki najnowszym kartom AMD z rodziny Navi. Na rynku dostępne są bowiem dwie karty z praktycznie tym samy GPU i różną konfiguracją pamięci. Radeon RX 5700 ma szynę pamięci 256 bitów, natomiast Radeon RX 5600 XT wyposażano w pamięć o szerokości magistrali 192 bity. Właśnie tych dwóch kart graficznych użyliśmy do przeprowadzenia naszego eksperymentu. Warunki eksperymentu. Obie karty graficzne dysponują identycznym rdzeniem graficznym Navi i pamięciami VRAM o identycznej szybkości działania. Jedyną różnicą pomiędzy nimi jest pojemność modułów pamięci. Mocniejszy RX 5700 dysponuje 8 GB VRAM, a słabszy RX 5600 XT do swojej dyspozycji ma 6 GB. Naszym zadaniem było wybranie odpowiedniego tytułu, który nie będzie wymagał dużej ilości pamięci VRAM, ale nadal będzie wymagający. Nasz wybór padł na Wiedźmina 3. Kolejnym warunkiem, jaki spełniliśmy, było ustawienie częstotliwości pracy rdzenia obydwu kart graficznych na jednakową częstotliwość (1680 MHz). Moduły pamięci w obydwu kartach graficznych pracowały z jednakową częstotliwością 14000 MHz - na rynku dostępne były różne wersje kart AMD Radeon RX 5600 XT. Kiedy już wszystko zostało ustawione, przystąpiliśmy do testów. Wyniki Wynik był przewidywalny, karta z szybszą magistralą danych okazała się szybsza, ale jej przewaga nad wolniejszym Radeonem to zaledwie średnio 3,6 klatki sekundę. To zaledwie 5 procent szybciej. Rdzenie RT i ich wydajność w śledzeniu promieni W najnowszych kartach graficznych Nvidii z serii RTX otrzymaliśmy kilka nowych rozwiązań technologicznych, z czego najważniejsze są rdzenie RT. Śledzenie promieni w praktyce Na dzień dzisiejszy gier wykorzystujących technikę ray tracingu jest mało, niewiele ponad 10 tytułów. Na szczególne wyróżnienie zasługują: Battlefield V ─ jest to pierwszy tytuł wykorzystujący efekty ray tracingu do symulacji naturalnych odbić w powierzchniach refleksyjnych. Control, który umiejętnie wykorzystuje rdzenie RT do generowania cieni i odbić. Metro: Exodus, które jako jedyny tytuł śledzenie promieni wykorzystuje do generowania całego oświetlenia w grze. Karty graficzne z serii RTX wyposażone są w rdzenie RT, które w sposób sprzętowy przyspieszają wykonywanie obliczeń związanych ze śledzeniem promieni. Pojedynczy rdzeń RT może wykonywać dwie operacje. Sprawdzać, czy pojedynczy promień zderzył się z obiektem (pojedynczym werteksem) na scenie 3D lub obliczać, które struktury akceleracji BVH dany promień przecina (akceleracja BVH była opisywana w tym artykule). Poszczególne karty graficzne serii RTX są wyposażone w różną liczbę rdzeni RT: GeForce RTX 2060 - 30 rdzeni RT GeForce RTX 2060 SUPER - 34 rdzeni RT GeForce RTX 2070 - 36 rdzeni RT GeForce RTX 2070 SUPER - 40 rdzeni RT GeForce RTX 2080 - 46 rdzeni RT GeForce RTX 2080 SUPER - 48 rdzeni RT GeForce RTX 2080 Ti - 68 rdzeni RT Warunki eksperymentu Jak zmierzyć wydajność samego RT nie angażując do tego rdzeni CUDA. To bardzo trudne, praktycznie niemożliwe zadanie. Dobierając odpowiednie oprogramowanie udało nam się jednak zniwelować użycie rdzeni CUDA. Nasz wybór padł na syntetyczny benchmark Vray NEXT, w którym możemy sprawdzić, jak dana karta graficzna poradzi sobie z renderowaniem sceny 3D, która w całości generowana jest na podstawie obliczeń śledzenia promieni. Domyślnie otrzymujemy pojedynczy wynik, który określa, ile ścieżek śledzenia promieni udało się policzyć przez 60 sekund. Szukając trochę głębiej, możemy dowiedzieć się, ile ścieżek promieni zostało policzonych na sekundę dla jednego piksela oraz ile próbek maksymalnie pojedynczy piksel może przechować. Wyniki Dodatkowo dodaliśmy wynik, jaki osiągnął procesor Intel Core i7 8700K 4,9 GHz. Już na pierwszy rzut oka widać, że wraz ze wzrostem liczby rdzeni RT rośnie wydajność w liczbie przetworzonych promieni na scenie. Było to do przewidzenia. Dodatkowo teraz wiemy, że wydajność ta skaluje się liniowo, choć nie jesteśmy w stanie wykluczyć wszystkich zmiennych z tego testu, tylko je zminimalizować. Wykres przedstawia maksymalną liczbę promieni prześledzonych na scenie 3D na sekundę. Na wykresie pokazującym liczbę próbek, które może przechować pojedynczy piksel, widzimy te same wartości dla pięciu kart z siedmiu. Odpowiedzialna za to jest pojemność dostępnej pamięci VRAM, to w niej przechowywane są informacje o próbkowaniu. RTX 2060 dysponuje sześcioma gigabajtami VRAM, pozostałe karty użyte w teście dostępne mają odpowiednio 8 GB VRAM to te z wynikiem 432 próbek i 11 GB to GeForce RTX 2080 Ti on osiągnął wynik 576 próbek. Znając wyniki z syntetycznego testu, postanowiliśmy, je przełożyć na bardziej przemawiające dla nas wyniki, jak w takim razie rdzenie RT mają wpływ na wydajność w grach. I znowu chcieliśmy wziąć tytuł, który jest najbardziej wymagający pod względem obliczeń RT. Ten warunek spełniło Metro: Exodus. Wyniki, jakie otrzymaliśmy w Metro: Exodus udowadniają nam, jak duże znaczenie mają rdzenie RT dla obliczeń śledzenia promieni. Wydajność skalowała się idealnie wraz ze wzrostem rdzeni RT. Najwolniejszy RTX 2060 ma 30 rdzeni RT, jego wynik to średnio 26,9 kl./s. Najszybszy z przetestowanych modeli, 2080 Ti na swoim wyposażeniu ma 68 rdzeni RT. To o 125% więcej od najsłabszego RTX'a, jego średnia liczba wyświetlanych klatek na sekundę to 55,1, jest to o 105% wyższy wynik, niż w przypadku najsłabszego w stawce RTX'a 2060.
karta graficzna nie wykorzystuje swojej mocy