Tags Posts tagged with "geforce"

geforce

nVidia

Układy graficzne firmy nVidia cieszą się ogromną popularnością w środowisku użytkowników Linuksa. I dzieje się tak nie bez powodu, skoro firma udostępnia w pełni działające sterowniki dla swoich produktów. Dużym plusem są aktualizacje sterowników w dzień premiery Ubuntu, nowego jądra Linux, czy nowej wersji serwera graficznego X.Org Server.

Jako portal promujący systemy Linux oraz oprogramowania na niego dostępne, postanowiliśmy w jednym miejscu zebrać dla naszych czytelników testy kart graficznych GeForce. Poniżej zamieszczamy spis wszystkich układów:

Specyfikacja platformy testowej, wykorzystywanej do wykonywania pomiarów:

Procesor Intel Core i5Intel Core i5-2400, z wyłączonym trybem Turbo Boost i stałym taktowaniem 3.1 GHz
Płyta główna ASRock B75 Pro3-MASRock B75 Pro3-M
Pamięć RAM GoodRam 4GB 1333MHZGoodram 4GB DDR3 1333MHz
Dysk twardy Samsung SP2504CSamsung 250 GB
Zasilacz Corsair CX600

Corsair CX600 600W

Monitor Lenovo L192pLenovo L192 o rozdzielczości 1280×1024 pikseli

Wyniki testów:

ZOTAC GeForce GTX 750 Zone Edition

Karta graficzna ZOTAC GeForce GTX 750 Zone Edition została oparta na konstrukcji nVidia GeForce GTX 750. Posiada ona 512 procesorów CUDA, 32 jednostki teksturujące oraz 16 jednostek ROP. Do przechowywania danych zamontowano 1 GB pamięci GDDR5 na 256-bitowej magistrali, taktowanej zegarem 5000 MHz. Bazowe taktowanie rdzenia wynosi 1033 MHz, a w trybie GPU Boost wzrasta do 1111 MHz.

ZOTAC GeForce GTX 750 ZONE Edition jest wyposażony w dwuslotowy chłodzenie, który zapewnia optymalną temperaturę podczas długich sesji grania. Radiator składa się z miedzianych rurek cieplnych oraz aluminiowych żeberek, wykorzystując doskonałe właściwości przenoszenia ciepła miedzi i wyjątkowe zdolności rozpraszania ciepła aluminium.

Karta wykorzystuje: Microsoft DirectX 12, OpenGL 4.4, PCI-Express 3.0, nVidia 3D Vision Surround, Adaptive Vertical Sync, GameWorks, SuperResolution, 3D Vision, PhysX oraz 3-way SLI. Na śledziu znajdziemy złącza: DL-DVI-I, HDMI, DisplayPort.

ZOTAC GeForce GTX 750 Ti OC

ZOTAC GeForce GTX 750 Ti OC została oparta na konstrukcji nVidia GeForce GTX 750 Ti. Posiada ona 640 procesorów CUDA, 40 jednostek teksturujących oraz 16 jednostek ROP. Do przechowywania danych zamontowano 1 GB pamięci GDDR5 na 128-bitowej magistrali, taktowanej zegarem 5000 MHz. Bazowe taktowanie rdzenia wynosi 1046 MHz, a w trybie GPU Boost wzrasta do 1124 MHz lub wyżej.

Na śledziu znajdziemy złącza: 2 x DL-DVI, DisplayPort i HDMI. Model ten wymaga dodatkowego 6 pinowego zasilania.

Karta obsługuje technologie Microsoft DirectX 11.2, OpenGL 4.4, PCI-Express 3.0, nVidia 3D Vision Surround, 3D Vision, PhysX oraz 3-way SLI. Dodatkowo otrzymujemy ZOTAC Boost Premium: Nero Kwikmedia, XBMC, nigine Heaven.

Gigabyte GV-N760OC-2GD

Gigabyte GV-N760OC-2GD została oparta na konstrukcji nVidia GeForce GTX 760. Posiada ona 1152 procesory CUDA, 96 jednostki teksturujące oraz 32 jednostki ROP. Do przechowywania danych zamontowano 2 GB pamięci GDDR5 na 256-bitowej magistrali, taktowanej zegarem 6008 MHz. Bazowe taktowanie rdzenia wynosi 1085 MHz, a w trybie GPU Boost wzrasta do 1150 MHz lub wyżej.

Na śledziu znajdziemy złącza: DVI-D, DVI-I, DisplayPort i HDMI. Model ten wymaga dodatkowego zasilania w postaci dwóch wtyczek: 6 i 8 pinowej.

Karta obsługuje technologie Microsoft DirectX 11.2, OpenGL 4.4, PCI-Express 3.0, nVidia 3D Vision Surround, 3D Vision, PhysX oraz 3-way SLI. Dodatkowo otrzymujemy.

ZOTAC GeForce GTX 780 Ti AMP! Edition

ZOTAC GeForce GTX 780 TI AMP! Edition, która jest oparta na konstrukcji nVidia GeForce GTX 780 Ti. Na pokładzie znajdziemy 3 GB pamięci GDDR5 z 384-bitową magistralą systemową, 2,880 rdzeni CUDA, 48 jednostek ROP oraz 240 jednostek teksturujących. ZOTAC GeForce GTX 780 TI AMP! Edition posiada taktowanie rdzenia wynoszące 1006 MHz, a w trybie Boost 2.0 potrafi wzrosnąć do 1072 MHz. Taktowanie pamięci równa się 1800 MHz.

Producent zamontował ulepszony system chłodzenia Triple Silencer, który obniżył temperaturę o 10 stopni Celsjusza i poziom hałasu o 15dBA

Karta obsługuje technologie Microsoft DirectX 11.2, OpenGL 4.4, PCI-Express 3.0, nVidia 3D Vision Surround, 3D Vision, PhysX oraz 3-way SLI. Na śledziu znajdziemy porty: dwa DVI-D, DisplayPort, HDMI, a do zasilania potrzebne są dwie wtyczki: sześciopinowa i ośmiopinowa.

Pakiet oprogramowania ZOTAC Boost Premium: Nero Kwikmedia, XBMC, UNIGINE Heaven DX11 Benchmark, ZOTAC Splinter Cell Compilation voucher: Splinter Cell Double Agent, Splinter Cell Conviction, Splinter Cell Blacklist.

Testy gier

Karty graficzne nVidia GeForce pod Linuksem - Xonotic

Karty graficzne nVidia GeForce pod Linuksem - Warsaw

Karty graficzne nVidia GeForce pod Linuksem - Tesseract

Karty graficzne nVidia GeForce pod Linuksem - SuperTuxKart

Karty graficzne nVidia GeForce pod Linuksem - OpenArena

Testy syntetyczne

Karty graficzne nVidia GeForce pod Linuksem - Unigine Valley

Karty graficzne nVidia GeForce pod Linuksem - Unigine Heaven

Karty graficzne nVidia GeForce pod Linuksem - GpuTest - Tessmark

Karty graficzne nVidia GeForce pod Linuksem - GpuTest - GiMark

Karty graficzne nVidia GeForce pod Linuksem - GpuTest - FurMark

przez -
4 349
nVidia

nVidia udostępniła nową dokumentację na swoich serwerach: GK104 disable underflow reporting. Dokument opisuje problem: How to address an intermittent problem observed on some GK104-based products. Chodzi mianowicie o błąd w BIOSie wideo dla chipsetu GK104, który posiadają karty: GeForce GTX 680M, GeForce GTX 670MQ, Quadro K4000M i kilka innych. Dokumentacja pomoże deweloperom sterowników Nouveau na dodanie odpowiednich poprawek do kodu.

nVidia

SLI, inaczej Scalable Link Interface to technologia firmy nVidia, która pozwala łączyć dwie lub więcej kart graficznych, w celu szybszego renderowania obrazu. Technologia została zaprezentowana w 2004 roku, jednakże pierwszy raz zastosowana została przez nieistniejącą już firmę 3dfx w 1998 roku. Połączono ze sobą dwie karty Voodoo 2, które pracowały w trybie przeplatania linii obrazu. Pierwsza karta generowała obraz składający się tylko z linii nieparzystych, druga zaś – z linii parzystych. Wygenerowane pół-obrazy łączone były w jedną klatkę.

Sposób działania

Dwie karty graficzne GeForce wspólnie generują obraz, który jest dzielony na dwie części – górną i dolną. Za rendering górnej połowy odpowiada pierwsza karta, dolnej – karta druga. Obie części obrazu nie są jednak sobie równe, przez co robiona jest analiza, aby stwierdzić która wymaga mniej, a która więcej obliczeń. Potem ustawiana jest linia podziału i obraz jest wysyłany do procesorów graficznych.

SLI, czy Multi-GPU

Technologia SLI kojarzona jest także z Multi-GPU, które działa na podobnej zasadzie. SLI jest używane głównie do rozłożenia mocy obliczeniowej, pomiędzy dwiema (lub więcej) kartami graficznymi z jednym rdzeniem. Multi-GPU natomiast rozdziela obliczenia pomiędzy dwa rdzenie, umieszczone na jednej płytce PCB.

Zatem, jeżeli mamy dwie karty graficzne, to używamy SLI, jeżeli mamy dwuprocesorową kartę graficzną włączamy Multi-GPU.

Tryby renderowania

SLI posiada kilka trybów pracy:

  • Auto: wybiera automatycznie poniższe tryby
  • AFR – Alternate Frame Rendering: każda z kart renderuje osobną ramkę
  • SFR – Split Frame Rendering: każda z kart renderuje pewną część ekranu
  • AA – Antialiasing: jedna z kart zajmuje się antyaliasingiem, a druga generuje ramki
  • AFRofAA – Alternate Frame Rendering of Anti Aliasing: moc obliczeniowa jest dzielona na obie karty graficzne
  • Mosaic: extend a single X screen transparently across all of the available display outputs on the Quadro Plex VCS

Uruchamianie odpowiedniego trybu

Jeżeli wiemy już, jakiego typu będziemy mieli połączenie, czas je uruchomić. Warto przy tym zapoznać się z dostępnymi opcjami wykonując polecenie:

nvidia-xconfig --advanced-help

SLI

Tryb SLI uruchamiamy wydając polecenie:

nvidia-xconfig --sli=SLI

gdzie pod SLI wstawiamy opcję: Auto, On, Off, AFR, SFR, AA, AFRofAA, Mosaic. Domyślnie SLI działa w trybie Auto, ale podczas testowania można zauważyć migotanie ekranu, zatem należy użyć konkretnego trybu.

Multi-GPU

Tryb Multi-GPU uruchamiamy wydając polecenie:

nvidia-xconfig --multigpu=MULTIGPU

gdzie pod MULTIGPU wstawiamy opcję: Auto, On, AFR, SFR, AA. Domyślnie Multi-GPU działa w trybie Auto, ale podczas testowania można zauważyć migotanie ekranu, zatem należy użyć konkretnego trybu.

Sprzęt

Serdecznie dziękujemy tutaj firmom Gigabyte i Zalman za wypożyczenie potrzebnego na testy sprzętu. Nasze badania oparliśmy o systemy: Xubuntu 12.10 i Windows 8, z wykorzystaniem benchmarków: Unigine Heaven 3.0, GpuTest 0.2.0 i Luxmark 2.0.

Unigine Heaven 3.0 ustawiliśmy:

  • API: OpenGL
  • Tesselation: Extreme
  • Shaders: High
  • Anisotropy: x16
  • Antyaliasing: wyłączony
  • Resolution: 1280 x 1024

Sterowniki graficzne:

Płyta główna

Abyśmy mogli w ogóle posiadać tryb SLI potrzebujemy do tego odpowiedniej płyty głównej. Aktualnie tryby SLI wspierają starsze modele z chipsetami nForce oraz niektóre chipsety Intela. Warto przed zakupem dokładnie zapoznać się ze specyfikacją danego modelu producenta. Dodatkowo potrzebna nam będą specjalne mostki, w zależności od ilości zamontowanych GPU.

Gigabyte GA-Z77X-UP5 TH

Do naszych potrzeb wybraliśmy model Gigabyte GA-Z77X-UP5 TH, który pozwala na podłączenie do trzech kart graficznych. Mamy na niej dostępne 3 sloty PCI Express Gen.3, ale dodana złączka pozwala nam na połączenie jedynie dwóch grafik.

Warto tutaj wspomnieć o dodatkowej bezprzewodowej karcie sieciowej Atheros Communications Inc. AR9462, która działa bezproblemowo. Próbowaliśmy uruchomić adapter Bluetooth, ale nie zadziałał.

Procesor

Wybraliśmy model Intel Core i5-2400 z taktowaniem 3 GHz, który posiada tryb Turbo Boost. Wyłączyliśmy obniżanie taktowania, natomiast zostawiliśmy zwiększanie szybkości.

Intel Core i5 - LGA 1155

Karty graficzne

Aby zadziałało SLI, potrzebne są dwa identyczne chipsety graficzne. Nie jest wymagane, ale zaleca się posiadanie kart graficznych o podobnych parametrach i producentach. W naszym teście wykorzystaliśmy modele taktowane pod 750 MHz na każdy rdzeń:

Gigabyte GV-N680OC-2GD

Gigabyte GV-680OC-2GD

Gigabyte GV-N680SO-2GD

Gigabyte GV-N680SO-2GD

Zasilacz

Im mocniejsze karty graficzne, tym większej mocy zasilacza potrzebujemy. Do naszego testu potrzebna była moc około 1000W, jednakże nie mieliśmy takiego zasilacza pod ręką. Użyliśmy pewnego obejścia w postaci dwóch osobnych:

Corsair CX600 600W

Corsair CX600

Zalman ZM750-HP Plus 750W

Zalman ZM750-HP Plus

Corsair podłączamy do komputera, płyty głównej i karty graficznej w 1 slocie PCI-Express. Zalmana natomiast podłączamy jedynie do drugiej karty graficznej, na wyłączonym przełączniku w zasilaczu. W tym momencie musimy bardzo uważać, aby nie uszkodzić sprzętu i siebie. Bierzemy wtyczkę do gniazda płyty głównej i odszukujemy zielony kabel. Patrząc od siebie, bierzemy czarny kabel z lewej strony i oba zwieramy pinezką lub czymkolwiek innym, odpowiednio zabezpieczonym.

Włączenie całego zestawu odbywa się poprzez puszczenie prądu przez zasilacz Zalman, a następnie uruchomienie całego komputera. Po chwili powinniśmy usłyszeć standardowy dźwięk poprawnego sprawdzenia sprzętu.

Wyniki testów

Na początku wspomnieliśmy o kilku trybach, w jakich mogą pracować nasze karty graficzne. O ile pod Linuksem łatwo było wybrać, o tyle pod Windows nie było napisane bezpośrednio. Po kilku dniach prób, zdecydowaliśmy się na: SFR pod Linuksem oraz druga opcja w menu wyboru pod Windows.

Unigine Heaven

Pierwszy wykres przedstawia ogólną wydajność Xubuntu 12.10. Drugi natomiast to system Windows 8. Widzimy wyraźnie, że wyniki potrafią być diametralnie różne. Ciekawostką jest, że pod Linuksem minimalna liczba klatek w trybie SLI była 4 razy większa, aniżeli miało to miejsce pod Windowsem. Test był powtórzony kilkukrotnie i uzyskiwaliśmy te same wyniki.

Linux

SLI pod Linuksem - Unigine Heaven - Linux

Windows

SLI pod Linuksem - Unigine Heaven - Windows

GpuTest

Jest to nowość u nas, aczkolwiek postanowiliśmy go wykorzystać, ze względu na dobre zobrazowanie sytuacji. W testach FurMark oraz TessMark wygrywa za każdym razem system Windows. Jednakże widać tutaj doskonale przyrosty wydajności, jaki uzyskujemy w SLI.

SLI pod Linuksem - GpuTest - FurMark

SLI pod Linuksem - GpuTest - GiMark

SLI pod Linuksem - GpuTest - TessMark

Luxmark

Na koniec postanowiliśmy sprawdzić moc obliczeniową technologii OpenCL. Okazało się, że zastosowanie dwóch kart graficznych daje dwukrotny przyrost mocy obliczeniowej. Na obu systemach uzyskaliśmy praktycznie takie same wartości. Nawet zmiana trybu na AFR nie dała żadnych odchyleń.

SLI pod Linuksem - Luxmark - Room

Complex benchmark: Room – ponad 2 mln trójkątów

Gry

Niestety, ale musimy tutaj zawiadomić, iż praktycznie żadna gra pod Linuksem, nie potrafiła wykorzystać mocy obliczeniowej dwóch kart graficznych. Czasami nawet zdarzało się, że wyniki były gorsze od pojedynczego trybu.

Podsumowanie

Nasze ponad 3 tygodniowe testy uznajemy za naprawdę udane. Do tej pory nie mieliśmy styczności z tą technologią pod Linuksem, co tym bardziej nas zastanawiało. Nie robiliśmy masy testów, tylko skupiliśmy się na kilku najważniejszych aspektach, aby móc przeprowadzić więcej prób.

Okazało się także, iż wyniki ogólne wydajności pod Linuksem, są dwa razy mniejsze aniżeli te pod Windows.

SLI pod Linuksem - Unigine Heaven - wynik ogólny

Wnioski nasuwają się następujące:

  • Sterowniki pod Linuksa są gorszej jakości, aniżeli te pod Windows
  • Uruchamianie SLI jest gorzej dopracowane, aniżeli to pod Windows, szczególnie że musimy za każdym razem restartować system operacyjny. Korzystanie z konsoli też nie każdemu musi się podobać
  • Brak gier, które potrafiłyby wykorzystać moc dwóch kart graficznych. Oby w przypadku Steam się to zmieniło
  • Obliczenia OpenCL są wyraźnie szybsze, ale nie lepsze, aniżeli pod Windows. Niestety, ale nie dane nam było przetestować technologii CUDA.
  • Nie działa lub nie widać dokładnego taktowania kart graficznych, szczególnie tych, co posiadają technologię dynamicznego zwiększania mocy obliczeniowej. Pod Windowsem i Linuksem mieliśmy zgoła odmienne odczyty taktowania rdzeni graficznych

Karta graficzna

Rynek kart graficznych posiada bardzo dużą ilość produktów do wyboru. Od najbardziej wydajnych dwurdzeniowych konstrukcji, do zintegrowanych w chipsetach i procesorach grafik o wydajności pozwalającej na oglądanie filmów w wysokiej rozdzielczości oraz prostego wyświetlania obrazu 3D. Najbardziej dochodowa część to ta, która posiada ceny akceptowalne dla większości zwykłych zjadaczy chleba. W przedziale 150 – 600 zł możemy nabyć produkt, który pozwala całkiem komfortowo grać w większość gier w rozdzielczości Full HD.

Dzięki uprzejmości firmy Gigabyte dzisiejszymi bohaterami recenzji są dwie karty graficzne: Gigabyte GeForce GTS 450, Gigabyte GeForce GTX 550Ti. Do zestawienia dodaliśmy także redakcyjny model Gigabyte GeForce 9600GT.

Zawartość, specyfikacja

Gigabyte GeForce GV-N96TZL-512I

Gigabyte GeForce 9600GT posiada układ graficzny G94-300, zbudowany z 505 mln tranzystorów i został wyprodukowany przy użyciu 65nm procesu technologicznego. Sam rdzeń jest to zmodyfikowana wersja chipa G92, który zawiera 754 mln tranzystorów i był użyty do produkcji rewolucyjnej karty graficznej GeForce 8800GT. Wydajność GeForce 9600 GT jest porównywalna z GeForce 8800 GT, natomiast sama karta graficzna jest następcą GeForce 8600 GTS.

TDP ustalono na 95W. Grafika obsługuje złącze PCI Express 2.0 i wspiera technologie DirectX 10, OpenGL 2.1, OpenGL 3.3, SLI oraz PureVideo HD.

Poniżej znajduje się pełna specyfikacja:

Rdzenie CUDA 64
Zegar rdzenia 700 MHz
Zegar shaderów 1800 MHz
ROP 16
Moc obliczeniowa 312 gigaflopów
Szybkość wypełniania pikselami 10,4 Gigapikseli/s
Szybkość wypełniania teksturami 20,8 Gigateks./s
Zegar pamięci 900 MHz
Ilość pamięci 512MB
Szyna pamięci 256 bity
Rodzaj pamięci GDDR3
Przepustowość pamięci 58 GB/s
Rozmiar rdzenia ~238 mm2
Liczba tranzystorów 505 mln

Konstrukcja z wyglądu prezentuje się znakomicie. Mamy niebieski kolor płytki PCB, srebrno-karmelowy radiator, schludnie wyglądające złącze zasilania 6 pinowego. Do poprawnego działania, wymagane jest posiadanie zasilacza o mocy minimum 350 Wat.

Gigabyte GeForce GV-N96TZL-512I - widok ogólny

Karta posiada miedziano – aluminiowy radiator Zalmana, który sprawdza się dosyć dobrze. Jedynym minusem jest nieustanny szum, który powstaje podczas pracy. My osobiście zmieniliśmy sobie na większy wentylator, który miał regulowane obroty i był o wiele bardziej cichy. Temperatury w stosunku do fabrycznego Zalmana nie różniły się zbytnio. Chłodzenie zajmuje dwa sloty.

Gigabyte GeForce GV-N96TZL-512I - chłodzenie

Na śledziu widzimy 3 złącza obrazu: cyfrowe HDMI i DVI-I oraz analogowe D-SUB. Łącznie możemy podłączyć do 2 monitorów oraz posiadać rozdzielczości: cyfrowe – 2560×1600 oraz analogowe – 2048×1536.

Gigabyte GeForce GV-N96TZL-512I - śledź

Tył karty nie prezentuje niczego szczególnego.
Gigabyte GeForce GV-N96TZL-512I - tył

Gigabyte GeForce GV-N450OC-1G

Gigabyte GeForce GTS 450 posiada układ graficzny GF106 wyprodukowany przy użyciu 40nm procesu technologicznego. Jest to nieco ponad połowa rdzenia GF104, czyli układu będącego trzonem karty GeForce GTX 460. Chip GF106 składa się z jednego GPC (Graphic Processing Cluster), w którym wszystkie cztery multiprocesory strumieniowe są w pełni działające. TPD karty ustalono na 106W.

Graphic Processing Cluster:
GF106 - budowa rdzenia

Multiprocesor Strumieniowy:
Fermi Streaming Multiprocessor

PolyMorph Engine:
PolyMorph Engine

Grafika obsługuje złącze PCI Express 2.0 i wspiera technologie DirectX 11, OpenGL 4.1, SLI, CSAA x32, DPFP 64, CUDA, PhysX.

Poniżej znajduje się pełna specyfikacja:

Rdzenie CUDA 192
Zegar rdzenia 830 MHz
GPC 1
PolyMorph Engine 4
ROP 16
Zegar shaderów 1660 MHz
Moc obliczeniowa 601 gigaflopów
Szybkość wypełniania pikselami 12,5 Gigapikseli/s
Szybkość wypełniania teksturami 25,1 Gigateks./s
Zegar pamięci 902 MHz
Ilość pamięci 1024MB
Szyna pamięci 128 bity
Rodzaj pamięci GDDR5
Przepustowość pamięci 57,7 GB/s
Rozmiar rdzenia ~240 mm2
Liczba tranzystorów 1170 mln

Pierwsze wrażenie od razu pozytywne – karta graficzna wygląda naprawdę świetnie. Niebieska płytka drukowana z dużym srebrnym radiatorem, plastikowa czarna osłona o obłych kształtach i naklejka dodają tej konstrukcji swoistego uroku.

Gigabyte GeForce GV-N450OCL-1G - widok ogólny

Producent zdecydował się na umieszczenie niereferencyjnego chłodzenia o nazwie WindForce 2X, które zajmuje dwa sloty. Jego cechą charakterystyczną są dwa duże 100mm wentylatory i potężny radiator rozciągnięty na całej długości płytki. Dzięki takiemu zabiegowi chłodzone są wszystkie najważniejsze podzespoły.

Gigabyte GeForce GV-N450OCL-1G - chłodzenie

Z tyłu widzimy jeszcze dwie rurki cieplne, które przekazują ciepło w górne rejony blaszek, gdzie łatwiej jest ono oddawane.

Gigabyte GeForce GV-N450OCL-1G - bok karty

Na śledziu są dwa złącza DVI-I oraz jedno HDMI. Powyżej mamy wylot gorącego powietrza.

Gigabyte GeForce GV-N450OCL-1G - śledź

Aby zasilić kartę potrzebny jest minimum 400W lub mocniejszy zasilacz z jednym dodatkowym 6-pinowym kablem. Widać również wspomniane wcześniej radiatory na sekcji zasilania.

Gigabyte GeForce GV-N450OCL-1G - zasilanie

Gigabyte GeForce GV-N550OC-1GI

Gigabyte GeForce GTX 550Ti posiada układ graficzny GF116 wyprodukowany przy użyciu 40nm procesu technologicznego. W nowym chipie podniesiono taktowanie rdzenia oraz pamięci o 15%, zastosowano także szerszą szynę pamięci, bo aż 192 bitową. Składa się tak samo z jednego GPC (Graphic Processing Cluster), w którym wszystkie cztery multiprocesory strumieniowe są w pełni działające. TDP karty ustalono na poziomie 116W.

Grafika obsługuje złącze PCI Express 2.0 i wspiera technologie DirectX 11, OpenGL 4.1, SLI, CSAA x32, DPFP 64, CUDA, PhysX.

Poniżej znajduje się pełna specyfikacja:

Rdzenie CUDA 192
Zegar rdzenia 970 MHz
GPC 1
PolyMorph Engine 4
ROP 24
Zegar shaderów 1940 MHz
Moc obliczeniowa 700 gigaflopów
Szybkość wypełniania pikselami 21,6 Gigapikseli/s
Szybkość wypełniania teksturami 28,8 Gigateks./s
Zegar pamięci 1050 MHz
Ilość pamięci 1024MB
Szyna pamięci 192 bity
Rodzaj pamięci GDDR5
Przepustowość pamięci 99,1 GB/s
Rozmiar rdzenia ~238 mm2
Liczba tranzystorów 1170 mln

Gigabyte zastosowało tutaj swój własny system chłodzenia, który prezentuje się całkiem przyzwoicie. Działa w połączeniu z technologią GIGABYTE Ultra Durable VGA, co zapewnia bardzo wysoką kulturę pracy. Radiator jest sporych rozmiarów, dzięki czemu przykrywa praktycznie całą kartę, a wdmuchiwane powietrze chłodzi najważniejsze elementy. Mimo swojego wyglądu nie jest ani troszkę głośniejszy od standardowych konstrukcji referencyjnych. Chłodzenie zajmuje dwa sloty.

Gigabyte GeForce GV-N550OC-1GI - wentylator

Karta wymaga dodatkowej 6 pinowej wtyczki zasilania oraz zasilacza o mocy co najmniej 400W. Widzimy również radiator na sekcji zasilania, co jest dużym plusem i przedłuży żywotność całego modelu.

Gigabyte GeForce GV-N550OC-1GI - zasilanie

Na śledziu znajdziemy mini HDMI oraz dwa złącza DVI-I.
Gigabyte GeForce GV-N550OC-1GI - śledź

Temperatury i pobór energii

Wszystkie trzy karty graficzne posiadają znakomite chłodzenia. Mimo pełnego obciążenia, potrafią utrzymywać temperaturę poniżej 70 stopni Celsjusza. Jedynie domyślne chłodzenie GeForce 9600GT wydaje nieprzyjemne odgłosy, jednakże wystarczy zamienić zamontowany wiatrak na większy wentylator i już mamy pełną ciszę.

Gigabyte GeForce 9600GT, Gigabyte GeForce GTS 450 i Gigabyte GeForce GTX 550Ti - temperatura pracy

Pobór mocy mierzyliśmy przez około 10 minut pełnego obciążenia całego zestawu oraz w pełnym spoczynku. W spoczynku widzimy podobne wartości, jednakże pod obciążeniem potrafią one się już różnić.

Gigabyte GeForce 9600GT, Gigabyte GeForce GTS 450 i Gigabyte GeForce GTX 550Ti - pobór mocy

Platforma testowa

Podzespół Model Dostarczył
Procesor AMD Athlon II x3

AMD Athlon II X3 425

OSWorld - logo kwadratowe
Płyta główna Gigabyte GA-870A-UD3

GA-870A-UD3 rev.3.0

OSWorld - logo kwadratowe
Pamięć Kingston HyperX Limited Edition

Kingston HyperX 2x2GB

OSWorld - logo kwadratowe
Karta graficzna 1 Gigabyte GV-N96TZL-512I

Gigabyte GeForce 9600GT

OSWorld - logo kwadratowe
Karta graficzna 2 Gigabyte GeForce GV-N450OCL-1G - chłodzenie

Gigabyte GeForce GTS 450

Gigabyte
Karta graficzna 3 Gigabyte GeForce GV-N550OC-1GI - wentylator

Gigabyte GeForce GTX 550Ti

Gigabyte
Dysk twardy Seagate ST340014AS

Seagate 40GB ST340014AS

OSWorld - logo kwadratowe
Zasilacz Corsair CX600

Corsair CX600 600W

OSWorld - logo kwadratowe
Monitor ViewSonic V171S

ViewSonic V171S

OSWorld - logo kwadratowe
System operacyjny

Xubuntu - nowe logo

Xubuntu 11.10

Canonical

Oprogramowanie testowe

W czasie testów pracowaliśmy na systemie Xubuntu 11.10 64 bity, jądrze Linux 3.0.0-22-generic, X.Org Server 1.10.4, sterownikach nVidia Linux Display Driver 295.53, Xfce 4.8.3, GGC 4.6.1 oraz rozdzielczości ekranu 1280×1024. Do testów wykorzystaliśmy pakiet Phoronix Test Suite 3.8 oraz wybrane testy:

  • ApiTrace: Badana jest wydajność wywołań OpenGL, które zostały wcześniej nagrane przez APITrace. Są one potem przepuszczane przez sterowniki graficzne i wykonywane na karcie graficznej.
  • j2dbench – vector: Sprawdzana jest wydajność grafiki wektorowej z wykorzystaniem potoków Java 2D i sterowników OpenGL
  • Lightsmark
  • Luxmark – Luxball HDR – low: renderowanie sceny przy pomocy OpenCL, tylko na GPU
  • Luxmark – Sala – medium: renderowanie sceny przy pomocy OpenCL, tylko na GPU
  • Luxmark – Room – complex: renderowanie sceny przy pomocy OpenCL, tylko na GPU
  • Nexuiz – HDR off
  • Nexuiz – HDR on
  • OpenArena
  • qVDPAUtest – MPEG Decoding: dekodowanie filmu z użyciem VDPAU i kodekaMPEG
  • qVDPAUtest – H.246 Decoding: dekodowanie filmu z użyciem VDPAU i H.264
  • SmallPT GPU – Complex: renderowanie sceny przy pomocy OpenCL, tylko na GPU
  • SmallPT GPU – Caustic3: renderowanie sceny przy pomocy OpenCL, tylko na GPU
  • SmallPT GPU – Cornell: renderowanie sceny przy pomocy OpenCL, tylko na GPU
  • Unigine Heaven
  • VDrift
  • Xonotix – Low Quality
  • Xonotic – Ultra Quality

Podsumowanie

Przetestowaliśmy wszystkie trzy karty graficzne i jesteśmy z nich zadowoleni. Odtwarzanie filmów w wysokiej rozdzielczości nie stanowi problemu. To samo tyczy się większości gier, dostępnych na Linuksa, jak i tych odpalanych przy pomocy Wine, czy przeglądarki internetowej. Wykorzystanie dwóch monitorów, to sama przyjemność. Oprogramowanie bez problemu rozpoznaje podłączone urządzenia i pozwala na ustalenie przestrzeni roboczej.

Gigabyte GeForce 9600GT – 100 zł ~ 170 zł

Karta graficzna, jak na dzisiejsze realia sprawuje się całkiem przyzwoicie. Możemy pograć w różne gry, nie odczuwając zbytniej utraty wydajności. Problem pojawia się w momencie bardziej wymagających nowszych tytułów.

Zalety:

  • Wydajne chłodzenie
  • Niska temperatura pracy
  • Wsparcie CUDA i VDPAU
  • Cena adekwatna do oferowanej wydajności
  • Dobre wsparcie pod Linuksem

Wady:

  • Głośny wiatrak na chłodzeniu
  • Nowsze tytuły nie zawsze dają radę

Gigabyte GeForce GTS 450 – 420 zł ~ 500 zł

Pierwsza wersja rdzenia Fermi dla średniozamożnych użytkowników spisała się znakomicie. Możemy grać w najnowsze tytuły, nie tracąc zbytnio na jakości. Oferowane wsparcie OpenCL sprawdzi się znakomicie w aplikacjach to wykorzystujących. Świetne chłodzenie Windforce x2 pozwoli nam obciążyć kartę maksymalnie, a my jej nawet nie usłyszymy.

Zalety:

  • Ciche i wydajne chłodzenie Windforce
  • Niski pobór mocy w trybie oszczędzania energii
  • Dobra wydajność w testach obliczeniowych z OpenCL
  • Dobra wydajność w grach
  • Dobre wsparcie pod Linuksem

Wady:

  • Zbyt wygórowana cena, jak na oferowane możliwości

Gigabyte GeForce GTX 550Ti – 450 zł ~ 525 zł

Udoskonalona wersja Fermi, czyli GF116 pozytywnie nas zaskoczył. Mimo braku chłodzenia Windforce, zamontowany autorski pomysł sprawdził się znakomicie. Wsparcie OpenCL zostało poprawione, w stosunku do GTS 450, tak samo jak i oferowana wydajność w grach.

Zalety:

  • Ciche i wydajne chłodzenie
  • Niski pobór mocy w trybie oszczędzania energii
  • Dobra wydajność w testach obliczeniowych
  • Dobra wydajność w grach
  • Dobre wsparcie pod Linuksem

Wady:

  • Cena powinna być niższa, w stosunku do oferowanej wydajności

Polecane

Jesień Linuksowa

1 702
Polska Grupa Użytkowników Linuksa ma zaszczyt zaprosić na konferencję Jesień Linuksowa 2017, która odbędzie się w dniach 22 – 24 września 2017 roku. Jako...