SOISK - SYSTEMY OPERACYJNE I SIECI KOMPUTEROWE
Tomasz Puchała

Historia kart graficznych

Historia kart graficznych

1975-2010

 

Wszystko rozpoczyna się 35 lat temu, w 1975 roku. Właśnie wtedy firma IBM wprowadziła na rynek pierwszy komputer osobisty, a mianowicie IBM 5100.

Urządzenie wyświetlało na ekranie monitora 64 znaki w każdym z 16 wierszy, miało do dyspozycji 16 KB pamięci operacyjnej, a dane pobierało z taśmy. Cena, jaką przyszło zapłacić za to "cudo" sięgała 9000 dolarów.

 

 

Potężna maszynka - IBM 5100

 

6 lat później, a dokładnie 12 sierpnia 1981 roku, IBM zaprezentował następcę poprzedniego modelu. IBM 5150 posiadał adapter graficzny MDA - Monochrome Display Adapter, który komunikował się z komputerem za pomocą szyny ISA, wyświetlał 25 wierszy tekstu po 80 znaków każdy w rozdzielczości 720 x 350.

Niestety możliwości adaptera MDA były mocno ograniczone. Wyświetlał jedynie dwukolorowy obraz: biało-czarny, bursztynowo-czarny lub zielono-czarny. Umożliwiał jednak podkreślanie i rozjaśnianie tekstu, a dane odnośnie wyświetlanego obrazu zapisywał w 4 KB własnej pamięci.

Krótko po premierze 5150 IBM wydał nowy układ graficzny CGA - Color Graphics Adapter. Udoskonalony model MDA posiadał dwa tryby pracy - graficzny i tekstowy.

Tryb graficzny posiadał możliwość zmiany rozdzielczości i liczby kolorów. W 640 x 400 wyświetlał 2 kolory natomiast w 320 x 200 mieliśmy już do dyspozycji 4 kolory. Kolejną zmianą była ilość pamięci własnej, w CGA zwiększono ją aż czterokrotnie.

 

 

Nowsza wersja - IBM 5150.

Firma  Hercules Computer Technology w roku 1982 zaprezentowała adapter graficzny HGC - Hercules Graphics Controller. Karta umożliwiała pracę w wysokiej rozdzielczości 720 x 348 przy dwóch kolorach. W trybie tekstowym oferowała dokładnie te same możliwości co MDA wyświetlając 80 znaków w 16 wierszach.

 

A tu niezwykle "wyposażony" Hercules.

 

Enhanced Graphics Adapter - EGA, który ukazał się w 1984 dość znacząco odbiegał możliwościami od swoich poprzedników. Miał 64 KB własnej pamięci z możliwością rozszerzenia do 256 KB. Wyświetlał obraz w 16 kolorach w rozdzielczości  640 x 350 lub 320 x 200. Tryb tekstowy nie różnił się niczym względem MDA i CGA.

 

 

EGA również do małych nie należał...

 

VGA/SVGA:

Kwiecień 1987 roku okazał się przełomowy. Na rynku pojawiła się nowa karta graficzna z prawdziwego zdarzenia.

VGA - Video Graphics Array komunikował się z komputerem przy pomocy standardowej magistrali ISA. Układ udostępniał różne tryby graficzne, gracze mogli zadowolić się pracą w rozdzielczości 320 x 200 przy 256 kolorach z 18-bitowej palety barw, natomiast do użytkowania codziennego stosowano rozdzielczość 640 x 480 w 16 kolorach.

W trybie tekstowym wyświetlała 80 x 25 znaków w 16 kolorach, zapewniała zgodność wstecz z  poprzednim standardami (MDA, CGA, EGA). Z pewnością do jej atutów można było zaliczyć 256 KB pamięci lokalnej. Nowością był też analogowy sygnał wideo (RGB) który teoretycznie pozwalał wyświetlić nieskończoną ilość kolorów.

Zaraz po premierze VGA, IBM wprowadził słabsze odmiany tej karty, a mianowicie MCGA (MultiColor Graphics Adapter). Różniły się one trybem w rozdzielczości 640 x 480, gdzie pracowały jako monochromatyczne.

Do zastosowań profesjonalnych mogliśmy nabyć kartę 8514/A. Wyświetlała ona obraz w rozdzielczości 1024 x 768 przy 256 kolorach i wspomagała sprzętowo takie operacje jak: wypełnianie wielokątów wybranym kolorem czy też rysowanie linii ukośnych określonych jedynie punktem początkowym i końcowym

Skromna wersja VGA.

 

 

 

 

VGA okazało się być absolutnym standardem w swej dziedzinie, do którego dostosowywało się coraz to więcej producentów. Jak się jednak okazało, możliwości VGA były mocno ograniczone. Niezależni producenci zaczęli produkować nowe karty ze znacznie wyższymi rozdzielczościami nawet do 1600 x 1200. Karty te nazwano SVGA (Super VGA).

Stosowanie własnych rozwiązań oczywiście miało swoje wady. Doprowadziło ono do wielu niekompatybilności. By powstrzymać szerzące się zamieszanie stworzono organizację VESA (Video Electronics Standards Association), której zadaniem było przywrócenie i zachowanie zgodności w wszystkich nowych kartach graficznych.

 

Złącza VLB i PCI:

W celu umożliwienia szybszego rozwoju i zapobiegnięciu ograniczeniom nałożonym przez 16-bitową magistrale ISA, organizacja VESA zmuszona była rozszerzyć ją do pełnych 32 bitów.

VESA Local Bus (VLB), bo właśnie taką nazwę nosiła nowa magistrala, znacznie zwiększyła przepustowość względem poprzedniczki, co oczywiście pozytywnie przełożyło się na szybkość pracy.

 

 

A tu widzimy złącza VLB.

 

Jak się później okazało, Intel w dokładnie tym samym czasie pracował nad własną, niekompatybilną z ISA magistralą PCI (Peripheral Component Interconnect).

Trzydziestodwubitowa magistrala PCI udostępniała przepustowość do 132 MB/s. Początkowo wprawdzie uważano ją za mało przyszłościową, jak się jednak później okazało VLB przegrał tę wojnę, a PCI używa się nawet w czasach dzisiejszych.

Wraz z nową magistralą, producenci kart graficznych zaczęli wprowadzać swoje urządzenia z coraz to większymi możliwościami - początkowo 16-bitowa szyna została zastąpiona 32-bitową, następnie 64, aż później nawet 128-bitową. Zwiększeniu uległa również ilość posiadanej pamięci.

 

 

I bardzo popularne, nawet dziś - złącze PCI.

 

 

 

 

 

 

 

 

 

 

 

Początki grafiki 3D.

Matrox Millennium była pierwszą kartą graficzną, która posiadała funkcje grafiki trójwymiarowej. Układ MGA-2064W wytwarzał w pamięci karty Bufor Z. Jedną z innowacyjnych funkcji była możliwość cieniowania brył 3D.

 

 

Matrox Milennium.

 

Zaledwie rok później na rynku pojawiła się firma NVidia wraz z układem NV1. Poszerzył on wachlarz możliwości grafiki trójwymiarowej między innymi o sprzętowe nakładanie tekstur. Po raz pierwszy zastosowała go firma Diamond, w karcie Edge 3D. Niestety, pomimo sporych możliwości układu, karta nie została pozytywnie przyjęta na rynek ze względu na bardzo wysoką jak na tamte czasy cenę, która wynosiła około 2000 zł.

 

 

Początki zielonego producenta z układem NV1.

 

 W 1995 roku firma S3, zaprezentowała pierwsze tanie układy graficzne 2D/3D - ViRGE (Video and Rendering Graphics Engine). Akcelerator sprawdzał się znakomicie w grafice dwuwymiarowej, cechował się 16-bitową paletą kolorów (65536 barw) i bardzo dużymi możliwościami funkcji 3D, do której dodawał kilka istotnych rzeczy jak np: filtrowanie dwuliniowe, MIP-mapping, alpha blending, cieniowanie Gourauda, efekty atmosferyczne, itd. Niestety, jak się okazało, pomimo sprzętowej akceleracji pojawiły się problemy z zachowaniem płynności obrazu, często obrazowanie programowe było szybsze od sprzętowego.

 

A tu widzimy S3 ViRGE.

 

 

 

 

 

 

 

 

 

 

Kolejnym krokiem w dziedzinie kart graficznych było wprowadzenie układu Voodoo przez firmę 3Dfx. Oferowała ogromną wydajność,  przewyższającą około trzykrotnie poprzednie karty ViRGE, dodatkowo została podniesiona rozdzielczość z 320 x 200 do 640 x 480 przy zachowaniu znacznie lepszej jakości obrazu.

Voodoo był jedynie chipsetem, który wspomagał grafikę przestrzenną, do grafiki 2D i trybu tekstowego wymagana była karta zgodna z VGA.

 

 

Piękny - 3Dfx Voodoo.

 

AGP- Magistrala wyłącznie dla kart graficznych.

Szaleńczy wyścig wydajności kart graficznych bardzo szybko pokazał, że przepustowość, którą udostępniała magistrala PCI jest zdecydowanie za niska. By umożliwić dalszy rozwój Intel pod koniec 1996 roku podał specyfikację nowej magistrali AGP (Accelerated Graphics Port) przeznaczonej dla kart graficznych.

Dzięki niej komputer umożliwiał komunikację z kartą graficzną z przepustowością dochodzącą nawet do 528 MB/s, ponadto umożliwił przechowywanie tekstur w pamięci komputera.

 

 

To już chyba pamięta większość z nas - złącze AGP.

 

W 1997 roku na rynek wkroczyła NVIDIA wraz z układem graficznym RIVA 128 (Real-time Interactive Video and Animation). Karta okazała się być niezwykle wydajna, w części testów biła konkurenta Voodoo osiągając blisko dwukrotnie wyższe wyniki. Była akceleratorem zarówno grafiki 2D jak i 3D, często można było napotkać wersje z wyjściem sygnału wizyjnego oraz wejściem wideo.

 

 

Riva 128.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Rok później firma 3Dfx odpowiedziała NVIDII wypuszczając na rynek układy Voodoo2. W porównaniu do starszego brata wydajność zwiększyła się blisko trzykrotnie, ponadto umożliwiały pracę w trybie SLI - dzięki czemu ich moc wzrosła jeszcze bardziej. Z pewnością największą wadą tego układu, była obsługa jedynie funkcji trójwymiarowych. Do pracy w 2D nadal wymagane było posiadanie karty zgodnej z VGA.

Na rynku były dostępne dwie wersje układu z 8 i 12 MB pamięci.

 

 

 

"Dopakowany" - 3Dfx Voodoo 2.

 

By powstrzymać konkurencję NVIDIA zapowiedziała swój własny układ RIVA TNT (TwiN Texel). Według pogłosek karta miała być około trzykrotnie szybsza od Voodoo2 pracującej w trybie SLI. Oczywiście okazało się, że prawda jest znacznie mniej kolorowa. Realna wydajność Rivy TNT była na poziomie jednego układu Voodoo2.

 

 

Riva TNT.

 

 

 

 

 

 

W tym samym roku firma S3 wpuściła układ Savage3D, którego charakterystyczną cechą była kompresja tekstur S3TC - (S3 Texture Compression). Niestety problemy produkcyjne sprawiły, że karta była mało popularna, co skutkowało niezbyt pozytywnym przyjęciem przez rynek.

 

 

"Zaginiony" S3 Savage3D.

 

W 1999 roku NVIDIA i 3dfx wydały kolejne konkurujące ze sobą układy: RIVA TNT2 i Voodoo3. Voodoo okazał się być trochę szybszy, jednak 16-bitowa paleta kolorów sprawiła, że układy konkurencyjne cieszyły się większą popularnością.

 

 

Voodoo 3.

 

 

 

 

 

 

 

 

 

 

 

 

Jeszcze w maju tego samego roku NVIDIA wydała odświeżoną wersję karty TNT2 z dopiskiem Ultra. Układ cechował się wydajnością na poziomie Voodoo3, przy czym posiadał znacznie większe możliwości, dzięki czemu firma zyskała kolejnych zwolenników.

 

 

 

 

Riva TNT 2 Ultra - nawet z wentylatorem!

 

 

 

 

 

 

 

 

 

 

 

Późnym latem 1999 roku poznaliśmy możliwości nowego układu NVIDII - GeForce 256. Skrót "Ge" pochodzi od "Geometry", "Force"  oznacza moc, natomiast dopisek "256" nawiązuje do 256-bitowego procesora. Układ posiadał procesor geometrii odpowiedzialny za obliczenia geometryczne, potocznie zwano go jednostką transformacji i oświetlenia (T&L Engine). Transformacje i oświetlenia wykonywane dotychczas przez procesor zostały przejęte przez kartę graficzną, co czyniło ją niemal całkowicie niezależną. Stąd też wraz z GeForcem 256 pojawił się nowy termin, GPU - Graphics Processing Unit.

 

 

 

 

GeForce 256 - cały zieloniutki.

 

 

 

Niemal równo z premierą układu NVIDII, 3dfx zaprezentował  Voodoo4 i Voodoo5.

Bazujące na nowej architekturze karty VSA-100 (Voodoo Scalable Architecture) miały pełną 32-bitową paletę kolorów oraz bufor T, który pozwalał na uzyskanie rozmaitych efektów, jak na przykład: miękkie cienie, odbicia, rozmywanie obiektów podczas poruszania oraz pełnoekranowe wygładzanie krawędzi (Full-Screen Anti-Aliasing - FSAA). Jedyne czego mu brakowało to jednostka T&L.

 

 

A tu widzimy troszkę inny wynalazek - Voodoo5 5500.

 

 

 

Jeszcze w tym samym roku S3 opracowała układ Savage 2000. Pomimo dwukrotnie mniejszej liczby tranzystorów od GeForce 256 oferował zbliżone do niego możliwości. Był pierwszym układem tej firmy wyposażonym w jednostkę T&L, jednak miał z nią ogromne problemy, początkowo nawet nie dało się jej włączyć. Z czasem zostały wydane sterowniki, które umożliwiały uruchomienie T&L, jednak kończyło się to wyświetlaniem błędów w obrazie. Prawdopodobnie odpowiadała za to nie do końca dopracowana architektura układu.

 

 

Savage 2000.

 

 

 

W pierwszym kwartale 2000 roku firma ATI wprowadziła na rynek kartę graficzną Radeon 256 z układem o nazwie kodowej R100. Z czasem, aby nie mylić ich produktu z GeForcem 256, dopisek "256" został usunięty. Był to pierwszy chip ATI, który posiadał sprzętowe wsparcie dla T&L. Wraz z R100 zadebiutował nowy, dziś już zapomniany termin VPU (Visual Processing Unit).

Na rynku początkowo dostępne były dwie wersje tej karty z 32 MB i 64 MB DDR. Latem dołączyła do ich grona tańsza wersja z pamięciami SDR.

 

 

Radeon 256.

 

 

 

 

 

 

 

 

 

 

Aby utrzymać silną pozycję na rynku, NVIDIA momentalnie dała odpowiedź w postaci topowego układu GeForce2 GTS oraz wersji dla konsumentów mniej wymagających GeForce2 MX. Karty zostały wyposażone w 32 i 64 MB pamięci DDR. Kilka miesięcy później oferta NVIDII została poszerzona o GeForce2 Ultra - wydajność względem poprzednika (GTS) wzrosła o około 20-30%.

 

 

GF2 Ultra.

 

Koniec z 3dfx.

Rok 2000 okazał się dla firmy 3dfx tragiczny - miała ona ogromne problemy finansowe. Jedyną deską ratunku, nad którą pracowali od 1998 roku był świetnie zapowiadający się układ Rampage. Chip posiadał cztery potoki teksturujące, z których każdy miał w zanadrzu trzy jednostki mapujące tekstury. Dodatkowo cechował się taktowaniem na poziomie 200 Mhz. Układ nie zdążył ujrzeć światła dziennego. 3dfx w grudniu 2000 roku została przejęta przez firmę NVIDIA.

 

ATI vs NVIDIA - czyli wojna która, trwa do dziś.

Rok później NVIDIA zaprezentowała rodzinę kart GeForce3. Układ został wykonany w procesie 150 nm, wyposażony 57 milionów tranzystorów, po raz pierwszy pojawiły się bardzo ważne programowalne jednostki Pixel Shader i Vertex Shader.

Procesory VS zastąpiły jednostkę T&L. Ich zadaniem było wyliczanie położenia wierzchołków wielokątów w przestrzeni. Natomiast jednostki PS były odpowiedzialne za wyliczanie koloru pikseli.

 

 

Gf3 Ti 500 - nareszcie coś konkretnego.

 

 

 

W październiku 2001 roku na rynku pojawił Radeon 8500 razem z słabszym bratem 7500 - była to odpowiedź na nowe układy NVIDII. Układ charakteryzował się dużymi możliwościami i bogatą ofertą rozmaitych funkcji. Jednak spore problemy ze sterownikami spotkały się dość negatywnym przyjęciem przez rynek. Fala krytyki, która została wtedy wywołana bardzo odbiła się na wizerunku firmy, a opinia o sterownikach częściowo utrzymuje się nawet dziś.

 

 

Wiecznie sprawiający problemy - Radeon 8500.

 

 

 

W 2002 roku NVIDIA zaprezentowała karty GeForce 4 Ti. Posiadały one bardzo wysoką wydajność, znacznie przewyższającą obecne układy konkurencji. Najsłabszy, a jednocześnie jeden z najbardziej opłacanych układów, GeForce Ti 4200, został wprowadzony z kilku miesięcznym opóźnieniem, tak by nie stanowił konkurencji dla GeForce3 Ti500, a tym samym pozwolił na jego dalszą sprzedaż.

Na rynku można było również dostać tańsze odmiany kart GeForce 4. Seria MX charakteryzowała się bardzo niskimi osiągami, nie posiadały jednostek PS i VS, a ich realna moc była bliska poziomu kart GeForce2.

 

 

Gf 4Ti 4600.

 

 

 

W połowie roku 2002 ATI wprowadziło na rynek karty Radeon 9700 Pro. Karty cechowały się wysoką wydajnością, pełnym wsparciem dla DirectX 9.0 oraz świetną jakością obrazu. Układ graficzny R300 został wykonany w technologii 150 nm, posiadał 107 mln tranzystorów, 256-bitową szynę danych, 8 potoków renderujących i taktowanie rzędu 325 MHz dla GPU i 620 MHz dla pamięci. Wspierał technologie SmartShader 2.0,  SmoothVision 2.0, HyperZ III,  TruForm 2.0 i VideoShader.

Bez wątpliwości ATI Radeon 9700 Pro zrobił duży krok na drodze grafiki 3D. W chwili premiery bił wszystko, co było do pobicia, a wydajność, jaką oferował wystarczyła do płynnej rozgrywki jeszcze przez długi czas.

 

 

ATI Radeon 9700PRO - niegdyś marzenie każdego gracza.

 

 

Kolejnym krokiem NV było wprowadzenie na rynek kart graficznych GeForce FX 5900/5950, na które ATI odpowiedziało wydając kartę Radeon 9800XT. Wszystkie z tych kart charakteryzowały się bardzo wysoką wydajnością w DirectX 8.1. Zupełnie inna sytuacja miała miejsce w przypadku DirectX 9.0.

Układy ATI dosłownie gromiły konkurencje, nawet liczne optymalizacje kosztem jakości obrazu (np. w FarCry) nie pomagały w tej walce. Jako ciekawostkę i przykład może służyć wynik z 3DMark05 - gdzie topowe układy NVIDII uzyskiwały wyniki na poziomie R9550/R9600 Pro.

 

 

FX5950 Ultra.

 

 

 

 

 

 

 

 

 

 

Coraz większa moc...

W 2004 roku NVIDIA zaprezentowała chip NV40. Architektura układu okazała się przeciwieństwem tej z poprzedniej generacji kart. Charakteryzowała ją ogromna wydajność i duże możliwości technologiczne. Była zgodna z Shader Model 3.0, co miało ogromne podłoże marketingowe. NVIDIA zapewniała, że dzięki SM 3.0 ich karty w grach wspierających tę technologię zyskają znaczną wydajność przy zachowaniu jednocześnie takiej samej lub nawet lepszej jakości obrazu. Jak się ostatecznie okazało, minęło wiele czasu zanim wprowadzone technologie zostały w sensownym stopniu wykorzystywane.

 

 

Swego czasu bardzo popularna karta od producenta Leadtek - 6800 GT/Ultra.

 

 

 

ATI odpowiedziało niemal w tym samym momencie, wpuszczając na rynek  układ R420. Patrząc na postęp technologiczny karta niewiele różniła się od poprzednika R300, główna zmiana to wprowadzenie DirectX 9.0b. Sprawą najistotniejszą był jednak wzrost wydajności. Ta w porównaniu do R350 wzrosła dwukrotnie, doganiając, a czasami nawet przeganiając chip NV40.

Prawdziwa walka toczyła się jednak w niższych segmentach cenowych.  GF 6600 GT i X800 GTO dzięki sporym możliwościom podkręcania i świetnym stosunku ceny do wydajności wzbudziły ogromną sympatię wśród graczy. Na sklepowych półkach można było spotkać wiele odmian kart, z których większość różniła się od siebie w sposób minimalny, np: GF 6800, 6800 XT, 6800 LE, 6800 GS, 6800 GT, 6800 Ultra czy też od konkurencji ATI X800, X800 GT, X800 GTO, X800 PRO, X800 XT, X800 XT PE, X800 GTO2, X850 Pro, X850 XT, X850 XT PE - wprowadzało to ogromny zamęt wśród osób, które nie były na bieżąco w temacie, a zamierzały nabyć nową "zabawkę".

Do najbardziej poszukiwanych wersji należały karty umożliwiające odblokowanie dodatkowych potoków (jednostek PS i VS), które znacząco wpływały na wydajność układu.

Oferowane przez producentów karty były dostępne zarówno na złącze AGP jak i na nową, dwukrotnie szybszą magistralę PCI Express.

 

 

"Wyżyłowany" X850 XT PE.

 

 

 

W połowie 2005 roku, odbyła się premiera kart GeForce 7800 GTX. Po latach stosowania nazwy kodowej NVx, NVIDIA zmienia jej oznaczenie na Gxx, w tym przypadku G70 - nazwa pochodzi od 7 generacji kart graficznych.

 

7800 GTX 256 MB wraz z premierą odebrał koronę króla wydajności karcie ATI X850 XT PE. Układy te bazowały na architekturze NV40, wprowadzono w niej lekkie optymalizacje oraz zwiększono liczbę jednostek VS/PS i TMU. Zdecydowanie większą popularnością cieszył się GeForce 7800 GT, który przy znacznie niższej cenie nie odstawał tak bardzo wydajnościowo od jego starszego brata.

 

 

Niepozorny 7800GTX 256MB.

 

 

 

Na odpowiedź ze strony ATI przyszło nam czekać dość długo, bo aż do października. R520 był układem dużym i gorącym, posiadał bardzo głośne chłodzenie - identycznie jak w Radeonie X850 XT, wydajnością przewyższał minimalnie GeForca 7800GTX. Karty R5xx z X1800 XT na czele były pierwszymi układami ATI zgodnymi z Shader Model 3.0. Ciągłe przekładanie premiery wynikało prawdopodobnie z problemów z wprowadzeniem R520 w nowy niski wymiar 90 nm.

 

 

Suszareczka - ATI X1800XT.

 

W dniu premiery ujrzeliśmy całą rodzinę kart x1xxx, mianowicie: X1800XT, X1800 XL, X1600 XT, X1300 Pro. NVIDIA, by nie stracić korony króla wydajności, zaprezentowała kartę GeForce 7800 GTX 512 MB - był to podkręcony do granic możliwości układ G70 z szybszymi pamięciami. Jej dostępność pozostawiała wiele do życzenia, tylko nieliczni zdołali ją kupić, a wprowadzenie tej karty na rynek miało głównie podłoże marketingowe.

 

Jak się później okazało R520 nie był jedynym układem który w najbliższym czasie miał się ukazać. Zaledwie 3 miesiące później na rynku pojawiły się karty X1900 XT i X1900 XTX. Bez większych problemów odebrały miano najwydajniejszych kart na rynku. Z czasem ukazały się ich wolniejsze odmiany X1900 GT/X1950 PRO/X1950 GT, szczególnie ten drugi cieszył się dużym zainteresowaniem.

R580 to architektura bazująca na R520 - jedyną zmianą, ale jakże istotną, było zwiększenie ilości jednostek Pixel Shader z 16 do 48, dzięki czemu karty przez wiele osób były uważane za bardziej przyszłościowe od konkurencyjnych układów.

 

 

Najmocniejszy z rodziny r5xx - Radeon X1950 XTX.

 

Odpowiedzią NVIDII był układ G71 - czyli w praktyce G70 w 90 nm. Wprawdzie nowy twór NV nie zdetronizował topowych układów ATI, jednak oferował bardzo zbliżoną wydajność przy jednocześnie niższym poborze prądu.

Bez wątpliwości najlepszymi kartami NVIDII pod względem cena/jakość były początkowo 7900 GT które jednak borykały się z pewnym problemem - potrafiły padać praktycznie bez przyczyny. Najprawdopodobniej odpowiedzialna za taki stan rzeczy była sekcja zasilania lub wadliwa konstrukcja płytki PCB.

Następnymi świetnie sprzedającymi się kartami były GF 7600 GT i 7300 GT z DDR3 (szczególnie podkręcone wersje ze zmienionym chłodzeniem od Galaxy) jak i 7900 GS/7900 GTO.

 

 

A tu widzimy dwie karty 7900GTX połączone w trybie SLI.

 

Pod koniec roku 2006 NVIDIA zaprezentowała układ G80. Bazował on na zupełnie nowej zunifikowanej architekturze (połączono jednostki Pixel i Vertex Shader) wspierającej DirectX10. Do ważnych nowości z pewnością trzeba zaliczyć technologię CUDA. Umożliwia ona wykorzystanie drzemiącej w układach mocy obliczeniowej do np. wspomagania i przyśpieszenia obliczeń.

Pomimo ogromnej powierzchni rdzenia, 8800 GTX i 8800 GTS miały przyzwoity stosunek pobieranej ilości energii i wydzielanego ciepła do oferowanej wydajności. Flagowy produkt NV przewyższał ich poprzednią kartę 7900 GTX w zależności od ustawień nawet o 300%.

Początkowo NVIDIA borykała się ze sporymi problemami sterowników dla nowych układów, jednak z czasem problem został rozwiązany.

 

Karta która dała ATI niezły wycisk... GeForce 8800GTX.

 

ATI, jak poprzednio tak i tym razem, zostało zmuszone do przesunięcia premiery układu R600. W efekcie Radeona HD 2900 XT ujrzeliśmy dopiero 6 miesięcy po premierze G80. Oferował wydajność zbliżoną poziomowi 8800 GTS przy czym był głośny, gorący i pobierał ogromną ilość energii. Dodatkowo jego wydajność drastycznie spadała po włączeniu wygładzenia krawędzi i filtrowania anizotropowego - wszystko to przyczyniło się do fali krytyki i spadku zaufania wobec ATI.

Karty z niższych segmentów rynku - GeForce 8600/8500 i HD 2600/2400 ukazały się dopiero w okolicach czerwca 2007 roku. Ich wydajność drastycznie odstawała od starszych braci, utworzyła się przepaść miedzy półkami high/low end.

 

 

Spóźniony, gorący... ATI HD2900XT.

 

 

 

Odgrzewamy, przyśpieszamy...

W listopadzie 2007 roku AMD-ATI wprowadziło na rynek dwa nowe układy graficzne: Radeon HD 3850 i Radeon HD 3870. Karty te to nic innego jak HD 2900 XT w niższym wymiarze technologicznym,  zwężoną szyną danych do 256 bitów i szeregu mniejszych zmian jak np: DirectX 10.1, technologia zarządzania energią ATI PowerPlay, zintegrowany dekoder wideo UVD, czy też CrossFireX. Dzięki niskiej cenie i znacznie niższemu zapotrzebowaniu na energię niż HD 2900 XT karty te został bardzo pozytywnie odebrane.

 

 

 

"Odbicie od dna" - HD3870.

 

 

W odpowiedzi NVIDIA zaprezentowała karty 8800 GT i 8800 GTS 512 MB. G92 od G80 różnił się węższą szyną 256-bit, mniejszą ilością jednostek ROP i niższym wymiarem technologicznym. Karty cieszyły się ogromną popularnością. Początkowo ich dostępność była mocno ograniczona, co wykorzystali sprzedawcy sztucznie zawyżając ich wartość. Z czasem jednak dostępność stała się zadowalająca, a karty biły rekordy sprzedaży (był to jeden z lepszych okresów dla NVIDII).

 

 

 

 

A tu widzimy "kurę znoszącą złote jajka" - GeForce 8800 GT (G92).

 

 

 

 

 

 

16 czerwca 2008 roku odbyła się premiera nowych kart graficznych NVIDII, a mianowicie GTX280 i GTX260. GT200 jest rozwinięciem świetnej architektury G80. Układ został wykonany w technologii 65 nm, wyposażony w 1,4 miliarda tranzystorów, szynę danych 512-bit i 240 jednostek SP, a powierzchnia rdzenia wynosi aż 576 mm2. Brzmi imponująco.

 

Jak się jednak okazało, mimo niezłej wydajności, oczekiwania względem karty były jeszcze większe. Ogromny rozmiar rdzenia spowodował, iż karta była droga w produkcji, pobierała mnóstwo energii i wydzielała sporo ciepła. Z tego powodu część osób wstrzymywało się z zakupem i czekało na odświeżoną wersję w 55 nm.

 

 

Stylowy... GeForce GTX 280.

 

Konkurencja również nie śpi. W sprzedaży pojawił się Radeon HD 4850, a niewiele później dołączył do niego HD4870. Rv770 bazuje na tej samej architekturze, co krytycznie przyjęty przez rynek R600. Tu jednak zastosowano wiele zmian i usprawnień, znacznie zwiększono liczbę jednostek SPU/TMU odpowiednio z 320/16 do 800/40, wprowadzono też nowy typ bardzo szybkiej pamięci GDDR5. Wszystkie te zmiany bardzo pozytywnie odbiły się na wydajności - nowe układy cieszyły się wielką popularnością.

 

 

ATI staje na nogi - HD4870.

 

 

 

 

 

 

 

 

 

 

 

 

W tym miejscu warto wspomnieć o bardzo ciekawej polityce NVIDII. Układ G92 okazał się prawdziwą perełką, był mały, szybki i dość oszczędny, a producent potrafił to odpowiednio wykorzystać. Przez bardzo długi czas. Mogliśmy zauważyć pewne zjawisko, praktycznie jedną kartę opartą o ten sam układ mogliśmy nabyć w 4 różnych odmianach.

Mianowicie: 8800 GTS 512 MB, 9800 GTX, 9800 GTX+, aż w końcu GTS 250. Wszystkie te karty charakteryzowały praktycznie te same parametry, różniły się między sobą delikatnie taktowaniem i w przypadku G92b niższym procesem wykonania. Ciągła zmiana nazewnictwa była dość kłopotliwa i wprowadzała zamęt. Osoby, które nie obserwują na bieżąco rynku kart graficznych mogły mieć spore problemy z odróżnieniem owych kart. Z pewnością niezbyt korzystnie było by zmieniać "starą" 8800 GTS 512 MB na "nową" GTS 250.

 

Z początkiem roku 2009 - do rywalizacji dołączył nowy odświeżony układ GT200B. Zejście z procesem wykonania do 55 nm pozytywnie wpłynęło na pobór mocy i ilość wydzielanego ciepła. Zmiana ta pozwalała też na jeszcze wyższe taktowania układów, co przełożyło się na wyższą wydajność. Szczególną popularnością cieszyły się karty GTX 275 i GTX 260-216core. Konkurencja natomiast mogła pochwalić się Radeonem HD 4890, który dzięki niskiej cenie i wysokiej, porównywalnej z układami NV, wydajności odnosił bardzo dobre wyniki sprzedaży.

 

 

Rozłożony na części - GTX295.

 

 

 

 

 

 

 

 

 

 

23 września 2009 roku ATI zaprezentowało światu dwie nowe karty graficzne obsługujące DirectX 11 - Radeon HD 5870 i HD 5850 (niestety początkowo bardzo słabo dostępne). Architektura Rv870 praktycznie nie została zmieniona względem Rv770. W celu zwiększenia wydajności, zwyczajnie podwojono ilość podstawowych jednostek (ROP, TMU, SPu). Zejście z procesem do 40 nm, pozwoliło na zachowanie bardzo dobrego stosunku pobieranej ilości energii do liczby wyświetlanych klatek.

 

 

Najszybszy, największy, najnowszy... HD5970.

 

 

 

 

 

Na listopad ATI przygotowała wersję z dwoma układami Cypress pracującymi w trybie CrossFire. HD 5970 (tym razem porzucono nazwę X2) to nic innego jak 2 x HD 5870 na jednej płytce PCB z obniżonym taktowaniem.

 

Wydajność jednego układu Cypress względem poprzedniej serii wzrosła o ~60%. Choć spora część osób oczekiwała karty znacznie lepszej, Rv870 spełnia swoje założenia i wiedzie prym w ciągłym oczekiwaniu na ociągającą się konkurencje z hucznie zapowiadanym układem Fermi.