artykuły

Historia 3dfx – firmy, która swoim Voodoo zrewolucjonizowała gry na platformie PC i... upadła

Historia 3dfx i legendy Voodoo

153
31 marca 2016, 08:30 Piotr Gontarczyk

Jak to wszystko się zaczęło?

Pierwsze kroki w kierunku masowego wykorzystania grafiki trójwymiarowej nastąpiły w drugiej połowie lat 70. ubiegłego wieku, gdy na rynku zaczęły się pojawiać pierwsze prymitywne konstrukcje, a więc generatory adresów wideo oraz kontrolery, które tak naprawdę były tylko konwerterami. Dbały one o to, by strumień danych wysyłany przez procesor był konwertowany na punkty umieszczone na płaszczyźnie. Dla każdego punktu określany był tylko kolor i ewentualnie jasność. Zadaniem takiego „kontrolera” było także synchronizowanie generowanego obrazu z wyświetlaczem (wtedy ekranem kineskopowym).

Za protoplastę komputerowych kart graficznych uznaje się układ MC6845, który firma Toshiba oficjalnie zaprezentowała w 1978 roku. Był to generator adresów wideo, szybko podchwycony przez firmę IBM, który wykorzystał jego konstrukcję do stworzenia pierwszego „pecetowego” standardu grafiki. W 1981 roku IBM wprowadził kartę graficzną o nazwie MDA, której pełna nazwa brzmiała IBM PC Monochrome and Color Display Adapter. Co prawda może się wydawać, że tę nazwę powinno się skracać do MCDA, ale na rynku funkcjonowały dwie wersje: kolorowa i monochromatyczna. Dlatego obok standardu MDA (monochromatycznego) istniał także CGA (kolorowy, w którym zamiast słowa Display użyto Graphics). Ten drugi jednak był znacznie mniej popularny. Zanim jednak na rynek wszedł IBM ze swoimi produktami, 2 lata wcześniej Toshiba powiększyła ofertę o układ MC6874, który był rozbudowaną i ulepszoną wersją modelu MC6845. Nowy kontroler (także generator adresów wideo) trafił do pierwszych w historii komputerów osobistych. Mniej więcej w tym samym czasie podobne rozwiązanie w swoich komputerach osobistych zastosowała firma Commodore.

W połowie lat 80. ubiegłego wieku pojawiły się istotne zmiany. W 1985 roku firma Commodore w komputerach Amiga zastosowała nowy kontroler grafiki o nazwie OCS. Przy tym układzie warto się na chwilę zatrzymać, gdyż był on punktem zapalnym multimedialnej rewolucji, która szybko zaczęła ogarniać świat komputerów osobistych. OCS (Original Chip Set) był pierwszym mocno zintegrowanym układem multimedialnym, który dziś nazwalibyśmy po prostu chipsetem płyty głównej. W jego skład wchodziły trzy podstawowe jednostki: Agnus, Denise oraz Paula. Agnus była najważniejsza i pełniła funkcję dyspozytorki RAM-u. To ta jednostka kontrolowała całą komunikację z pamięcią, zarówno ze strony CPU, jak i wszystkich innych jednostek. Agnus była nowatorska o tyle, że dzięki niej możliwe było kopiowanie danych wewnątrz podsystemu RAM bez jakiegokolwiek narzutu na procesor. Druga jednostka, Denise, to procesor obrazu. Zapewniał on podstawową rozdzielczość 320 lub 640 pikseli w poziomie i 200 lub 256 w pionie. Denise mogła z wykorzystaniem techniki przeplotu (interlacing) podwajać liczbę pikseli w pionie, ale często wiązało się to z wyraźnym migotaniem obrazu. Mogła też używać jednocześnie nawet 32 kolorów z palety 4096. Miała również zintegrowany kontroler myszki oraz cyfrowych kontrolerów gier. Ostatnia jednostka, Paula, to kontroler dźwięku, sprzętowo przetwarzający maksymalnie cztery 8-bitowe kanały (PCM) przy częstotliwości próbkowania od 200 Hz do 29 kHz. Zintegrowano w nim także m.in. kontroler przerwań, portu szeregowego i analogowych kontrolerów gier oraz jednostkę odpowiedzialną za przepływ danych z kontrolera stacji dyskietek.

Jak układ OCS zmienił świat komputerów? Dzięki zaawansowanemu kontrolerowi grafiki, a także doskonałemu kontrolerowi dźwięku, który nie zmienił się od 1984 roku, pierwsze komputery Commodore Amiga (1000, 2000, CDTV i 500) sprawiły, że szybko zainteresowali się nimi domorośli programiści, graficy i muzycy, którzy zaczęli tworzyć tzw. demoscenę. Mowa tu o środowisku osób, które zajmują się tworzeniem treści prezentowanych na komputerach. Dzięki pierwszym Amigom grafika komputerowa zaczęła wreszcie mieć znaczenie jako coś więcej niż tylko element prostych gier czy narzędzi biurowych. Zapotrzebowanie na rozdzielczość, bogactwo dostępnych kolorów, a także moc obliczeniową niezbędną do generowania grafiki w czasie rzeczywistym (również 3D) zaczęło gwałtownie rosnąć.

Także w 1985 roku firma Chips and Technologies wprowadziła na rynek kontrolery grafiki serii 82C43x, które wyzwoliły „pecety” (wtedy tzw. klasy PC/AT) z monopolu IBM-a i jego standardu EGA (Enhanced Graphics Adapter). Układy Chips and Technologies szybko zdobyły popularność i w połowie lat 80. XX wieku były obecne w wielu „klonach” PC/AT. Czym standard EGA różnił się od poprzedników? O ile we wspomnianym już MDA maksymalną rozdzielczość ustalono na 720 × 350 pikseli, o tyle w EGA wartość ta zmalała do 640 × 350 pikseli. Nowszy standard i mniejsza rozdzielczość? Rzeczywiście, maksymalna rozdzielczość została zmniejszona, ale standard EGA miał nad MDA/CGA istotną przewagę. Jego poprzednicy maksymalną rozdzielczość mogli zapewnić tylko w trybie tekstowym, a 640 × 350 pikseli EGA udostępniał w trybie graficznym. Dodatkowo maksymalną częstotliwość odświeżania obrazu zwiększono z 50 do 60 Hz.

2