Marek hołYŃski



Download 0.95 Mb.
Page6/17
Date conversion29.04.2016
Size0.95 Mb.
1   2   3   4   5   6   7   8   9   ...   17

***

W naukowym dodatku do popularnej gazety codziennej przeczytałem niedawno, że nie wiadomo dokładnie, jakie były początki grafiki komputerowej. Tak, jakby minęły stulecia i jej historia zatarła się w mroku dziejów. A przecież jest to dziedzina w miarę nowa -wielu jej pionierów wciąż jeszcze pracuje zawodowo.

Grafika komputerowa narodziła się w końcu lat pięćdziesiątych z dokonań pokutujących do dziś pod nazwą „sztuka ASCII” (od przyjętego standardu kodu alfanumerycznego - American Standard Code for Information Interchange). Za pierwszą zarejestrowaną kompozycję uchodzi popularna wówczas sylwetka człowieczka zbudowanego z dwóch liter „o” oraz paru znaków /, \, |.

Z maszynami cyfrowymi współpracowało się wtedy przez szybę. Nie przez szybkę monitora, lecz przez okienko, w którym zostawiano zakodowane na perforowanych kartach programy, by następnego dnia przyjść po wyniki. Bezpośredni dostęp do komputera mieli jedynie operatorzy. To właśnie oni, nudząc się na nocnych zmianach, tapetowali ściany ośrodków obliczeniowych wizerunkami Marilyn Monroe, Alberta Einsteina i Myszki Miki komponowanymi ze znaków, jakimi dysponowała drukarka.

Dowcip polegał na tym, że np. litera M wygląda z dystansu ciemniej niż, powiedzmy, kropka albo odstęp. Stosując rozmaite znaki, można było nimi wypełniać obszary z odpowiednią gradacją szarości - z pewnej odległości wyglądało to istotnie jak coś w rodzaju obrazu.

Te prymitywne literowe mozaiki okazały się przydatnym ćwiczeniem. Gdy spróbowano je przenieść z papieru na czarno-biały ekran monitora, wymagania były podobne. Obrazy należało tworzyć z punktów na ekranie, a każdy z nich musiał mieć swoje odwzorowanie w pamięci. Ograniczona pojemność ówczesnych pamięci pozwalała przeznaczyć tylko 8 bitów na punkt (dwa do ósmej potęgi daje 256 dostępnych wartości). To umożliwiało zapisanie liczb od O (nie wyświetlaj punktu) do 255 (wyświetl z pełną intensywnością) i 254 pośrednich odcieni szarości.

Kolejna analogia polegała na tym, że zarówno na papierze, jak i monitorze niemożliwe było umieszczenie jakichkolwiek znaków między określonymi na stałe pozycjami. Poziomy odcinek linii prostej uzyskiwało się więc bez trudu z sąsiadujących znaków w tym samym wierszu. Pionowy odcinek dawało się skonstruować z liter leżących jedne nad drugimi w tej samej pozycji, ale w różnych wierszach. Przy odcinkach wyświetlanych pod dowolnym kątem zaczynały się jednak schody. Dosłownie i w przenośni, bo tak narysowane odcinki wyglądały jak zdezelowana klatka schodowa. Udane algorytmy reprezentacji linii prostych, kół i trójkątów za pomocą punktów opracował Ivan Sutherland, późniejszy założyciel znanej firmy Evans and Sutherland z Salt Lakę City.

Na początku lat sześćdziesiątych Sutherland był doktorantem w Massachusetts Institute of Technology w Bostonie, tym samym, w którym ja wylądowałem dwadzieścia lat później. Zaprojektował tam system pozwalający na dowolne transformacje figur geometrycznych. Za pomocą pióra świetlnego można je było przesuwać, obracać, zwiększać i zmniejszać. Dziś wydaje się to dziecinnie proste, ale w tamtych latach starczyło aż nadto jako temat doktoratu „Sketchpad: A ManMachine Graphical Communication System” (czyli „Szkicownik: system komunikacji graficznej człowiek-maszyna”).

Sutherland, zdając sobie sprawę z wagi zagadnienia, oznajmił wówczas: „Ten wynalazek może się stać prawdziwą Krainą Czarów, do której wstąpimy niczym Alicja”. I tak się właśnie stało. Sutherlandowi zaś należy się wdzięczna pamięć: zainicjował grafikę komputerową. Nie żyjemy w czasach Leonarda i współczesne odkrycia dokonywane są zwykle przez duże zespoły badawcze. Najistotniejsze innowacje, te, z których rodzą się nowe dyscypliny nauki i techniki, muszą być wsparte sprzętem, pieniędzmi i specjalistami do spraw organizacyjnych.

Szkicowanie na ekranie komputera okazało się zabawą na tyle atrakcyjną, że poświęcono temu popularnonaukowy program telewizyjny. Rozpoczął go szef Sutherlanda, dyrektor Computer-Aided Design Project: „Pokażemy państwu ludzi porozumiewających się z maszynami w sposób zupełnie odmienny niż dotychczas. Człowiek rysuje, a komputer odczytuje jego szkice! Przedtem trzeba było maszyny cyfrowe od początku do końca programować, co sprowadzało je do roli potężnego kalkulatora. Teraz komputer współpracuje z człowiekiem, staje się naszym inteligentnym asystentem”. Następne ujęcie ukazywało wnętrze Laboratorium Lincolna w MIT, zastawione szafami z setkami przełączników, lampek i pokręteł. To maszyna CX2 zbudowana w 1956 roku specjalnie do analizowania interakcji z użytkownikiem. Pośrodku maleńki, 13-calowy ekran oscyloskopu, na którym asystent rysował piórem świetlnym linie proste i okręgi, tworząc z nich bardziej złożone konstrukcje.


***

Zadziałała potęga telewizji. Po tak wymownej reklamie zgłosili się do MIT przedstawiciele instytucji zainteresowanych kontynuowaniem eksperymentu: urzędów kartograficznych oraz lotniczych i samochodowych biur projektowych. Dysponowali pokaźnymi funduszami badawczo-rozwojowymi, ale stawiali dokładnie określone wymagania.

„Linie proste, w porządku, nadają się, ale nam zależy też na dowolnych liniach krzywych oraz płaszczyznach i powierzchniach zakrzywionych. Byłoby znakomicie, gdyby udało się również wyświetlać nie tylko siatkę linii (wire-frame), lecz także wypełnione »ciałem« trójwymiarowe obiekty. Aha, nie zapomnijcie przy okazji o kolorze, to nam się bardzo przyda”.

W MIT szybko rozszerzono Sketchpad na trzy wymiary. Odnotowała to ponownie telewizja, demonstrując pudełko i piramidkę przesuwane na ekranie do pozycji, w jakiej zaczynały się na siebie nakładać. „Proszę państwa, komputer sam liczy krawędzie przecięć! Cóż za wspaniały efekt trójwymiarowości!” - zachwalał z entuzjazmem sprawozdawca TV

Do akcji włączyły się inne ośrodki badawcze. W silnym zespole, który pod skrzydłami Sutherlanda powstał na Uniwersytecie Utah w Salt Lakę City, kolorami i cieniowaniem zajmowali się Henri Gouraud i Phong Bui-Tuong. Problem krzywizn rozwiązał w 1970 roku Pierre Bezier, pracujący na zlecenie zakładów Renault, którym krzywizny były potrzebne do projektowania opływowych karoserii. Dziś na cieniowanie z interpolacją intensywności mówi się powszechnie „cieniowanie Gouraud”, cieniowanie z interpolacją wektora normalnego to „cieniowanie Phonga”, a „krzywe Beziera” to także jeden z podstawowych terminów słownika grafiki.

Dzięki tym postępom grafika komputerowa wykazała nareszcie, że może się do czegoś praktycznego przydać. Niedługo potem zdano sobie sprawę ze znaczenia wizualnej symulacji. Wojsko potrzebowało jej do szkolenia pilotów, duże ośrodki naukowe do modelowania złożonych procesów fizycznych i chemicznych.

Wtedy właśnie NASA przygotowywała się do wystrzelenia sondy kosmicznej Fbyager. Postanowiono zainstalować na niej kamerę, ale żeby oszczędzić baterie i ze względu na ograniczenia w transmisji obrazów zdjęcia należało robić tylko wówczas, gdy w polu widzenia znajdowały się interesujące obiekty, a ich oświetlenie było dostateczne. Zadania podjęli się programiści ze słynnego Jet Pro-pulsion Lab w Pasadenie. Stworzyli komputerowy model Układu Słonecznego i nanieśli trasę projektowanej wyprawy. Przy okazji rozwiązali wiele podstawowych zależności oświetlenia i tekstur. Można było obserwować symulację lotu Foyagera i widok z jego pokładu minuta po minucie.

Wkrótce MIT znów przypomniał o swoim istnieniu, realizując projekt „Aspen”. Ale o tym już pisałem.


***

W upowszechnianiu grafiki komputerowej trudno przecenić rolę gier, a zwłaszcza Ponga, pierwszej wideogry, która zdobyła powodzenie na rynku. Sukces Ponga, nawiasem mówiąc, był istotnym przełomem, bo firmy z Doliny Krzemowej, uprzednio próbujące szczęścia w tej dziedzinie, padały jedna po drugiej. Wydawało się więc, że podobny los czeka Syzygy Co., która znalazła się u progu bankructwa po fiasku lansowanej przez nią gry Computer Space.

Jednak właściciel Syzygy, Nolan Bushnell, nie poddał się. Zmienił nazwę firmy na Atari (w grze GO jest to ostrzeżenie, podobnie jak „szach!” w szachach) i zabrał się do opracowania nowej gry, komputerowego ping-ponga. Tym razem powodzenie było oszołamiające: rok po uruchomieniu produkcji, w 1973, wartość sprzedaży przekroczyła 3 miliony dolarów.

Ekscytację Pongiem trudno by wyjaśnić pokoleniu wychowanemu na Doomie i Quake. Czarno-biała grafika, minimum akcji. Dwie linie po bokach reprezentowały rakietki poruszane przez graczy w górę i w dół. Ze względu na niską rozdzielczość ekranu piłeczka była niezgrabnym, czteropunktowym kwadratem.

Ta prostota gwarantowała jednakże szybkość interakcji i tanią realizację. Z technicznego punktu widzenia wymagania Ponga ograniczały się do przeliczania pozycji trzech elementów na ekranie i wykrywania kolizji, a to było już dość dobrze rozpracowane. Wówczas zresztą brak skomplikowania nie zmniejszał atrakcyjności gry - nie było jej jeszcze z czym porównywać.

Sam się o tym przekonałem, bo gdy Pong pojawił się w warszawskim klubie studenckim Stodoła, ustawiono go na końcu mało uczęszczanej antresoli. Pierwszego dnia stali bywalcy jeszcze się o nim nie zwiedzieli i miałem go praktycznie dla siebie.

Wsiąkłem w Ponga na cały wieczór, nie licząc się z konsekwencjami. Koleżanka, z którą przyszedłem wtedy na zabawę taneczną, skreśliła mnie nieodwołalnie z listy znajomych. Co gorsza, uraz do komputerów pozostał jej na długo -jako wysoki urzędnik państwowy miała, niestety, dość okazji, by go manifestować.

Ja też do tej pory pozostaję w pewnym sensie pod wpływem tamtego wydarzenia. Pong demonstrował bowiem wiele interesujących problemów. Na przykład, gdy nie trafiło się w piłeczkę, znikała ona na krawędzi ekranu, aby pojawić się z przeciwnej strony jako „serw”. Zaskakująca prawidłowość: po stracie piłki w prawym górnym rogu ekranu wiadomo było, że zaraz wychynie ona z lewego dolnego rogu.

Efekt ten powodowała ograniczona pojemność rejestrów adresowych, które podawały pozycję modulo wymiary ekranu. Przy maksymalnych wartościach iksa i igreka ich kolejne zwiększenie o jeden powodowało zerowanie rejestrów i powrót do środka układu współrzędnych.

Uświadomienie sobie tego pozwalało dokładnie przewidzieć następny serw i dawało grającemu oczywistą przewagę. Natomiast inne zjawiska nie pozwalały się równie prosto wytłumaczyć. Aby je zrozumieć, musiałem zająć się na serio grafiką komputerową, i tak już zostało. Nie byłem wyjątkiem. Dużo później stwierdziłem, że podstawową motywacją większości projektantów systemów komputerowych było stworzenie maszyny pozwalającej im na korzystanie z bardziej zaawansowanych gier.


***

Powyższej opowieści nie mogłem, rzecz jasna, przytaczać studentom, bo staraliśmy się ich chronić przed popadnięciem w hazard. Według ostatnich sondaży 48 procent nastolatków gra codziennie, a wygrana przynosi im więcej satysfakcji niż dobre stopnie. Brak im siły woli, by się oderwać od komputera, i zaczynają wykazywać cechy charakterystyczne dla nałogowych hazardzistów. Rodzice, nauczyciele i psycholodzy nie od dziś zwracają uwagę na ryzyko igrania z sygnałami podprogowymi oraz na niebezpieczeństwo wpadnięcia w trans.

Na często zadawane pytanie, skąd się wzięło moje zainteresowanie grafiką, miałem więc przygotowaną równie prawdziwą, acz poprawną dydaktycznie odpowiedź. W 1974 roku pisałem doktorat z projektowania układów scalonych. Wtedy jeszcze nie było układów o wysokiej skali integracji, zadanie polegało na rysowaniu symboli tranzystorów, które miały znaleźć się w układzie, i wykreślaniu połączeń między nimi. W trakcie projektowania musiałem wykonywać wiele tego rodzaju rysunków i w pewnym momencie przyszło mi do głowy, że można napisać prosty program graficzny, który będzie rysował schemat na ekranie, a potem go drukował. Taka jest wersja oficjalna.

Pong natomiast miał stosunkowo długi żywot i dopiero na początku lat osiemdziesiątych został pokonany przez gry w rodzaju Asteroids, Defenders i niezmordowanego Pac-Mana. Nie przepadł jednak bez śladu. Miałem okazję odświeżyć pongowe wspomnienia w 1995 roku na konferencji Siggraphu w Orlando.

Tym razem chętnych do gry było więcej. Pięć tysięcy osób w głównej sali zjazdowej podzielono na dwa sektory. Każdy uczestnik otrzymał styropianową pałeczkę z odblaskowymi lusterkami -zielonym po jednej i czerwonym po drugiej stronie. Komputer, zależnie od proporcji między kolorami podniesionych w sektorach lusterek, poruszał z różną prędkością kolektywnymi „rakietkami” na ogromnym ekranie.

Oficjalnie nazywało się to „testowaniem doświadczalnego systemu interakcji kinetycznej”. Przybyli z całego świata specjaliści od grafiki komputerowej bawili się jak dzieci, obracając pałeczkami przez dobre 15 minut. Był w tym wyraźny element wzruszenia i nostalgii, bo pewnie wielu z nich właśnie Pongowi zawdzięczało obecność na tej konferencji.

- Wygrał lewy sektor, dziesięć do ośmiu - ogłosił przewodniczący sesji. - Koniec testu, dziękuję. Wracamy do porządku dziennego.

- NIEEE!!! - zaprotestowała sala. - Gramy jeszcze raz.

Drugim po Pongu wydarzeniem, które przyczyniło się do popularności grafiki komputerowej, był film Tron. Nie przejdzie on do historii kina ze względu na swoje wartości artystyczne - jako typowa masówka Disneya był denerwująco uproszczony i naiwny. Jednak zawarte w nim kilkuminutowe animacje komputerowe (zwłaszcza scena wyścigu „świetlnych motocykli”) olśniły nawet fachowców.

Artyści początkowo nie akceptowali grafiki komputerowej. Wymagała ona kontaktu z maszyną i umiejętności programowania, która ludziom sztuki była najzupełniej obca. Czuli się ponadto zagrożeni i obawiali się, że zostaną pozbawieni statusu wyjątkowości. Twierdzili, że coś, co potrafi zrobić komputer, nie może być sztuką, ponieważ pozbawione jest uczuć i ciepła ludzkiej ręki.

Scenę opanowali więc ci, którzy wcześniej ze sztuką nie mieli nic wspólnego, ale potrafili posługiwać się komputerem. Wsparli ich artyści mający niewiele do zaproponowania w sposób konwencjonalny i szukający niezwykłego narzędzia, by z jego pomocą zwrócić na siebie uwagę. Pierwsze rezultaty były zatem żałosne i mocno nadszarpnęły reputację grafiki komputerowej.

Obecnie komputery spotyka się w pracowniach wielu mistrzów. Ciekawe, że dzieła, które tworzą, nie odbiegają zbytnio od ich wcześniejszych dokonań. Komputer nie przytłacza osobowości, daje natomiast możliwość szybszej realizacji i sprawniejsze środki wyrazu. Uwalnia przy tym od pragmatyki i monotonii wyrobniczej, umożliwiając koncentrację na twórczej części procesu.

Trudno ocenić, w jakim stopniu grafika komputerowa jest autentyczną sztuką. Niektórym widzom przemawia do wyobraźni, innym nie. Wśród krytyków też nie ma zgody co do kryteriów oceny ani nawet co do metod jej eksponowania. Czy na ekranie monitora, który jest naturalnym medium do jej oglądania? Czy na slajdach, które są bliższe ekranowi komputerowemu niż odbitka z drukarki? A może robić wydruki i prezentować je w galerii?

Nowością jest to, że z maszyny cyfrowej możemy otrzymać nieskończoną liczbę wariacji na temat danego dzieła. Produkt jest niby masowy, ale zarazem unikalny; nikt na świecie nie wejdzie w posiadanie takiego samego obrazu. Co zatem umieścić na ścianie: obraz z komputera, o którym ma się pewność, że jest absolutnie niepowtarzalny, czy standardową kopię Słoneczników van Gogha, wiszącą w poczekalni każdego dentysty? Rzetelna ocena powinna wykluczyć pozaartystyczną faktografię, bo wiadomo, że komputer nie tworzył ani przed, ani po obcięciu sobie ucha.

Lawina ruszyła dopiero na początku lat osiemdziesiątych. Układy scalone zredukowały gabaryty maszyn do rozsądnych wymiarów. Stacje graficzne, dostępne kiedyś za setki tysięcy dolarów, stały się osiągalne po cenach o rząd wielkości niższych. Zaczęły powstawać firmy zajmujące się produkcją sprzętu: Tektronix, Silicon Graphics, Ardent, Stellar (te dwie ostatnie połączyły się i funkcjonowały pod nazwą Stardent) oraz oprogramowania dla grafiki: Softimage, Alias, Wavefront.

Stacje graficzne zadomowiły się w pracowniach architektów, w studiach filmowych i telewizyjnych. Wkrótce też pojawiły się komputery osobiste z zestawem prostych, ale często wystarczających funkcji graficznych. Grafika komputerowa opuściła laboratoria i znalazła się w zasięgu ręki zwykłego użytkownika.

Zaakceptowano ją bez zastrzeżeń, bo komputery używane były i tak do rozmaitych obliczeń. Zamiast ślęczeć godzinami nad stosem zadrukowanych cyframi kartek, wystarczy jeden rzut oka na trójwymiarowy wykres, żeby zrozumieć analizowane zależności. Prościej jest oglądać niż czytać (choć nie zawsze pożytek jest ten sam) - potwierdzają to proporcje między widzami sfilmowanych dzieł literackich a czytelnikami oryginałów.

Wyniki prezentowane w postaci graficznej są bez wątpienia znacznie łatwiejsze do przyswojenia. Na inauguracyjnych wykładach w MIT zawsze cytowałem znane powiedzenie, że obraz jest wart iks słów, gdzie za iks podstawia się tysiąc albo jakąś inną budzącą szacunek liczbę.

Czy jest to jednak wystarczający powód, by wydawać dziesiątki, a nawet setki tysięcy dolarów na zakup sprzętu i spędzać miesiące na programowaniu? Przecież ten sam rysunek da się taniej uzyskać za pomocą ołówka i kartki papieru. To prawda, że komputery są szybkie, ale powielanie obrazów kserokopiarką zajmuje jeszcze mniej czasu. Pamięci maszyn potrafią zmagazynować sporo informacji wizualnej, ciągle jednak mniej niż zwykła taśma magnetowidowa. Precyzja w odwzorowywaniu złożonych kształtów jest wysoka, lecz taką samą oferuje kamera filmowa czy aparat fotograficzny.

Grafika komputerowa ma jednak w zapasie argument, który daje jej przewagę nad tradycyjnymi narzędziami. Umożliwia kreowanie efektów wizualnych trudnych lub wręcz niemożliwych do uzyskania innymi sposobami.

Nie znaczy to, że wszystkie takie nierealne sytuacje muszą ocierać się o tematykę science fiction. Zachowanie elektronów w polu magnetycznym, na przykład, zostało dokładnie opisane przez fizyków, ale zobaczyć się tego nie da. Gdyby nawet zbudowano dostatecznie silny mikroskop, to i tak z zasady nieoznaczoności Heisenberga wynika, że pozycji elektronu nie dałoby się określić. Model matematyczny można jednak wprowadzić do komputera, powiększyć elektron do wymiarów piłeczki golfowej i obserwować jego ruch klatka po klatce.

Tradycyjne sposoby dopasowywania sztucznych stawów do kończyny pacjenta zwykle nie dawały gwarancji, że stawy te będą należycie funkcjonować. Obecnie staw projektuje się w komputerze i wyświetla z różnymi poziomami przezroczystości wszystko, co go otacza: kości, mięśnie, skórę. Następnie uruchamia się pakiet animacyjny, aby sprawdzić, czy przy zginaniu łokcia lub kolana wszystko działa bezkolizyjnie, i nanosi się ewentualne korekty.

Ostatni przykład, mój ulubiony, choć zupełnie nienaukowy. Załóżmy, że kazaliśmy komputerowi wyświetlić skrzypce. Niech teraz komputer zduplikuje je i obróci tak, aby obie pary skrzypiec przecinały się ze sobą. Uzyskanie takiego efektu w świecie rzeczywistym nie jest proste. Każda próba skrzyżowania dwojga prawdziwych skrzypiec pociągnie za sobą zniszczenie obu instrumentów, a ręczne narysowanie tej sytuacji wymagałoby ogromnej wyobraźni przestrzennej.

Dla komputera policzenie linii przecięcia nawet bardzo złożonych obiektów nie jest żadnym problemem, ponieważ w specjalnym buforze pamięciowym (tzw. zbuffer, bufor współrzędnej zetowej) przechowuje on informacje o rozmieszczeniu przedmiotów w wyświetlanej scenie. Przestrzenne zależności pozwalają określić widzialne części obrazu, gdyż zdarza się przecież, że obiekty pierwszoplanowe przesłaniają te na drugim planie.


***

Grafika komputerowa to czysta synteza danych - analizą zajmują się inne dyscypliny, jak np. rozpoznawanie obrazów. Tak więc scena na ekranie monitora nie musi mieć jakiegokolwiek odniesienia do rzeczywistości; istnieje tylko w pamięci maszyny. Dla niej zaś jest to po prostu zbiór danych, reprezentujący na początku punkty o różnej gradacji szarości, a odkąd pojawiły się monitory kolorowe - punkty o rozmaitej intensywności trzech podstawowych kolorów: czerwonego, niebieskiego i zielonego.

Liczba kolorów w 8-bitowych komputerach była ograniczona do 256. Na składnik czerwony i zielony przeznaczano po trzy bity, na niebieski dwa bity, bo psychofizjolodzy uznali go za najmniej istotny. Dawało to 8 (dwa do trzeciej potęgi) odcieni czerwonego i zielonego oraz 4 odcienie niebieskiego. Kombinując odcienie, uzyskiwało się 8 x 8 x 4, czyli dokładnie 256 kolorów.

Grafika pożera pamięć łyżkami, więc dopiero kolejne generacje komputerów, które miały jej więcej, pozwoliły poszerzyć gamę kolorystyczną. We współczesnych 32-bitowych stacjach graficznych każda podstawowa barwa ma do dyspozycji 8 bitów, a pozostałe 8 wykorzystuje się na zapamiętanie współczynnika przezroczystości punktu (tzw. alphablending). W sumie daje to ponad 16 milionów kolorów, dużo więcej, niż przeciętny człowiek potrafi rozróżnić - które w dodatku dzięki alphablendingowi można mieszać z tłem.

Do przeszłości należą utyskiwania na nienaturalność barw grafiki komputerowej. Oferuje ona obecnie każdy widzialny kolor i odcień. Paradoksalnie, czasami się z nich rezygnuje, na przykład wówczas, kiedy klienci życzą sobie, by reklama telewizyjna odznaczała się właśnie „komputerowym” stylem - z lekko fosforyzującymi barwami i wirującymi odblaskowymi powierzchniami.

To jest nierealne

Indy sprzedawał się wyśmienicie. Była to najdłuższa z produkowanych serii w historii SGI - po świecie rozeszło się ponad 100 tysięcy egzemplarzy tej maszyny. Na tablicy ogłoszeniowej działu marketingu znowu pojawił się archiwalny cytat. Thomas J. Watson, legendarny prezes IBM-u, optymistycznie stwierdził przed laty: „Myślę, że istnieje światowe zapotrzebowanie na mniej więcej pięć komputerów”. Jeszcze zanim wyjechałem na promocję Indy do Polski, na moim biurku wylądowała propozycja skonstruowania maszyny następnej generacji.

Bogatsi o doświadczenia z dwu poprzednich projektów, wiedzieliśmy już (nareszcie!), co trzeba, żeby zrobić naprawdę wystrzałową stację graficzną. Przede wszystkim powinna mieć trójwymiarową grafikę z prawdziwego zdarzenia: 32-bitowy podwójny bufor obrazowy (tzw. bufor ramki), 24-bitowy bufor głębi, szybkie tekstury. Potrzebne jest wideo w czasie rzeczywistym: kompresja i dekompresja, przyzwoita kamera. Dysk kompaktowy, jako podstawowy środek przenoszenia danych, musi być integralną częścią systemu. Konieczna jest też współpraca z Internetem: już trzy lata wcześniej było wiadomo, że Internet rozwinie się na tyle, iż trzeba będzie usytuować to przyszłe urządzenie w środowisku sieciowym. I, naturalnie, maszyna powinna być prosta w obsłudze i naprawie.

Gdy wstępna specyfikacja nowego komputera została przygotowana, zaprotestował szef grupy hardware’owej: „To jest absolutnie nierealne. Skomplikowane maszyny są duże, ponieważ na te wszystkie bloki funkcjonalne potrzeba miejsca. Jeśli nawet uda nam się upchnąć niezbędne układy w malutkie pudełko, to i tak nie będzie ono działać. Natychmiast po włączeniu zrobi się korek, bo ogromna liczba danych krążących między wewnętrznymi blokami zapcha szynę przesyłową”.

Bez wątpienia miał rację. Połączenia stały się wąskim gardłem komputerów. Szybkość układów wewnętrznych: procesora, bloku wejścia/wyjścia, kart graficznych i wideo podwajała się co półtora roku. Zdolności transmisyjne pośredniczącej między nimi szyny wzrosły w tym czasie o zaledwie kilka procent.

Zaczęliśmy zatem myśleć, jak te połączenia usprawnić. Próbowaliśmy je zrównoleglić, rozmnożyć, eksperymentowaliśmy z czterema niezależnymi szynami. Pojawiła się koncepcja ultraszybkiej szyny. Kiedy wstępne założenia były gotowe, podliczyliśmy koszty. Wyszło, że maszyna musiałaby kosztować około 20 tysięcy dolarów.

Sprzeciwił się temu dyrektor do spraw marketingu: „Zaciskając pasa, udało się wam zepchnąć cenę Indy poniżej 10 tysięcy. Rozpieściliście klientów i teraz nie ma odwrotu. Nowego urządzenia nie możemy sprzedawać drożej. Nawet jeśli będzie znacznie lepsze od Indy, psychologiczna bariera zablokuje popyt”.

Sytuacja wyglądała niewesoło. Mieliśmy pomysł na znakomitą maszynę graficzną, ale trudno było odmówić słuszności oponentom. Ograniczenia techniczne i marketingowe nie pozwalały na jego realizację.

1   2   3   4   5   6   7   8   9   ...   17


The database is protected by copyright ©essaydocs.org 2016
send message

    Main page