Marek hołYŃski



Download 0.95 Mb.
Page7/17
Date conversion29.04.2016
Size0.95 Mb.
1   2   3   4   5   6   7   8   9   10   ...   17

***

We wrześniu 1993 roku zbieraliśmy się przez tydzień w sali konferencyjnej, nie bardzo wiedząc, co począć. Wpatrywaliśmy się w wielką, pokrytą wzorami tablicę licząc, że znajdziemy jakieś kompromisowe rozwiązanie. Nic nam jednak do głowy nie przyszło, więc zdecydowaliśmy się na zmianę podejścia. Postanowiliśmy zapomnieć o doświadczeniach z Indigo oraz Indy i zacząć od początku. Wytarliśmy wszystkie wzory i schematy; z czystą tablicą zabraliśmy się do nowego projektu.

Świeżym okiem spojrzeliśmy na stojące przed nami problemy. Co sprawia największą trudność? To wiemy: wymagania związane z transmisją danych graficznych. Dla maszyny obraz na ekranie jest bowiem po prostu zbiorem danych, reprezentujących poszczególne punkty, które -jak w zwykłym telewizorze - są uszeregowane w linie. Pojedynczy punkt, podstawowy element obrazu, nazywany jest właśnie pikselem (pixel lub pel to skrót od picture element). Liczba pikseli zależy od rozdzielczości ekranu: od 640 punktów w 480 liniach, poprzez najpopularniejsze obecnie ekrany 1024 x 768, aż po niedawno wprowadzony szerokoekranowy standard 1920 x 1080.

Każdy piksel ma swój odpowiednik w pamięci obrazowej, zwanej po polsku buforem ramki, co jest dosłownym tłumaczeniem angielskiego frame buffer. My wymagamy 32 bitów na piksel, ale mamy do czynienia z podwójnym buforowaniem (double-buffering), w systemie graficznym bowiem są dwa bufory ramki -jeden wyświetla gotową scenę, gdy do drugiego są ładowane dane następnej. Kiedy kończy się ich liczenie, wyświetla się zawartość drugiego bufora, a ładuje pierwszy. Dzięki temu przejścia między klatkami stają się znacznie płynniejsze. Czyli w gruncie rzeczy żądamy 64 bitów na piksel.

Kalkulator do ręki i przeliczmy to wszystko jeszcze raz. Obraz o wymiarach pełnego ekranu ma 1024 linie po 1280 punktów (ówczesne maksimum). 1024 x 1280 x 64 daje 83 886 080 bitów, czyli 10 485 760 bajtów. Do ciągłego ruchu trzeba 30 klatek na sekundę (choć wybredni użytkownicy, w rodzaju szkolonych na symulatorach lotu pilotów myśliwców, domagali się już 60 klatek). Te 30 klatek pomnożone przez 10 485 760 równa się 314 572 800 bajtów, żeby zatem wszystko jako tako działało, wewnętrzna przepustowość musi przekraczać 300 megabajtów na sekundę.
***

Popularna w komputerach osobistych szyna PCI (Peripherial Component Interconnect) teoretycznie pozwalała wówczas na transmisję 150 megabajtów na sekundę; w praktyce osiągnięcie 50-60 megabajtów trzeba było uznać za sukces. Nie ma mowy, żeby ta piekielna szyna sprostała naszym wymaganiom. A bez niej obejść się nie można. Zaraz, czy rzeczywiście nie można? Gdyby umieścić pamięć w środku, a wokół niej wszystkie bloki funkcjonalne, przesyłanie wewnętrznych danych zostałoby ograniczone do minimum.

Dotychczasowa współpraca między wewnętrznymi układami komputera przypominała sytuację międzynarodowego przedsiębiorcy. Dane z wejściowego układu wideo dostarczano mu statkiem do Norwegii, gdzie były magazynowane klatka po klatce. Fabryka robiąca i przechowująca grafikę mieściła się w Hiszpanii. Odpowiedzialny za zgrywanie grafiki i wideo, np. nakładanie sztucznego jeziora na ujęcia przedstawiające kotlinę, znajdował się na południu Włoch. Natomiast bufor ramki przechowujący gotową do wyświetlenia scenę ulokowany był w Moskwie.

Gdyby jednak, zamiast wozić półfabrykaty tam i z powrotem po Europie, umieścić centralę gdzieś pośrodku, powiedzmy w Warszawie? Wtedy wideo przylatuje na Okęcie i od razu trafia tam do magazynu. W nim również przechowywana będzie wytwarzana na Grochowie grafika. Z głównego magazynu skorzysta także zgrywająca grafikę i wideo fabryka na Siekierkach oraz układ wyświetlania w Pałacu Kultury. Wszystkie dane znalazłyby się w zasięgu ręki i ich transfer nie sprawiłby kłopotu.

Rozwiązanie było tak proste, że aż podejrzane. Jeśli ten pomysł istotnie ma sens, to czemu nikt do tej pory na to nie wpadł? Być może istnieje jakiś powód, który złośliwie ujawni się, kiedy wszystko będzie gotowe. Zaczęliśmy wszystko dokładnie sprawdzać i gdy okazało się, że testy wypadają poprawnie, zdecydowaliśmy się zaryzykować. Tak narodziła się koncepcja ujednoliconej architektury pamięci (Unified Memory Architecture), uznanej potem za istotny krok w rozwoju informatyki.
***

Dział marketingu śledził prasę i przekazywał nam wycinki o zastosowaniach Indy w zupełnie egzotycznych dziedzinach. Ale taka jest ta zwariowana specyfika naszej branży. W innych dyscyplinach wygląda to normalniej: rodzi się potrzeba jakiegoś usprawnienia, inżynierowie zabierają się do pracy, znajdują rozwiązanie i wszyscy są zadowoleni.

U nas jest odwrotnie. Wymyśla się coś, co nie ma na razie żadnych zastosowań. Kładzie się to na stoliku przy krzyżyku, przychodzą różni ludzie i oceniają. Oglądają, wydziwiają, mają niezwykłe pomysły. I, ku naszemu zdumieniu, zdarza się, że potrafią dokonać z tym narzędziem przełomu w swojej dziedzinie, czasem całkiem odległej od komputerów i nie mającej nic wspólnego z techniką. Ale żeby nawet w sądownictwie? Kto by przypuszczał?

Cytuję znaleziony przez marketing wycinek prasowy udowadniający unikalną siłę naszych maszyn: Sprawa wydawała się rozstrzygnięta. Prokurator tryumfalnie wyciągnął z teczki zdjęcie zrobione na miejscu przestępstwa przez przypadkowego przechodnia- bez trudności można było na nim rozpoznać oskarżonego. Upieranie się przy budowanym pracowicie alibi nie miało w tym momencie większego sensu, ale mimo to obrońca poprosił o trzydniową przerwę w obradach. Po wznowieniu sesji zaprezentował identyczne zdjęcie przedstawiające dokładnie tę samą scenerię. Tyle tylko, że zamiast oskarżonego figurował na mm prokurator.

Ustanowiony wówczas precedens spowodował, że dokumentacja fotograficzna w opartym właśnie na precedensach sądownictwie amerykańskim przestała być uznawana za niezbity dowód. Za pomocą komputera można bowiem stworzyć obrazy ukazujące sytuacje, które w istocie nigdy się nie zdarzyły. Zrobić to tak dokładnie, że żaden analityk nie potrafi rozstrzygnąć, czy jest to zdjęcie rzeczywistości, czy też sztucznie wygenerowany nieprawdziwy obraz.

Dla większości odbiorców realizm wizualny to jednak główny walor grafiki komputerowej. Róża musi wyglądać jak róża, włosy -powiewać na wietrze, a lustro, ustawione pod pewnym kątem - puszczać zajączka. A im prawdziwiej ma wyglądać prezentacja, tym więcej wysiłku trzeba włożyć w jej uzyskanie i tym sprawniejszych komputerów używać. Niektóre zadania są tak złożone, że tylko maszyny SGI potrafią im sprostać.

Konieczne są do tego skomplikowane modele oświetlenia - trzeba uwzględnić rozmaite typy źródeł światła, ich natężenie i położenie względem obiektów. Te z kolei są sporządzone z różnych materiałów, a przecież czerwony plastik i wypolerowane srebro inaczej odbijają i załamują padające na nie promienie. Dzięki technice zwanej texture mapping prezentowane przedmioty mogą być ponadto „owinięte” w papier do pakowania, ceglaną ścianę lub perski dywan.

Sporo kłopotu sprawiało modelowanie zjawisk naturalnych, które wymykają się ścisłym ujęciom. Jeśli zarośla, chmury i morskie fale poskładać z dostępnych w pamięci maszyny kostek, kuł, piramid i cylindrów, to będą wyglądać sztucznie. Z pomocą przyszła tu geometria fraktalna, uzupełniająca geometrię kartezjańską o stany pośrednie między tradycyjnymi wymiarami i akceptująca losowe modyfikacje. Dzięki niej komputer może generować skomplikowane obiekty o podobnych cechach, ale różniące się w szczegółach. Każde drzewo jest drzewem - ma pień, gałęzie i liście, ale różni się nieco od pozostałych drzew.


***

Łatwość, z jaką można tworzyć realistyczne obrazy albo dowolnie modyfikować wprowadzoną do komputera scenę, budzi nawet pewien niepokój. Jak inne liczące się wynalazki, grafika komputerowa może być użyta do różnych celów, nie zawsze zamierzonych przez jej twórców. Pole do nadużyć jest niemałe - od drobnych oszustw i szantaży do poważnych prowokacji. Fałszywe telewizyjne przemówienie znanego polityka w okolicznościach, które nigdy nie miały miejsca, może wywołać nieobliczalne następstwa.

Tym bardziej że ożywianie grafiki nie jest aż tak skomplikowane, jak mogłoby się to wydawać. Każda, nawet najbardziej złożona zmiana sytuacji na ekranie może być reprezentowana jako pewna kombinacja trzech podstawowych transformacji: przesunięcia, skalowania i obrotu. Wszystkie trzy dają się wyrazić jako macierze, które komputer mnoży w mgnieniu oka.

Dzięki temu właśnie produkcja filmów rysunkowych została ostatnio całkiem zdominowana przez komputery. W klasycznej animacji na początek tworzy się jedynie obrazy istotne dla rozwoju akcji. Potem następują tygodnie mozolnego wypełniania klatek pośrednich, różniących się nieznacznie detalami, ale niezbędnych dla zachowania ciągłości obrazu.

Komputer przydaje się tu bardzo, bo przejmuje na siebie wyrobniczą część tego procesu. Dostaje dwie klatki kluczowe - początkową i końcową - oraz polecenie, żeby stopniowo przekształcić jedną w drugą, produkując po drodze kilkaset przejściowych obrazków. Nie ma przy tym większego znaczenia, czy rozrysowywane scenki są mniej czy bardziej pracochłonne.

Gotowy film wygląda dużo realniej niż rezultaty tradycyjnej animacji, gdzie pełno było denerwujących uproszczeń i powtarzających się sekwencji. Oszczędzało to pracy rysownikom, ale jak długo jeszcze mógł nas bawić Miś Yogi pokazywany zawsze w niemal identycznych pozycjach (powielany do znudzenia standard: Miś na spacerze - tułów i przednie łapy sztywne, głowa zwrócona do widza, tylko nogi pracują jak skrzydła wiatraka).

Nie znaczy to bynajmniej, że dowolną animację da się zrobić na komputerze w mgnieniu oka. Spore trudności sprawia choćby naśladowanie ruchu żywych istot. Jest on zbyt złożony i nie daje się łatwo opisać równaniami matematycznymi. Na przykład scena z pędzącym w popłochu stadem zwierząt, które zagraża małemu Simbie w Królu Lwie, trwa dwie i pół minuty. Jej wyprodukowanie zajęło pięciu disnejowcom dwa i pół roku, mimo że każdy z nich dysponował naszą maszyną.

Zaczęli od trójwymiarowego modelu pojedynczego czworonoga, symulując jego galop, skok, charakterystyczne podrzuty łba. Potem zabrali się do opisu przemieszczania się stada na pofałdowanym terenie. Zwierzęta nie mogły na siebie wpadać, a jednocześnie powinny były podążać za przewodnikiem. Zastosowano do tego algorytmy używane przez fizyków do wizualizacji dynamiki cząstek.

Zdając sobie sprawę z ogromu pracy, do realizacji następnego filmu - pierwszej pełnometrażowej kreskówki wygenerowanej w całości przez komputer - studio Disneya zaangażowało Pixar, firmę Steve’a Jobsa. Jego 1700 ujęć i 76 postaci wykreowanych zostało przez 4,5 miliona linii programu, nad którym przez dwa lata ślęczało 110 osób. Te produkcyjne detale nie miały, rzecz jasna, wpływu na ocenę widzów, a ta, dzięki Bogu, była pozytywna - Toy Story podbiła świat. Istotne jest również, że także krytycy przyjęli ją entuzjastycznie. W wielu poprzednich produkcjach komputerowych doskonałość techniczna nie zawsze szła w parze z jakością artystyczną.

Filmy rysunkowe przeżywają za sprawą komputerów drugą młodość, co widać po kolejkach przed kasami. I to cieszy. Ale chociaż Piękna i bestia, Aladyn, Król Lew czy Pocahontas są reklamowane jako filmy powstałe przy udziale maszyn cyfrowych, grafika komputerowa była w nich ograniczona do kilku lub kilkunastu minut.

Pojawienie się Toy Story udowodniło, że grafika komputerowa dorosła do samodzielnych zadań. Przestała być efektownym dodatkiem uatrakcyjniającym fabułę, a zaczęła odgrywać w filmach rolę pierwszoplanową. Już nie musimy poprzestawać na oglądaniu tańczących krakersów i wesołych tubek z pastą do zębów w telewizyjnych reklamówkach.

Wysiłek włożony w realizację Toy Story zaprocentował podwójnie, albowiem przy okazji rozwiązano wiele praktycznych i teoretycznych problemów związanych z modelowaniem ruchu, oświetlenia i tekstury. Zdobyte doświadczenia wykorzystywano potem wielokrotnie, łącząc w innych filmach (np. Kacprze) animację komputerową z efektami specjalnymi i grą żywych aktorów.


***

W filmach rysunkowych ograniczona szybkość maszyny cyfrowej nie stanowi przeszkody, ponieważ klatki rejestrowane są na taśmie filmowej i dopiero potem wyświetlane na ekranie. Gdy jednak, jak np. w symulatorach lotu, współdziałanie jest bezpośrednie i rozwój sytuacji zależy od reakcji widza, wymagania stawiane komputerom rosną. Tysiące pozycji punktów na ekranie trzeba przetworzyć w ciągu 1/30 czy 1/60 sekundy, żeby wyświetlić nową scenę i nie stracić płynności ruchu.

Skomplikowane obrazy zwiększają liczbę koniecznych do przeliczenia detali. Przeładowana szczegółami scena wirtualnej rzeczywistości potrafi zatkać nawet Onyksa - najpotężniejszą w chwili pisania tej książki maszynę graficzną.

Obrazy można -też wprowadzać do komputera bezpośrednio z kamery wideo; wtedy wrażenie pełnego realizmu jest zupełne i możliwości nieograniczone. Każdy obiekt daje się modyfikować, wymazywać albo zastępować innym. Prawdziwy krajobraz świetnie nadaje się na tło do filmu animowanego, a postać ludzka na pierwszym planie może zostać bohaterem nowej gry komputerowej (jeśli przez lata entuzjaści tych gier potrafili się pasjonować substytutami o kwadratowych głowach, to teraz, gdy gry „na żywo” zaczynają zdobywać rynek, zabawa dopiero się zaczyna).

Apetyt wzrasta w miarę jedzenia i lista wymagań poszerza się coraz bardziej. Jedną z rzeczy do zrobienia jest animacja ludzkich ruchów. Na razie próbuje się to robić empirycznie, umieszczając czujniki na ciele człowieka - trójwymiarowe dane przekazywane są do komputerowej analizy, a jej wyniki wykorzystuje się do ożywiania sztucznych postaci. Ową metodą, tzw. motion-capture, stworzono cyfrowych prezenterów telewizyjnych, bohaterów programów dla dzieci. A Kyoko Datę, dziewczyna wygenerowana w Internecie, stała się idolem japońskich nastolatków. Komputerowe sylwetki pasażerów „zagrały” na dalekich planach w Titanicu.

Naniesienie na ten model mnogości wyrazów ludzkiej twarzy jest jeszcze trudniejsze. Komputerowa mimika nie porywa nawet przy wsparciu danymi z mocap. Do udanych wyjątków należą, produkowane przez Pixar, krótkie eksperymentalne etiudy w rodzaju Geri’s Gamę.

Ten problem nie jest jeszcze w pełni rozwiązany, gdyż wymaga więcej niż tylko animacji ruchu ust w rytm wypowiadanych słów. Rozmaitość wyrazów twarzy powoduje, że nawet przy dużej liczbie czujników komputerowa mimika wygląda mało przekonywająco. Pracuje nad tym sporo osób, zainteresowani są nie tylko filmowcy. Mówiący i mający własne oblicze komputer zrewolucjonizowałby współdziałanie człowieka i maszyny.

Większe studia filmowe i telewizyjne dysponują obecnie wydziałami komputerowych efektów specjalnych. Rezultaty ich działalności nie ograniczają się tylko do kaskaderskich i pirotechnicznych trików. Widz nie zawsze zdaje sobie sprawę, że jezioro, które ma przed oczami, powstało przez wypełnienie doliny wodą... ale na ekranie monitora, że przy okazji zmieniono oświetlenie z dziennego na nocne i że dekoracja studia jest także dodatkiem montażowym.

Swoje cyfrowe duplikaty mają już Arnold Schwarzenegger, Marlon Brando i Jim Carrey. W firmie Cyber F/X wykonanie takiej kopii trójwymiarowym skanerem trwa kilkanaście sekund. Studia filmowe chętnie z tego korzystają, ponieważ daje im to zabezpieczenie na wypadek, gdyby aktor nie mógł kontynuować zakontraktowanej roli. Producenci mają w pamięci śmierć Brandona Lee przed zakończeniem zdjęć do filmu The Crow. Trzeba było wtedy wykonać ogromną pracę, by wyodrębnić go z gotowych ujęć i włączyć w następne sceny.

Jeśli ma się cyfrową wersję postaci, to nic nie stoi na przeszkodzie, aby -jak w przypadku filmu Forrest Gump - włączyć zeskanowanych bohaterów do dowolnej akcji. Niedawno zmarły komik George Burns ma w ten sposób „zagrać” w powstającym właśnie filmie. Plany są zatem ambitniejsze, a kino bez aktorów, planu i kamer nie jest już odległą wizją podsuwaną przez pisemka fantastycznonaukowe.


***

Odległą wizją? Prawdę mówiąc, może się to stać już wtedy, kiedy ta książka pojawi się na rynku. Dokładnie tak samo, jak ze sprzętem - gdy nowy model peceta trafia do sklepów, jest już przestarzały, bo w tym samym momencie do produkcji wdrażane są dużo bardziej zaawansowane wersje. Byliśmy tak dumni z Indigo, bo maszyna ta miała procesor z zegarem o częstotliwości 33 MHz, podczas gdy inne dysponowały jedynie 12,5 MHz; teraz nawet 500 MHz nikogo nie ekscytuje.

Mam kłopot: pisząc o komputerach, muszę asekurować się terminami „obecnie” albo „w przyszłości”, ale zdaję sobie sprawę, że to wszystko może się kompletnie zdezaktualizować przed końcem cyklu wydawniczego; Z zażenowaniem przeglądam swoje artykuły i książki z lat siedemdziesiątych. Cóż to za zbiór anachronicznych rupieci! A przecież pisałem wówczas na wyrost, w czasie teraźniejszym mówiąc o rzeczach, które wcale nie musiały się spełnić. Nie dość, że się spełniły, to jeszcze nadeszły zaskakująco szybko.

Dwuznaczna sytuacja. Z jednej strony sam się dziwiłem, że te na wpół fantastycznonaukowe przepowiednie przybrały realne kształty. Czułem się niemal jak oszust, zaskoczony tym, że jego wymysły przypadkowo okazały się prawdziwe. Z drugiej zaś strony weryfikacja nastąpiła zbyt prędko i realia technologiczne o mile przekroczyły moje „śmiałe” spekulacje, spychając je do lamusa.

Mam nadzieję, że pisząc kiedyś kolejną książkę, będę nareszcie na bieżąco. Stanie się to wówczas, gdy Internet wyeliminuje pośrednictwo drukarni i wydawnictw, gdy będzie się publikować w czasie rzeczywistym. Jeśli będę musiał coś uaktualnić, to po prostu zaznaczę fragment tekstu, wcisnę klawisze „control” i „Z” (CRTL-Z = „cofnij pisanie”; jako uniksowski weteran nie korzystam z pull-down menu Windowsów) i wrzucę najświeższą informację.
***

Film i telewizja oswoiły masową publiczność z grafiką komputerową, ale (jak na razie) są one dla niej stosunkowo niewielkim rynkiem, więc nie ma się co o tym zbytnio rozpisywać. Często wykorzystuje się grafikę w nauce do wizualizacji procesów fizycznych i chemicznych oraz do symulacji lotów kosmicznych, ale najważniejszym odbiorcą jest obecnie przemysł.

Chyba już nie dałoby się przekonać inżynierów, by wrócili do tradycyjnego cyklu projektowego: ręcznego rozrysowywania planów, budowania modelu i testowania prototypu. Zanim powstaną gmachy, maszyny, samochody, można je przecież obejrzeć na komputerze jako trójwymiarowy obraz. Każdą zmianę da się nanieść od ręki, bez konieczności przerabiania dokumentacji; symulacja na ekranie komputera skutków trzęsienia ziemi, zatarcia trybu przekładni czy czołowego zderzenia pojazdów zaoszczędza też mnóstwo pieniędzy.

Aspekt finansowy ma jeszcze większe znaczenie dla wojska, które unika strat w sprzęcie, organizując ćwiczenia na symulatorach komputerowych. W takich potyczkach na niby może brać udział po kilkuset uczestników. Siedzą w prawdziwych kabinach czołgów i samolotów, które bujają się na żyroskopach, w wizjerach zaś obserwują obrazy wyimaginowanego terenu walk, przesyłane z sieci komputerowej.

Pole bitwy jak prawdziwe, z uwzględnieniem ostatnich posunięć przeciwników i sojuszników w rozrzuconych po świecie symulatorach. Widoczne są nawet tory wystrzeliwanych pocisków. Jedynym odstępstwem od pełnego realizmu walki jest złagodzenie jej skutków. W najgorszym przypadku ekran wypełnia się pogodnym błękitem i pojawia się na nim tekst: „Z przykrością zawiadamiamy, że poległeś na polu chwały”.

Komputery graficzne wkroczyły do pracowni architektów i dekoratorów wnętrz - pozwalają oglądać nie istniejące budynki, wchodzić do ich wnętrza, przesuwać ściany, dobierać meble, zapalić nocną lampkę. Posługują się nimi także projektanci mody przy doborze wzorów, kolorów i fasonu ubrań. Używa się ich do wzmocnienia konturu krążka hokejowego, żeby przy szybkich podaniach był widoczny na ekranie telewizora.

My się bawimy w wyszukane algorytmy, a potem ta nasza grafika komputerowa anektowana jest przez salony piękności, umożliwiając klientkom wybór odpowiedniego makijażu. Obok zamontowane są już pierwsze „maszyny czasu”, ilustrujące naturalne zmiany twarzy zachodzące z wiekiem; za dolara można zobaczyć, jak się będzie wyglądało za trzydzieści parę lat.

Czy powinniśmy się denerwować tą postępującą komercjalizacją naszej profesji? Och, bez przesady, koledzy naukowcy. W gruncie rzeczy z założenia wszyscy działamy dla komercji. A w dodatku nie ma co tragizować, bo ciągle rodzą się nowe, ambitniejsze zastosowania (ostatnio głównie na styku z Internetem): elektroniczna poczta wideo, interakcyjna telewizja, wirtualne muzea w sieciach komputerowych.

Jeśli spojrzymy z dystansu, to widać, że niedługo łatwiej będzie wyliczyć dziedziny, w których grafika komputerowa nie jest jeszcze stosowana. Powinno to wystarczyć do uzasadnienia sensu lat spędzanych w laboratorium. Po prostu zaspokajamy wciąż rosnące potrzeby ludzi.

Garażowa mitologia

Interesanci odwiedzający po raz pierwszy Dolinę Krzemową przybywają zwykle w pełnym rynsztunku: garnitur, biała koszula, krawat, teczka, wypucowane buty. I natychmiast doznają szoku. Wita ich prezes firmy w dżinsach, tenisówkach i bawełnianym podkoszulku. W ten sposób odróżnia się od personelu, który często przychodzi do pracy w szortach, a czasem na bosaka.

Kontrastuje to ze zwyczajami panującymi w firmach uznawanych dotychczas za korporacyjne wzorce. W IBM-ie biała koszula i krawat stanowiły do niedawna przyjętą normę. Dla fasonu z kieszonki koszuli powinno wystawać parę ołówków i długopisów.

Różnice widzi się nie tylko w strojach. Kafeteria centrali Digitala przypomina typową stołówkę pracowniczą, serwującą bloczkowy obiad na niedomytej tacy. Specyfiką Doliny Krzemowej jest natomiast sieć kameralnych barków - nawet po kilka w każdym budynku. Są tam automaty z przekąskami, z czymś do picia, słaba kawa bez przerwy uzupełniana w pojemnikach, lodówka, kuchenka mikrofalowa. Parę stolików, na których blacie można mazać jak na tablicy. Do tego w kącie fliper lub elektryczny bilard.

W spisach telefonów wewnętrznych pracownicy są wymienieni według imion, a nie nazwisk. Do przemieszczania się między budynkami kampusu używa się służbowych rowerów, psy wylegują się pod terminalami, w pokojach piętrzą się stosy ubrań i butelek po coca-coli. Tak jak w akademiku. Większość kadry trafiła tu bezpośrednio ze Stanfordu, MIT czy Berkeley i jeszcze nie zdążyła pozbyć się uniwersyteckich nawyków.

Bezpłatne dania przygotowują nam francuscy kucharze w firmowej restauracji. Darmowe jedzenie kalkuluje się SGI, oszczędzamy bowiem czas na związane z posiłkami dojazdy. Mimo ze nie ma sztywnych godzin pracy, opuszczenie laboratorium przed uzyskaniem wyników i tak kończy się bezsenną nocą, spędzoną na rozmyślaniach nad rozwiązaniem. Krótka drzemka jest zresztą możliwa na miejscu - w pokojach są kanapy, ponieważ pracując z komputerem traci się poczucie czasu. Nie zawsze udaje się dotrzeć do domu przed świtem, więc podkrążone oczy są swoistą legitymacją przynależności do hakerskiej podkultury.

A właśnie, dlaczego w Polsce słowo „haker” ma negatywną konotację? Stało się ono synonimem włamywacza do systemów komputerowych. A przecież po angielsku jest na to osobny termin - cracker. Krakerowi prawdziwą satysfakcję daje przełamywanie zabezpieczeń i na ogół zadowala się on pozostawieniem na miejscu przestępstwa mniej lub bardziej dowcipnej wizytówki. Może też ostro namieszać, choć dokuczliwych aktów wandalizmu spowodowanych przez krakerów nie jest wiele.

Haker natomiast to pasjonat, który zna system na wylot i niemal intuicyjnie, często wbrew logice, potrafi wydusić z niego maksymalną wydajność oraz uporać się z błędami. Słowo pochodzi od hack - haczyk, kruczek, obejście w programie, które przywraca mu poprawną funkcjonalność. Głównym kanonem hakerskiej etyki jest nieskrępowane prawo do informacji, nawet jeśli znajduje się ona na cudzym komputerze. Można więc tam wejść i ściągnąć potrzebne programy lub dane, ale nie wolno przy tym niczego zmieniać czy uszkadzać, ani też dobierać się do osobistych plików innych użytkowników.

Kiedy otrzymujemy reklamację użytkownika, że w danym segmencie kodu pojawił się bug, odpowiedni menedżer musi się odwołać do kompetentnego hakera. „Czy mógłbyś to do rana zhakować, odpluskwić i przysłać mi wynik e-mailem?”

1   2   3   4   5   6   7   8   9   10   ...   17


The database is protected by copyright ©essaydocs.org 2016
send message

    Main page