Marek hołYŃski



Download 0.95 Mb.
Page9/17
Date conversion29.04.2016
Size0.95 Mb.
1   ...   5   6   7   8   9   10   11   12   ...   17

***

Dwa początkowe węzły, po dołączeniu Uniwersytetu Kalifornijskiego w Santa Barbara i Uniwersytetu Utah, ukonstytuowały ARPANET (sieć ARPA). Realizatorom projektu pozostawiono dużą swobodę, a że z czterech ośrodków trzy mieściły się w Kalifornii, narodziny systemu odbyły się na obowiązującym w tym stanie luzie, z niemałą dozą improwizacji, do dzisiaj charakteryzującej rozwój Internetu.

Nieco później powstały BitNet, UseNet, CSNet oraz inne „nety”. Rozrastały się one szybko i łączyły dzięki ujednoliceniu w 1983 roku sposobu porozumiewania się przez standard TCP (Transmission Control Protocol). Nastąpił istotny przełom - każdy komputer mógł odtąd „rozmawiać” z każdym innym. Wyeliminowano dotychczasową uciążliwość polegającą na tym, że do komunikacji z zewnętrznym komputerem trzeba było instalować osobny terminal. To tak, jakby zmuszać ludzi do posiadania oddzielnych telewizorów dla poszczególnych kanałów. A przecież wystarczy jeden telewizor, żeby móc oglądać wszystko!

W 1986 roku utworzono specjalny komitet - Internet Engineering Task Force - do koordynacji tych poczynań. Ale dopiero po 1990 roku, kiedy Departament Obrony rozwiązał ARPANET i przekazał opiekę nad głównymi węzłami National Science Foundation, tę „sieć sieci” zaczęto nazywać Internetem (obecnie liczba składających się na Internet sieci przekroczyła 100 tysięcy).

Poczta elektroniczna, czyli e-mail (electronic mail), jest od początku głównym zastosowaniem Internetu. Stała się ona popularna w grupach zawodowych mających niewiele wspólnego z informatyką i wśród rosnącej rzeszy posiadaczy komputerów osobistych. Teraz adres e-mailowy na wizytówce jest niemal tak powszechny, jak numer telefonu.

Bez poczty elektronicznej już nie sposób pracować, choć czasem zbytnia zależność od niej irytuje. Zwłaszcza gdy po paru dniach nieobecności zastajemy przepełnioną skrzynkę na listy. To, że do nas piszą, łechtałoby próżność, gdyby nie fakt, iż większość wiadomości to śmiecie, które trzeba godzinami usuwać.

E-mail, niezależnie od objętości nadawanego tekstu, działa znacznie szybciej niż zwykła poczta, dla odróżnienia określana jako „s-mail” (snail mail, „poczta ślimacza”). Już w połowie lat dziewięćdziesiątych czas transmisji między moją maszyną w Kalifornii a maszynami odbiorców w Polsce wynosił średnio 59 sekund, a więc krócej niż faks.

Za pomocą e-mailu można się porozumieć z wujem w Chicago równie łatwo jak z kolegą pracującym za ścianą. Nawiasem mówiąc, tylko pozornie wygląda to na tryumf techniki nad zdrowym rozsądkiem. Wstępując do pokoju kolegi, odrywamy go od bieżących zadań i pozbawiamy czasu do namysłu. Pocztę elektroniczną można zaś przeczytać w dogodnej chwili, zmagazynować w pamięci maszyny lub wydrukować. Do listu można załączyć fragment programu do przetestowania, obrazek, plik z nagraniem dźwiękowym i nawet sekwencję wideo.


***

W Stanach Zjednoczonych dostęp do Internetu z domowego komputera jest tańszy niż abonament telewizji kablowej; coraz częściej bywa oferowany za darmo. Wysłanie korespondencji, nawet prywatnej, z biura nic nie kosztuje - firmy i uczelnie płacą ryczałtem, niezależnie od tego, ile wyślą lub otrzymają. Wiadomość zawiera wszystkie istotne informacje: kto, kiedy i z jakiej maszyny ją nadał, a także którędy do nas dotarła.

Od lat nie mam sekretarki, bo przestałem jej potrzebować. Wywołuje to zdziwienie: „A kto odpowiada na listy?”. Jakie listy? Dawno już nie dostałem czegoś takiego. Czasami jedynie pojawia się jakiś faks, bo niektórzy przyzwyczaili się do tego archaicznego narzędzia. Natomiast poinstruowanie sekretarki, jak odpowiedzieć na pocztę elektroniczną, zajęłoby więcej czasu niż zrobienie tego samodzielnie. To istotny paradoks: dzięki poczcie elektronicznej odżywa sztuka pisania listów, skazana, zdawałoby się, na zagładę wskutek rozpowszechnienia telefonu. Zmienił się jednak styl przekazów. Przypominają one rozmowę na żywo, są bardziej skrótowe, dynamiczne, czasem nawet dosadne. Zniknęły zbędne formuły typu „Drogi Panie” i „Z wyrazami szacunku”. Pojawiły się natomiast nowe skróty i obrazki, komponowane z dostępnych na klawiaturze znaków. Na przykład wykrzyknik oznacza negację; & na końcu listu - „z niecierpliwością czekam na odpowiedź”; BBL (be back later] - „odezwę się później”; sekwencja :-) znaczy „żartuję” (jeśli popatrzeć na to z prawej strony, istotnie widać uśmiechniętą twarz).

Nie cierpimy tych „emotikonów”. Z początku wyglądały zabawnie, natomiast przy czytaniu stu e-maili dziennie są trudne do zniesienia. Wychodzi na jaw pretensjonalność owych „emocjonalnych ikon”. Używają ich z lubością nowicjusze, którzy niedawno dorwali się do klawiatury i w ten sposób się w Internecie dekonspirują.

Ciekawe też, że w sieci nie odczuwamy braku polskich znaków diakrytycznych. Dostawałem wiele e-maili z kraju, nie mówiąc już o „Donosach”, które przez dziesięć lat towarzyszyły mi przy porannej kawie. Nigdy się nie zdarzyło, żeby brak kreski w „ł”, apostrofu nad „ń” czy ogonka przy „ę” spowodował błędną interpretację, której nie korygowałby kontekst.
***

Prawdziwym objawieniem w Internecie stała się World Wide Web, „światowa pajęczyna”, skracana zwykle do „WWW”, albo po prostu do „Web”. Ta ujednolicona „przestrzeń informacyjna”, zawierająca materiały i hipertekstowe odsyłacze między nimi, została opracowana również na potrzeby nauki przez programistów zatrudnionych w szwajcarskim CERN-ie i udostępniona powszechnie w 1992 roku.

Użytkownik Internetu zaczął żeglować w tej informacyjnej przestrzeni bez konieczności uświadamiania sobie, z jakiego komputera pochodzą przeglądane właśnie dane. Czytelna grafika i sprawne mechanizmy współpracy z maszyną powodują, że surfuje się po Sieci lekko, łatwo, a nawet przyjemnie.

Żeby wyłowić coś wartościowego z tego oceanu wiadomości, zaczęto używać przeglądarek (termin browser można też tłumaczyć jako „szperacz”), takich jak Microsoft Explorer czy Netscape Navigator. Wspierały je wyszukiwarki w rodzaju Yahoo, AltaVista czy Infoseek, poszukujące żądanych słów kluczowych w katalogach obejmujących setki milionów stron.

Wyłuskują one z WWW nie tylko potrzebne materiały, ale także takie, o których nie wiedzieliśmy, że warto o nich wiedzieć. To jakby skrzyżowanie książki telefonicznej z encyklopedią - a raczej otwarty uniwersytet powszechny. Nic więc dziwnego, że właśnie zastosowań edukacyjnych namnożyło się w Sieci niemało.

W połowie lat dziewięćdziesiątych codziennie przybywało kilkanaście tysięcy adresów internetowych. Serwery firmy Netscape, głównego pająka w światowej pajęczynie, rejestrowały każdego dnia 100 milionów wizyt. Liczba imponująca, nawet jeśli założyć, że niektórzy internetowi goście odwiedzali je parokrotnie.


***

Braliśmy czynny udział w rozkręcaniu tego szaleństwa. Jedną z nowości, która miała przyciągnąć do Internetu szeroką publiczność, był trzeci wymiar. Sklepy internetowe rosły jak grzyby po deszczu i już dało się słyszeć utyskiwania klientów na płaskie obrazki w sieciowych katalogach. Nowy samochód dobrze jest obejrzeć ze wszystkich stron; kupując dom, warto wejść do środka i poustawiać meble w pokojach.

Trójwymiarowość wymaga specjalnych języków programowania, takich jak Java lub VRML (Virtual Reality Modeling Language). Ten ostatni był świetnym przykładem, jak stosować Internet do rozwoju Internetu. Pomysł narodził się na genewskiej konferencji World Wide Web wiosną 1994 roku. Podczas sesji omawiającej sieciowe możliwości kreowania wirtualnej rzeczywistości jednogłośnie uznano potrzebę wprowadzenia trójwymiarowej grafiki za problem numer jeden.

Wkrótce po konferencji powstała w Internecie grupa dyskusyjna „www-vrml”, która po tygodniu liczyła już ponad tysiąc uczestników. Pracownicy rozmaitych firm oraz ośrodków badawczych połączyli w Sieci wysiłki i po kilku miesiącach wstępna specyfikacja języka do grafiki 3D była gotowa.

W tym momencie okazało się, że rozszerzanie HTML (stosowanego w Internecie HyperText Markup Language), który został zaprojektowany dla tekstu, nie wchodzi w grę. Nie było jednak jasne, w kierunku której z istniejących konwencji należy oscylować. Po krótkiej i rzeczowej wymianie poczty elektronicznej grupa www-vrml znalazła rozwiązanie: trzeba się oprzeć na formacie Open Inventor.

Inventor stanowił w tych czasach popularne narzędzie do tworzenia trójwymiarowych scen z biblioteki gotowych kształtów, modeli oświetlenia, ruchu, pokryć powierzchni i efektów realizmu wizualnego. Był on jednym z głównych sekretów Silicon Graphics. Pomni precedensu OpenGL, zdecydowaliśmy się zrezygnować z praw autorskich. I jako „otwarte” oprogramowanie Open Inventor stał się dostępny dla wszystkich.

Decyzja użycia formatów plikowych Inventora pozwoliła na przeskoczenie kilku etapów projektowych. Wkrótce ukończono roboczą wersję VRML i niemal natychmiast została ona przyjęta jako standard przez kilkanaście firm zainteresowanych trójwymiarową siecią.

Prace nad VRML przebiegały w rekordowym tempie, a uwieńczyła je publiczna premiera 10 kwietnia 1995 roku na konferencji Internet World w San Jose. Było w czym wybierać: budynki, stacje kosmiczne, samoloty, biżuteria, tancerze na scenie, przedmioty codziennego użytku, ptaki, owoce, komputery - wszystko to dawało się na ekranie obracać, przesuwać i obserwować z dowolnej perspektywy.


***

Ilekroć jestem w San Francisco, staram się wpaść bodaj na godzinę do Exploratorium. Trudno je nazwać zwykłym muzeum nauki i techniki. Jako jedyny gmach pozostały po monumentalnej wystawie Panama-Pacyfik, wieńczącej w 1915 roku zakończenie budowy Kanału Panamskiego, wyróżnia się swym dostojnym wyglądem w malowniczej dzielnicy Marina, wśród małych pastelowych domków, mocno pokiereszowanych podczas trzęsienia ziemi w 1989 roku.

Po zamknięciu wystawy Panama-Pacyfik w budynku zaprojektowanym jako Pałac Sztuk Pięknych odbywały się rozmaite imprezy artystyczne; potem przeznaczano go kolejno na magazyny wojskowe, korty tenisowe, remizę straży pożarnej, składnicę książek telefonicznych. A gdy po drugiej wojnie światowej powstawał w San Francisco ONZ, garażowały tu limuzyny dyplomatów. Dziś gmach Exploratorium prezentuje się nobliwie. Nastrój „świątyni dumania” potęguje minipark od frontu - koryncka kolumnada z rotundą i jeziorko łabędzie. Burzliwym i zmiennym dziejom tego obiektu bardziej jednak odpowiadają organizowane we wnętrzu ekspozycje.

Co roku odwiedza muzeum ponad pół miliona osób. Wszyscy mają prawo wszystkiego dotknąć, a nawet są do tego zachęcani w warsztatach, gdzie projektuje się i wykonuje większość eksponatów. Na oczach żywo reagującego tłumu programiści z wiodących firm wprowadzają końcowe poprawki w pakietach, które wkrótce pojawią się na rynku.

Specjaliści od Sieci w asyście kibiców penetrują najodleglejsze zakątki WWW Animatorzy ze studia Lucasa sprawdzają reakcje widzów na robocze wersje filmowych trików. Eksploratorski duch zwycięża materię. Każdy może (pod okiem miejscowego fachowca) rozebrać komputer i zobaczyć, jak działają jego podzespoły.

O uwagę zwiedzających zabiegają graficy komputerowi, muzycy, cyberpunkowi autorzy science fiction i dzieci z okolicznych szkół, demonstrujące własne programy internetowe. Największym powodzeniem cieszy się „City Space” - wirtualne miasto wznoszone wspólnym wysiłkiem z różnych krańców infostrady.

Rozrasta się ono do sporych wymiarów. Odwiedziny w „City Space” nie ograniczają się jedynie do nawigowania myszką po ulicach wyimaginowanego centrum i zaglądania do wirtualnych sklepów. Można w nim zostawić indywidualny ślad: zbudować dom, zaludnić ulicę postaciami własnego pomysłu albo sprezentować komunikacji miejskiej nowy autobus (modelując nie tylko jego sylwetkę czy ruch po jezdni, ale i warkot silnika).

Obserwowałem przez jakiś czas dwóch czternastolatków, budujących w „City Space” budkę z lodami na skrzyżowaniu głównych ulic. Pracowali samodzielnie - ojciec jednego z nich próbował na początku pomagać, ale pogubił się w obliczaniu perspektywy i dyplomatycznie zaoferował przyniesienie coca-coli.

Chłopcom szło znakomicie do chwili, kiedy postanowili, że w oknach kiosku muszą odbijać się zarysy sąsiednich domów. Kolejne próby nałożenia tekstury na półprzeźroczystą powierzchnię szyby nie przynosiły rezultatu. W końcu znaleźli błąd. Argument funkcji przezroczystości w OpenGL powinien wyrażać się liczbą zmiennoprzecinkową, a nie całkowitą. Kiosk był gotów. Już po paru minutach pojawił się przed nim jakiś wirtualny internauta ciekawy, czy w środku są naprawdę lody.
***

Mój domowy komputer jest podłączony do Internetu już od roku 1994. Wcale o to nie zabiegałem. Wręcz przeciwnie - opierałem się jak mogłem. „Dajemy ci sprzęt za darmo, pokrywamy koszty połączeń - przekonywał mnie dyrektor pionu sieci. - Będziesz mógł programować koło basenu, odpowiadać na pocztę elektroniczną przy śniadaniu”.

Te argumenty ignorowałem, nie tylko dlatego, że nie miałem basenu. Ustąpiłem dopiero po otrzymaniu od prezesa e-mailu, w którym podkreślał on wagę projektu dla firmy i konieczność przetestowania go przez jak największą liczbę pracowników. Odmówiłem jednak pisania nonsensownych miesięcznych raportów. Stanęło na tym, że będę się włączał do Sieci, kiedy mi przyjdzie ochota, i powiadomię, jeśli mi się coś nie spodoba.

Pożałowałem tej decyzji już następnego dnia, gdy zadzwoniono do mnie z AT&T i głosem nie dopuszczającym sprzeciwu nakazano, abym się nie ruszał z domu, bo będą mnie podłączać do ISDN-u. Integrated Services Digital Network, wtedy szczyt techniki sieciowej w późnej fazie eksperymentalnej, jest używana do dzisiaj. Ale ze swoimi 64 kilobitami na sekundę pozostała daleko w tyle za nowoczesnymi sieciami szerokopasmowymi, oferującymi standardowo przepustowość 155 megabitów, a bywa, że i gigabity na sekundę.

Całe szczęście, że podporządkowałem się rozkazowi i siedziałem w domu. Instalator AT&T najwyraźniej zamierzał podwiesić kabel ISDN-u od frontu. Tego by jeszcze brakowało! Świeżo odmalowana furtka i płot, wypielęgnowany trawnik, a tu między palmą a pieprzowcem indyjskim miałoby się zwieszać paskudne czarne boa.

O nie, zgodzę się na podłączenie, jeśli pociągniemy przewód od tyłu i zamaskujemy krzakami. Potem przez piwnicę puścimy go pod domem i przewiercimy dziurę w podłodze pracowni. Technik przystał na to niechętnie, ale pokłuł się o ostrokrzew zasłaniający okienko piwnicy i odjechał bez pożegnania.

Myślałem, że to koniec, ale nie. Pojawił się nazajutrz, z łatwością przebijając się przez krzaki w skórzanej kurtce harleyowca i przyłbicy używanej przez spawaczy. Połączenie telefoniczne działało po półgodzinie. Komputer był bardziej oporny, ruszył jednak pod koniec dnia. Internet działał niewiarygodnie szybko i to nie tylko w lokalnych połączeniach. Opóźnienia przy ładowaniu stron spoza Stanów były możliwe do zaakceptowania. A wśród tych stron -rzecz niesamowita! - znalazłem także polskie.

Nasz dział marketingu niepokoił się sprawną adaptacją nowych technik przez konkurencję. Producent komputerów Dell sprzedaje za pośrednictwem WWW sprzęt za 3 min dolarów dziennie! A my co? Już teraz domena .com (commerce) pęka w szwach i myśli się o dodaniu końcówek .corp, .bus, .firm lub .inc. Coś z tym trzeba zrobić!

Trafiła się po temu okazja - w październiku 1996 roku Silicon Graphics ogłaszała największy w swej historii zestaw nowych produktów: komputery graficzne O2 i Onyx 2 oraz serwery Origin 200 i Origin 2000. Zwykle związana z tym operacja marketingowa - przygotowanie personelu, poinformowanie sprzedawców na całym świecie, rozsyłanie materiałów - trwała trzy miesiące.

Tym razem przeprowadzono ją przez Internet. Z centrali w Mountain View nadawano przez dwa dni zestawy szkoleniowe „Webcast Live”. Dźwięk i obraz można było nagrywać, schematy i zdjęcia zapamiętywać w komputerze, pytania przesyłać na bieżąco e-mailem. Koszt całego przedsięwzięcia, zamiast planowanych 5 milionów dolarów, wyniósł jedynie pół miliona.

No właśnie, dobrnęliśmy do finału z naszą maszyną. Bo O2 to my! Długo trwała dyskusja, jak ją ochrzcić. Ktoś lansował nazwę IN. Skoro rozpoczęliśmy od Indigo i odcięliśmy mu jedną sylabę w Indy, to urwijmy jeszcze jedną i będzie In. „W” jako marketingowa metafora też ma sens. Ale nikt nie potraktował tego poważnie.

Wstępny plebiscyt wyłonił ostateczne preferencje: Oxygen - tlen, że niby tego komputera potrzebujemy jak powietrza i bez niego się zadusimy. Szybkie rozpoznanie patentowe wykazało jednak, że ta nazwa jest już zastrzeżona przez jakąś małą firmę, która wytwarza specjalistyczne układy scalone do sterowania windami. Tak sobie umyślili, żeby uczenie brzmiało. Podobnie zresztą jak my.

No to przechodzimy na symbol chemiczny - „O2”. Też potrafi przykuć uwagę potencjalnych nabywców. Trzeba się szybko do tej nazwy przyzwyczaić, bo przez trzy lata operowaliśmy roboczym kryptonimem „Moosehead” („Łeb łosia”). Nazwami projektów łatwiej operować na co dzień niż np. numerami. Ostateczne rynkowe nazwy produktu, ze względu na przepisy marketingowe i prawa autorskie, ustalane są zwykle na samym końcu. Ale nawet wtedy, gdy są już znane, do czasu oficjalnego anonsu nie wolno się nimi posługiwać nawet w rozmowach prywatnych.

Prezentując O2 musieliśmy uważać, żeby nie zaszokować słuchaczy terminem, do którego zdążyliśmy przywyknąć. Tak niestety zdarzyło się w przypadku Indigo, którą podczas pierwszych demonstracji wykładowcy uparcie określali jako „Hollywood”, ponieważ tak ją nazywano w czasie projektowania. Historia powtórzyła się z Indy, na którą przez dwa lata mówiliśmy „Guinness”. Zarówno „Guinness”, jak i „Moosehead” to popularne gatunki piwa, serwowane podczas piątkowych, kończących pracowity tydzień spotkań działów.

Łeb łosia odgania muszki

Intensywne prace nad O2 trwały trzy lata, ale, jak zwykle, najlepsze pomysły przyszły na ostatek; ich realizacja wymagała pracy na okrągło przez kilka końcowych miesięcy. Jedzenie dostarczano nam do pokoi, a koledzy mieszkający dalej zabrali z domów łóżka polowe i dmuchane materace, żeby nie tracić czasu na dojazdy.

Pracujesz, jesteś zmęczony, kładziesz się spać, budzisz się, znów pracujesz... I jak tu korzystać z powabów Kalifornii? Dobrowolnie zamknięty w podobnym elektronicznym bunkrze bez okien (żeby nie było odblasków na ekranie), mógłbym robić dokładnie to samo w Nowym Jorku, na Alasce czy w Warszawie.

Pod koniec września Ed McCracken zarządził finalizowanie prac. Napotkał ten sam opór co w przypadku Indy. Nie zwracając uwagi na błagania projektantów o dzień lub choćby parę godzin zwłoki, zamroził system. Zawsze znajdzie się coś, co można usprawnić i bez zdecydowanego zamknięcia tematu ciągnąłby się on w nieskończoność. A przecież wszyscy, podobnie jak McCracken, przez kilka poprzednich miesięcy czuliśmy na karku oddech zbliżającej się krok po kroku konkurencji.

Pozostało jedynie parę nieistotnych dorobek, ale z pierwotnej listy wymogów nie oddaliśmy ani guzika. Powstała maszyna z nowym mikroprocesorem MIPS RISC 5000, podwójnym 32-bitowym buforem ramki, 24-bitowym buforem głębi, kamerą i dyskiem kompaktowym, wyposażona w kompresję i dekompresję JPEG w rozdzielczości PAL i NTSC, zdolna do bezpośredniej współpracy z Internetem. Na dodatek przyjemnie się prezentująca i prosta w obsłudze. Komunikacja wewnętrzna z szybkością 2,1 gigabajta na sekundę pozwoliła na dziesięciokrotne przyspieszenie operacji graficznych. I, co najważniejsze, udało się utrzymać cenę na poziomie Indy.

Nasz pomysł ujednoliconej architektury pamięci nie tylko usprawnił wewnętrzną komunikację, ale też polepszył gospodarkę pamięcią. Bloki funkcjonalne komputera i tak nie używały do tej pory swoich prywatnych zasobów pamięci jednocześnie, więc wspólny bank zmniejszał globalne wymagania. Przychodzi wideo lub grafika - proszę bardzo, bierz ile chcesz z banku pamięci. Pod jednym warunkiem: gdy przestanie być potrzebna, musisz tę pamięć do banku zwrócić.


***

Nareszcie zrozumieliśmy, dlaczego inni na to nie wpadli. Bo nie mogli. Kiedy otworzy się obudowę peceta i zdmuchnie kurz z komponentów, widać, że pochodzą one od rozmaitych producentów. Procesor Intela, karta graficzna Accela, blok wideo, karta dźwiękowa i cała reszta tej zbieraniny musi się ze sobą porozumiewać. I do pośrednictwa między nimi potrzebna jest właśnie ta nieszczęsna szyna PCI.

My natomiast jesteśmy w uprzywilejowanej sytuacji - wszystkie istotne podzespoły są robione przez Silicon Graphics. I dlatego mogą z sobą rozmawiać bezpośrednio. Takie podejście wymagało, rzecz jasna, przerobienia wszystkich układów, łącznie z centralnym procesorem. Przedtem współpracowały one przez szynę, obecnie każdy musiał mieć bezpośredni dostęp do pamięci (Direct Memory Access - DMA).

Tak duża przeróbka wymaga czasu. Opracowanie i wyprodukowanie układów scalonych jest zadaniem na rok, dwa, a układy z kolei potrzebne są do rozwijania całej reszty. Żeby nie tracić czasu, pisze się zatem programy symulujące przyszły hardware i aż do momentu nadejścia „fizycznych” kości tworzy się na nich software. Na dostarczenie kości wszyscy czekają z napięciem. Z reguły nie działają one poprawnie; jako prototypy roją się od uciążliwych błędów. Jeśli nawet są idealnie sprawne, to wyłania się następny problem: czy symulator prawidłowo odwzorowywał ich funkcjonowanie? Nie sposób przecież stworzyć stuprocentowo dokładny model czegoś, co jeszcze realnie nie istnieje. Na dodatek w fabryce, gdzieś tam w Hongkongu czy Malezji, mogli dojść do wniosku, że nie wszystko potrafią wykonać, i odstąpili od niektórych założeń projektowych.


***

W połowie lat osiemdziesiątych produkcja większości komputerowej elektroniki przeniosła się na drugą stronę Pacyfiku. Lawina tanich układów scalonych naruszyła pozycję Silicon Valley do tego stopnia, że spanikowani żurnaliści wymyślili już dla niej nową ksywę: „Death Valley” („Dolina Śmierci”). Ale wyszło jej to na dobre. Najmniej opłacalną produkcję pozostawiono Azjatom, gotowym za lichą opłatą odwalać czarną robotę. W Dolinie skupiono się na dużo bardziej dochodowych działaniach koncepcyjnych: projektowaniu tych układów, tworzeniu z nich systemów i rozwijaniu do nich oprogramowania.

Gdy dwóch inżynierów wiozło chip graficzny o kodowej nazwie „Crime” z Tajwanu do Mountain View, w laboratorium panował tłok - nikt nie mógł wysiedzieć w domu. Pierwszy komunikat z trasy przyszedł z Tajpei: „Wszystko w porządku, mamy w kieszeni dwa działające układy”. Drugi z Vancouveru: „Przeszliśmy bez kłopotu kontrolę na lotnisku; jedziemy do was”. Okrężna droga przez Kanadę została wybrana za względu na chwilowe napięcia w stosunkach gospodarczych z Azją, owocujące wzmożoną kontrolą celną.

Nasz „Crime”, wbrew nazwie, był całkowicie legalny, ale musiałby odczekać swoje na granicy. A tak przed północą minął bez zatrzymywania przejście kanadyjsko-amerykańskie i pruł dalej po pustych autostradach. O piątej rano wsadziliśmy go do maszyny i zaczęliśmy testy. Było trochę drobiazgów do poprawienia, ale po południu wszystko działało bez zarzutu. Tym razem się udało!


***

Taśma produkcyjna ruszyła 27 września 1996 roku. My zaś zgoliliśmy brody i mrużąc oczy, wyszliśmy na światło dzienne. Mieliśmy poczucie dobrze spełnionego obowiązku, chociaż byliśmy niepewni, jak też nowy komputer zostanie przyjęty.

Przez lata pracy wytwarza się wobec maszyny stosunek emocjonalny, mimo że to tylko wypełniona żelastwem skrzynka. Jak z dzieckiem: inwestuje się weń całą energię, wiedzę i nadzieje. Wydaje nam się, że jest najmądrzejsze i najzdolniejsze, ale gdy idzie do szkoły, może wrócić z dwójami. Konferencja prasowa, przewidziana na dwie godziny, trwała siedem. Zaproszeni dziennikarze odkleili się od maszyny dopiero wówczas, gdy portier wyłączył światło. Odetchnęliśmy z ulgą - w fachowej prasie O2 dostał same piątki. Zmasowane ataki w końcu obudziły śpiącego giganta, który swym nowym produktem - O2 - odgonił konkurencję niczym stado muszek - zakończyła swój artykuł dziennikarka magazynu „New Media”.

Miesięcznik „Byte” uhonorował O2 prestiżową nagrodą „Award of Excellence”, nadawaną co roku za osiągnięcia wytyczające nowe szlaki w informatyce. Magazyn „Computer Graphics World” przyznał mu swoją „Innovation Award”. Posypały się wyróżnienia na wystawach i targach, przy czym zawsze podkreślano „świeżość podejścia do zasad projektowania, a nie tylko doskonalenie istniejącego produktu”.

Podobnych wyrazów uznania doczekał się wygląd maszyny - rezultat rocznych eksperymentów Lunar Design, znanej firmy projektowania przemysłowego z Pało Alto. Naturalne, obłe krawędzie zrywały z dotychczasowym schematem komputera-skrzynki. „Ludzie nie mogą się powstrzymać, żeby nie pogłaskać naszej maszyny - relacjonował z pierwszych targów dyrektor do spraw marketingu.

- Nie chcą uwierzyć, że jest taka mała. A gdzie jest komputer? - pytają. - Za tym błękitnym pudełeczkiem?”

1   ...   5   6   7   8   9   10   11   12   ...   17


The database is protected by copyright ©essaydocs.org 2016
send message

    Main page