Wojciech Orliński 2008-01-01, ostatnia aktualizacja 2007-12-29 15:30:45.0
Z okazji roku z ósemką na końcu znowu zobaczymy te same zdjęcia długowłosych gitarzystów i protestujących studentów. I znowu nikt nie napisze o prawdziwej rewolucji, która zaczęła się w roku 1968
Z daleka od koncertów rockowych i okupowanych campusów pewna grupa ludzi szykowała prawdziwy przełom. Nie byli maoistami, trockistami ani nawet luksemburgistami, ale szykowali rewolucję mającą radykalnie zmienić marksistowskie "środki produkcji". Nie mieli szykownych fryzur, ale ich prace doprowadziły do takiego przełomu w popkulturze, że bitelsi nie mają się czym pochwalić. Mało kto zna ich nazwiska, ale praktycznie każdy dziś styka się z ich dokonaniami.
Konkrety? Służę uprzejmie. Bez względu na to, jaki wykonujesz zawód, ważnym narzędziem pracy najprawdopodobniej jest komputer osobisty. Sercem tego komputera najprawdopodobniej jest procesor firmy Intel. W którym roku ta firma powstała? W 1968.
Komputer ten obsługujesz pewnie za pomocą myszki. Kiedy pokazano ją po raz pierwszy? W 1968.
Do najważniejszych programów w tym komputerze należy zapewne edytor tekstu. Kiedy po raz pierwszy zademonstrowano edytor tekstu? Razem z myszką w San Francisco. W roku 1968.
Najważniejszą funkcją tego komputera jest zapewne możliwość podłączenia się do internetu. Może nawet właśnie za jego pośrednictwem czytasz niniejszy artykuł? W którym roku zaczęto tworzyć globalną sieć? Zgadłeś, w 1968.
Wydawać się może, że takim wydarzeniom musiały towarzyszyć jakieś fanfary, a przynajmniej zdjęcia na pierwszych stronach gazet. Nic z tych rzeczy. To był rok 1968 i gazety miały co innego na pierwszą stronę. Nawet lokalnej prasy z San Francisco nie interesowała prezentacja myszki, budowa łącza między dwoma uczelniami czy to, że trzech inżynierów odeszło z fabryki tranzystorów, by założyć własną firmę.
Intel, czyli "więcej szumu"
Spośród tamtych pionierów jedyny, którego nazwisko jest dzisiaj jako tako kojarzone, to Gordon Moore. Ilekroć przymierzamy się do zakupu nowego komputera, słyszymy o tak zwanym prawie Moore'a, zgodnie z którym niezależnie od tego, co kupimy, i tak za dwa lata za te same pieniądze będzie można kupić coś dwa razy lepszego.
Gordon Moore ogłosił swoje słynne prawo w roku 1965. Pracował wtedy w wytwórni układów scalonych Fairchild w kalifornijskim Palo Alto, wokół której później miała się rozwinąć cała Krzemowa Dolina. Wraz ze swoim przyjacielem Robertem Noyce'em odczuwał frustrację wynikającą z tego, że korporacja Fairchild nie rozumie rynku układów scalonych - zachowywała się tak, jakby dalej robiła urządzenia z lamp elektronowych.
Biznesplany zakładały produkcję jednego urządzenia przez wiele lat, tymczasem prawo Moore'a sprawia, że kiedy nowy układ trafia na taśmy produkcyjne, inżynierowie już kończą projektować następcę, który pośle obecną nowość do lamusa - czas życia układu scalonego to najwyżej kilka lat.
Moore i Noyce poczuli, że tak dobrze się na tym znają, że są gotowi do założenia własnej firmy. Odeszli z Fairchilda i w czerwcu 1968 oficjalnie powstała spółka o nazwie Moore-Noyce. Dopiero wtedy uświadomili sobie, że jej nazwę wymawia się prawie tak samo jak angielskie słowa "more noise" - "więcej szumu".
To tak dobra nazwa dla firmy produkującej elektronikę jak tytuł "Nudne starocie" dla gazety. W pośpiechu zaczęli szukać nowej nazwy. Nie potrafili wymyślić nic poza zbitką "INTegrated ELectronics" ("elektroniczne układy scalone").
Gdy już przygotowali pierwsze wizytówki z nową nazwą, okazało się, że ta też ma wadę - jest już zajęta. Tak nazywała się niewielka sieć hoteli na Środkowym Zachodzie. Udało się odkupić od niej prawo do używania tej nazwy w innej branży za symboliczną stawkę (podobno tysiąc dolarów). Dziś sama nazwa wyceniana jest na przeszło 30 miliardów dolarów.
Sami Moore i Noyce nie wiedzieli, jak ważną firmę założyli. Najpierw myśleli, że będą po prostu produkować kości pamięci taniej i lepiej od konkurencji. Dopiero ich pracownik Federico Faggin (podkupiony z włoskiego koncernu Olivetti) pokazał im coś absolutnie nowatorskiego - cały komputer na jednej kostce.
Robert Noyce - współzałożyciel Intela
W latach 60. "minikomputerem" nazywano komputer, który nie wymaga już osobnego pomieszczenia - mieści się w jednej poręcznej szafce na kółkach. Do produkcji minikomputerów używano układów scalonych, ale sama idea umieszczenia wszystkich tych układów na jednej kostce była zbyt rewolucyjna, by ktokolwiek rozważał ją serio. Propozycja Faggina spotkała się początkowo ze sprzeciwem kierownictwa Intela.
Czterobitowy mikroprocesor Intel 4004 ukazał się jednak na rynku w roku 1971. Kilka lat później na bazie jego udoskonalonego, ośmiobitowego następcy, Intela 8008, zaczęto robić pierwsze komputery domowe - i ruszyła rewolucja. Okazało się, że wszystkich konsekwencji prawa Moore'a nie rozumiał do końca nawet jego twórca.
Zasada gorącego kartofla
W grudniu 1966 r. Paul Baran, architekt dzisiejszego internetu, wygłosił wykład "Marketing roku 2000" na spotkaniu amerykańskiego stowarzyszenia marketingu.
Opisał w nim mniej więcej to, co dzisiaj znamy jako e-zakupy - że w roku 2000 domowy użytkownik będzie miał dostęp do sieci informacji o towarach i usługach. Jeśli będzie chciał kupić wiertarkę, wybierze "narzędzia", potem "wiertarki", obejrzy różne modele, wybierze dwa najbardziej mu odpowiadające i podejmie ostateczną decyzję po zajrzeniu do działu "opinie konsumentów".
Myślicie, że marketingowcy pilnie robili notatki, żeby trzy dekady później zostać dotcomowymi milionerami według gotowego przepisu, który im właśnie podsunięto na srebrnej tacy? W życiu. Baran wspominał, że został niemalże wygwizdany. "Pan nie rozumie psychologii zakupów! Ludzie idą do sklepu dla samej przyjemności oglądania towarów! Pan nie zna kobiet!" - krzyczeli słuchacze.
Choć Baran wymawia swoje nazwisko mniej więcej jako "Bejren", słusznie wyczuwamy w nim rodaka. Przyszedł na świat w 1926 r. w Grodnie, był dzieckiem, kiedy przeniósł się z rodzicami do USA. Jako inżynier zaczął pracować dla RAND Corporation, prywatnej instytucji analitycznej specjalizującej się w wymyślaniu koncepcji strategicznych najczęściej związanych z planowaniem metod na zamienienie Grodna w stertę ruin.
Baran chciał zmniejszyć prawdopodobieństwo takiego scenariusza. Jako inżynier uznał, że problem ma w gruncie rzeczy charakter techniczny - jak zagwarantować, że atomowe supermocarstwo po otrzymaniu pierwszego ciosu będzie w stanie dokonać uderzenia odwetowego? Jeśli odwet stanie się niemalże pewny, mniejsza będzie pokusa, by ktokolwiek uderzył jako pierwszy.
Rakiety ocaleją w podziemnych silosach, ale jak sprawić, by po atomowym uderzeniu jeszcze istniała sprawna sieć łączności i dowodzenia? Linie telefoniczne i telegrafy zostaną przecież zniszczone.
Baran zaproponował sieć działającą na zasadzie, którą nazwał "zasadą gorącego kartofla" - ruchem w sieci sterować będą wyspecjalizowane komputery przekazujące sobie nawzajem paczki z informacją. Komputer, który otrzymał pakiet zaadresowany do innej maszyny, natychmiast próbuje podać go dalej. Jeśli nie ma bezpośredniego połączenia, szuka jakiejś okrężnej drogi, byle tylko nie zostać z "gorącym kartoflem".
Sieci komputerowe nie były już wtedy nowością, ale każda z nich miała swoją wyraźną centralę - główny superkomputer spoczywający w serwerowni jakiejś uczelni czy korporacji. Gdy ktoś chciał mieć dostęp do danych z trzech różnych sieci, potrzebował trzech osobnych terminali.
Tak wyglądało biuro Roberta Taylora z wojskowej agencji zaawansowanych technologii ARPA - współpracował z trzema ośrodkami badawczymi (w Berkeley, Santa Monica i Bostonie), więc miał w pokoju trzy dalekopisy do ich sieci komputerowych.
To były czasy, w których bardzo ważnego prezesa poznawało się po tym, że ma na biurku kilka różnych aparatów telefonicznych - Taylor, czytając propozycję Barana, zrozumiał, że te czasy właśnie dobiegają końca i nadchodzi era jednej sieci mogącej łączyć wszystko naraz.
Taylor natychmiast zatrudnił Barana. Luźne idee zaczęto przekładać na język technicznych konkretów. Wiosną 1968 r. istniał już teoretyczny opis tego, jak ta sieć powinna wyglądać. Latem zaczęto szukać wykonawcy.
Paul Baran - architekt internetu
Tu pojawił się problem - firmy specjalizujące się w telekomunikacji odmawiały przyjęcia zlecenia, logicznie tłumacząc, że "nie chcą tworzyć dla siebie konkurencji". Zgodziła się w końcu prywatna firma BBN Technologies robiąca różne dziwne zamówienia dla rządu (w tym samym czasie dostała np. zlecenie na analizę wykasowanych taśm Nixona z afery Watergate).
Pierwsze łącze nowej sieci było gotowe jesienią następnego roku. 29 października 1969 r. między UCLA a odległym o
21 listopada połączenie przekazano oficjalnie do eksploatacji. Po miesiącu dołączyły do niego uniwersytety Santa Barbara i Utah. A potem następne i następne, aż w końcu do sieci podłączono twój własny komputer, drogi czytelniku.
On też łączy się z nią zgodnie z "zasadą gorącego kartofla" - gdy wysyłasz list do przyjaciela, być może "Drogi Zdzisiu" pójdzie do niego przez Szanghaj, ale już "Co słychać?" pójdzie przez Milanówek.
Nazywam to myszką, bo kabel przypomina ogonek
Ani założeniu Intela, ani rozpoczęciu budowy internetu nie towarzyszyły fanfary, oklaski ani nawet uroczyste przecinanie. Publicznej prezentacji myszki też nie towarzyszyło zainteresowanie prasy ani polityków, ale przynajmniej były rzęsiste brawa.
9 grudnia 1968 r. na sympozjum informatyków w San Francisco Douglas Engelbart ze Stanforda pokazał rezultaty swoich badań nad usprawnieniem pracy zespołowej za pomocą komputera. Na oczach zdumionej publiczności Engelbart pokazał kilka wynalazków, z których każdy miał znaczenie rewolucyjne - edytor tekstu, pracę w sieci z jednoczesną telekonferencją oraz hipertekst, czyli protoplastę linków z dzisiejszej strony WWW.
Wszystkimi tymi cudeńkami Engelbart zawiadywał, poruszając małym drewnianym pudełeczkiem. "Nazywamy to myszką, bo kabel przypomina ogonek" - wyjaśnił.
To, co Engelbart pokazał tego dnia, teoretycznie było możliwe już kilka lat wcześniej. Wiadomo było, że komputery staną się biurową codziennością. Ale snuciem takich wizji zajmowali się teoretycy. Gdyby Paula Barana zapytać w 1966 r., jak osoba kupująca wiertarkę z jego przykładu będzie się poruszać między menu "zakupy" a "wiertarki", powiedziałby, że użyje do tego "pióra świetlnego".
"Pióro świetlne", czyli po prostu patyk z fotokomórką pozwalającą wykryć, do jakiego miejsca na ekranie go przyłożono, znano już od 1957 r. Teoretycy uważali, że to przyszłość interakcji człowiek - komputer. Uważali tak dalej i po 10 latach, i po 20 (pióra świetlne definitywnie odłożono do lamusa dopiero w połowie lat 80.).
Engelbart szukał praktycznych rozwiązań. Eksperymentował z piórem świetlnym, ale szybko odkrył, jak irytująca dla użytkownika jest konieczność odrywania ręki od klawiatury i podnoszenia jej do ekranu.
Jako praktyk natychmiast znalazł rozwiązanie - pudełko z dwoma kółeczkami wykrywającymi ruch ręki w pionie i w poziomie. Można je trzymać względnie blisko klawiatury, ruch ręki jest więc minimalny, nie większy niż między klawiszem "q" a "p".
Zebrani słuchacze nagrodzili prezentację owacją na stojąco. "To było jak te zbiorowe msze u baptystów na południu - wspominał Alan Kay, wówczas 28-letni doktor informatyki pracujący nad grafiką komputerową. - Stałem w tłumie ludzi porażonych mistycznym olśnieniem. Zobaczyliśmy przyszłość!".
Kay wkrótce potem zaczął pracować w nowo utworzonym laboratorium Xeroksa w Palo Alto. Tutaj laboratoryjne wynalazki Engelbarta przełożył na język konkretu, przyczyniając się do skonstruowania w 1973 r. prototypowego komputera Xerox Alto.
Zarząd Xeroksa nigdy nie rozumiał znaczenia tego wynalazku i nie wprowadził komputera na rynek. Kilka lat później Kay uczestniczył więc w małym spisku - do wizyty w laboratorium zaproszono Steve'a Jobsa, szefa produkującej komputery osobiste firmy Apple. Jemu też udzieliło się religijne doświadczenie mistycznego olśnienia - jego skutkiem kilka lat później był pierwszy Macintosh, którego z kolei zobaczył Bill Gates, co zaowocowało Windowsami, ale to już inna opowieść. W każdym razie twój własny komputer - drogi czytelniku - został stworzony przez proroków wiary, której kazanie na górze zostało wygłoszone przez Douglasa Engelbarta w grudniu 1968 r.
Jeden z prototypów myszki. Patent na "wskaźnik współrzędnych X-Y do systemów komputerowych" - czyli urządzenie zwane myszką - wygasł w 1987 roku, akurat kiedy myszki stały się niezbędnym elementem wyposażenia komputera osobistego. Wynalazca tego urządzenia Douglas Engelbart nigdy więc nie stał się bogaty
Mimo znaczenia wynalazków Engelbarta nigdy nie stał się on naprawdę bogatym człowiekiem. Wprawdzie opatentował myszkę, ale patent wygasł w roku 1987, akurat w momencie, w którym myszki i ikonki zaczęły się stawać naprawdę popularne.
Hendrix na mandolinie
Co właściwie miał wspólnego duch roku 1968 z tymi wszystkimi wydarzeniami? Pozornie nic, ale nie można nie zauważyć, jak wiele z nich związanych jest z San Francisco. Przybywając tam, trzeba było - zgodnie z ówczesną piosenką - włożyć kwiaty we włosy, miastem bowiem władali hipisi. Stanford, Palo Alto, Krzemowa Dolina - to były miejsca odległe o godzinę-dwie jazdy komunikacją publiczną od dzielnicy hipisów Haight Ashbury czy od Monterey, gdzie wystartowały kariery Janis Joplin i Jimiego Hendriksa.
Baran, Engelbart czy Moore nie byli hipisami - w pracy nosili krawaty i białe fartuchy. Ale już ich studenci, asystenci i młodsi współpracownicy do pracy czy na zajęcia często przychodzili prosto po koncercie rockowym, po psychodelicznej imprezie, a może i po zebraniu maoistowskiej organizacji studenckiej.
Jako młodzi studenci pierwsze kontakty ze światem zaawansowanej technologii mieli w roku 1968 dwaj dzisiejsi królowie świata technik cyfrowych - Bill Gates i Steve Jobs. Gates zyskał wtedy zdalny dostęp (przez dalekopis) do komputera oferowanego "na godziny" przez firmę General Electric. Matki studentów zarabiały na to pieniądze, sprzedając domowe wypieki.
Tak opłaconego czasu Gatesowi nigdy nie wystarczało, ale to był rok 1968, kiedy każdy odruchowo szukał drogi na skróty - Gates nauczył się zdalnie zawieszać wynajęty komputer, tak by oszukiwać na czasie pracy. Umiejętność zawieszania komputerów niewątpliwie przydała mu się w dalszej karierze.
Komputerami w niedozwolony sposób bawił się wtedy inny student - Steve Wozniak. W 1968 r. w uniwersyteckim kampusie młody chuligan zepsuł szkolny komputer tak, by terminal wyświetlał szydercze wiadomości. Kpina z amerykańskiej demokracji nie mogła pozostać bez kary - Wozniaka wyrzucono. Ten nie przejął się zbytnio, bo uznał, że wie o komputerach już tyle, że uczelnia niczego nowego mu nie powie.
Jego arogancka postawa sprawiła, że zaprzyjaźnił się z nim bosonogi hipis Steve Jobs. Ten mało się znał na elektronice, ale snuł niezwykłe wizje urządzeń, które razem będą mogli zmontować. Już w 1976 roku pierwsze z nich - komputer Apple I - trafiło na rynek.
Stuprocentowym hipisem - a nawet lokalną legendą kalifornijskiej sceny - był John Draper, w środowisku znany jako Cap'n Crunch. Wozniaka i Jobsa nauczył, jak oszukiwać amerykańską telekomunikację, by dzwonić za darmo po całym świecie. Od tego momentu ulubioną rozrywką kalifornijskich buntowników stało się telefonowanie do Watykanu, Białego Domu czy Kremla z idiotycznymi dowcipami.
Drapera w końcu przyłapano i skazano na dwa lata więzienia. W więzieniu napisał program EasyWriter na Apple II - pierwszy komercyjny edytor tekstu na rynku.
Krótko mówiąc, świat komputerów stał się taki, jakim go dzisiaj znamy, nie tylko dzięki inżynierom projektującym pierwszą sieć czy pierwszą myszkę w roku 1968, ale także dzięki ich studentom - często długowłosym, często niezdyscyplinowanym, często przychodzącym na zajęcia w stanie mocno oderwanym od rzeczywistości po wczorajszej imprezie.
Świat inżynierów w białych fartuchach i świat kolorowych hipisów wydawały się wtedy nigdzie nie spotykać, ale to nigdy nie było prawdą. W końcu gdyby nie tranzystorowe wzmacniacze opracowane między innymi dzięki wynalazkom Moore'a i Noyce'a, Jimi Hendrix mógłby najwyżej brzdąkać na mandolinie.
Wojciech Orliński GW