(Go: >> BACK << -|- >> HOME <<)

Historia informatyki

Historia informatyki rozpoczyna się w XVII wieku, kiedy to podjęto pierwsze próby skonstruowania maszyny mechanicznej, mogącej dokonywać automatycznych obliczeń. Duże znaczenie dla rozwoju informatyki przyniosły prace Charlesa Babbage’a nad maszynami liczącymi. Gwałtowny rozwój informatyki przypadł na lata 40. XX wieku, gdy powstały pierwsze elektromechaniczne maszyny cyfrowe, elektroniczne maszyny cyfrowe, a następnie pierwszy komputer – ENIAC (1946). Do rozwoju informatyki przyczyniły się również prace teoretyczne Alana Turinga i Johna von Neumanna. Wynalezienie mikroprocesora na przełomie lat 70. i 80. umożliwiło upowszechnienie komputerów.

ENIAC, komputer skonstruowany w 1946 roku

Pierwsze maszyny liczące

edytuj

Pierwsze próby konstrukcji maszyn mechanicznych mogących dokonywać automatycznych obliczeń podjęto w wiekach XVII–XIX[1]. Maszyny liczące konstruowali m.in. Wilhelm Schickard (1623), Blaise Pascal (1642), Samuel Morland czy Gottfried Leibniz[2][3]. Jako pierwszy przykład komputera jest również wymieniany mechanizm z Antykithiry zbudowany między 150 a 100 rokiem p.n.e.[4] Mechanizm służył do obliczania ruchu Słońca, Księżyca, Merkurego, Wenus, Marsa, Jowisza i Saturna, przewidywania zaćmień Księżyca i Słońca[5].

 
Charles Babbage, twórca uniwersalnej automatycznej maszyny analitycznej

W latach 30. XIX wieku Charles Babbage skonstruował uniwersalną automatyczną maszynę analityczną[3]. Jej podstawy opracował w 1822 roku[6]. Była ona wyposażona w pamięć i jednostkę liczącą sterowaną programem zapisanym na karcie perforowanej[3]. Współpracowniczką Babbage’a była lady Ada Lovelace, której przypisywane jest napisanie w 1843 roku ciągu szczegółowych instrukcji, które pozwalały w sposób systematyczny wygenerować liczby Bernoulliego[7][8][a]. Zestaw instrukcji uchodzi za pierwszy zapis programu komputerowego[9]. W XIX w. prototypy maszyn analitycznych opracowali również George Boole i Augustus De Morgan. Boole zasłynął również z wprowadzenia metod algebraicznych do logiki, współtworząc logikę matematyczną[10].

W 1931 roku Kurt Gödel wykazał, że każde rozumowanie matematyczne można przedstawić w formie algorytmu[11]. W 1936 roku Alan Turing przedstawił koncepcję abstrakcyjnego modelu urządzenia wykonującego algorytmy (tzw. maszynę Turinga). Pomysł Turinga zakładał nieskończenie długą taśmę podzieloną na kwadratowe komórki ułożone w szeregu. Wnętrze komórek było wypełnione cyframi 0, 1 lub pozostawało puste. W maszynie Turinga znajdował się również procesor odczytujący taśmę i wykonujący jedno z sześciu prostych działań. Wynikiem pracy procesora była zapisana na taśmie wartość końcowa[12]. W 1937 roku Claude Shannon zaprezentował syntezę technologii elektromechanicznej, algebry Boole’a i systemu binarnego[11]. John von Neumann (przez wiele lat nazywany „ojcem komputerów”) opracował ideę maszyny cyfrowej, która miała opierać się m.in. na binarnym układzie arytmetycznym i rozdziale programu i danych w pamięci[11].

Lata 40. i 50. XX wieku

edytuj
 
Colossus, maszyna cyfrowa służąca do łamania szyfrów

Podczas II wojny światowej udoskonalono maszyny matematyczne, głównie na potrzeby wojskowe[3]. Alan Turing pracował nad maszynami obliczeniowymi, które umożliwiłyby złamanie kodów Enigmy. Efektem prac była tzw. bomba Turinga, stanowiąca rozwinięcie bomby kryptologicznej skonstruowanej przez Mariana Rejewskiego[13][14]. Następie Turing pracował nad Colossusem, pierwszą w pełni programowaną maszyną cyfrową do łamania szyfrów, uruchomioną w grudniu 1943 roku[13][3][15].

W 1944 roku na Uniwersytecie Harvarda zakończono prace nad komputerem elektromechanicznym ogólnego zastosowania ASCC (również znanym jako Harvard Mark I). Komputer przeprowadzał trzy operacje dodawania i odejmowania albo jedną operację mnożenia na sekundę[3]. Głównym konstruktorem Mark I był Howard Aiken. W pracach nad serią komputerów Mark (I, II i III) aktywnie uczestniczyła Grace Hopper[16]. Na zbudowanym w 1947 roku komputerze Mark II zarejestrowano pierwszy błąd komputerowy: w złączach znaleziono owada (ang. bug), który powodował awarie doprowadzające do generowania nieprawidłowych wyników obliczeń[17]. Grace Hopper przypisuje się stworzenie i upowszechnienie terminu „bug” jako nazwę błędu sprzętu lub oprogramowania[17].

6 maja 1949 roku na Uniwersytecie Cambridge uruchomiono komputer lampowy z programowalną pamięcią EDSAC[18][19]. Kierownikiem prac nad budową EDSAC był Maurice Wilkes. Był to pierwszy komputer, w którym przebieg programu i obróbka danych była zakodowana w pamięci urządzenia[18].

W III Rzeszy głównym konstruktorem maszyn liczących był Konrad Zuse. W 1938 roku stworzył maszynę liczącą Z1, która pracowała w oparciu o system binarny i zmienny przecinek[20]. W 1941 roku Zuse uruchomił komputer mechaniczno-elektroniczny Z3[21]. Cztery lata później ukończył pracę nad językiem programowania Plankalkül[22].

15 lutego 1946 roku w Stanach Zjednoczonych John William Mauchly i John Presper Eckert skonstruowali komputer ENIAC[20]. Był to pierwszy model, w którym zastosowano elementy elektroniczne. Składający się z około 18 tys. lamp elektronowych ENIAC umożliwiał zsumowanie 5 tys. liczb w ciągu sekundy. Główną wadą ENIAC–a była jego skomplikowana budowa (ustawienie programu obliczeń trwało kilka godzin i polegało na połączeniu wielu kabli i ręcznym przełączaniu sześciu tysięcy przełączników), stosowane setek kart perforowanych przed uruchomieniem programu, duża energochłonność, zawodność lamp próżniowych oraz wydzielanie bardzo dużej ilości ciepła przez nie[3]. Opinia publiczna dowiedziała się o istnieniu komputera latem 1946 roku. W październiku 1955 roku ENIAC został wyłączony[20].

Prace nad komputerami prowadził również IBM. 7 sierpnia 1944 roku IBM wraz z Howardem Aikenem skonstruował cyfrową maszynę liczącą ASCC (ang. Automatic Sequence Controlled Calculator)[23]. 27 stycznia 1948 roku IBM uruchomił SSEC (ang. Selective Sequence Electronic Calculator), pierwszy komputer przetwarzający dane za pomocą programu operacyjnego[24][25].

W sierpniu 1949 roku Mauchly i Eckert skonstruowali komputer BINAC (ang. Binary Automatic Computer), w którym wprowadzono zapis danych na taśmie magnetycznej[26].

Rozwój informatyki w latach 60. i 70. XX wieku

edytuj
 
John Bardeen, William Shockley i Walter Brattain, 1948
 
Replika pierwszego tranzystora
 
Intel 4004, pierwszy 4-bitowy mikroprocesor w historii

W 1950 roku taśma magnetyczna zaczęła wypierać taśmy dziurkowane i karty perforowane, a na rynku pojawiły się pierwsze pamięci na rdzeniach ferrytowych dla elektronicznego przetwarzania danych[27]. W 1951 roku powstał UNIVAC I, zaprojektowany przez Johna Mauchly’ego i Johna Eckerta pierwszy komputer dostępny w wolnej sprzedaży[28][29]. Pierwszym komputerem produkowanym na masową skalę był IBM 650 z 1953 roku. W tym samym czasie IBM wypuścił komputer IBM 701 przeznaczony do stosowania go w nauce i biznesie[30].

W 1952 roku Grace Hopper pracowała nad FLOW-MATIC, pierwszym kompilatorem w historii[31]. W 1953 roku wynaleziono drukarkę. Dwa lata później opatentowano światłowód i dysk magnetyczny[32]. W 1954 roku opracowano język programowania Fortran, który trzy lata później zaczął być wykorzystywany komercyjnie[33]. W 1956 roku IBM przedstawił RAMAC, pierwszy system komputerowy gromadzący dane na dysku twardym[34]. W tym samym roku za pomocą UNIVAC-a Hopper zaczęła pracę nad COBOL-em, uniwersalnym językiem programowania używanym m.in. w biznesie[35]. W następnych latach Hopper kontynuowała pracę nad COBOL-em oraz tworzyła nieoficjalne standardy języka Fortran[36].

16 grudnia 1947 John Bardeen, Walter Houser Brattain i William Brandfort Shockley wynaleźli tranzystor[37]. Zastąpił on stosowane wcześniej lampy próżniowe, wytwarzał minimalne ilości ciepła oraz działał szybciej[28]. W ciągu dziesięciu lat tranzystory wyparły lampy elektronowe[38]. Za badania nad półprzewodnikami i wynalezienie tranzystora Bardeen, Brattain i Shockley otrzymali w 1956 roku Nagrodę Nobla[39][40][41][42].

Pierwsze komputery wyposażone w tranzystory pojawiły się po 1959 roku (np. IBM 7090, Mińsk 32 czy Odra 1304)[28]. Główną wadą tranzystorów była ich konstrukcja składająca się z wielu lutowanych połączeń. Najdrobniejsza usterka mogła przyczynić się do wyłączenia całego komputera[43].

W 1958 roku amerykański inżynier Jack Kilby zaprezentował prototyp układu scalonego. Składał się on z płytki germanu o długości 1 cm, na której utworzono pięć niezależnych elementów połączonych drucikami. Projekt Kilby’ego został udoskonalony przez Jeana Hoerni’ego i Roberta Noyce’a. W 1962 roku firmy Fairchild Semiconductors i Texas Instruments Incorporated rozpoczęły masową produkcję układów scalonych, które wkrótce przyjęły nazwę chip[44].

W maju 1961 roku w Wielkiej Brytanii zainstalowano komputer ATLAS, który był używany jako pomoc obliczeniowa przy tworzeniu prognoz pogody i badaniach nad energią jądrową[45]. W 1963 roku Max Mathews stworzył pierwszy syntetyzer muzyczny, komputer pozwalający na przetwarzanie instrukcji matematycznych w muzykę[46]. 29 czerwca 1964 roku na rynku pojawił się pierwszy procesor tekstu, stworzony przez IBM[47]. W 1965 roku John Kemeny i Thomas Kurtz opracowali BASIC, uproszczony język programowania przeznaczony do szerokiego użycia w instytucjach publicznych[48].

W 1971 roku firma Intel zaprezentowała pierwszy 4-bitowy mikroprocesor. Pierwszy model przyjął nazwę Intel 4004[44]. Miał on wielkość paznokcia i składał się z 2,3 tys. tranzystorów oraz kilku innych mikroukładów, umieszczonych w czterech blokach funkcjonalnych (sterowania, jednostki arytmetyczno-logicznej, rejestrów, wewnętrznych szyn przesyłowych)[49][44]. Jego moc obliczeniowa dorównywała ENIAC–owi[44]. W 1980 roku skonstruowano pierwszy mikroprocesor 32-bitowy[49].

W 1970 roku Niklaus Wirth stworzył język programowania Pascal[50]. Rok później IBM skonstruowało pierwszą dyskietkę[51][b].

W 1975 roku Bill Gates i Paul Allen założyli firmę Microsoft[54]. W 1976 roku w IBM wynaleziono drukarkę atramentową. W ciągu sekundy mogła wydrukować od 30 do 55 znaków[55].

Epoka komputerów osobistych

edytuj

Pierwszym komputerem osobistym był skonstruowany w 1975 roku w firmie MITS Altair 8800 według projektu Eda Robertsa[56][57]. W 1976 roku Steve Jobs i Steve Wozniak skonstruowali Apple I, a rok później Apple II, który odniósł sukces na rynku[58][59]. W 1983 roku Apple skonstruował Lisę. Komputer ten był wyposażony w mysz komputerową i graficzny interfejs użytkownika[60]. 24 stycznia 1984 roku Apple zaprezentował komputer osobisty Macintosh, korzystający z systemu ikon[61]. W 1991 roku Apple rozpoczął produkcję PowerBooków. Od 2001 roku w komputerach Apple instalowano system operacyjny Mac OS X, oparty na mikrojądrze Mach i BSD[60].

W 1980 roku IBM rozpoczęło produkcję komputerów IBM PC[58], a 8 marca 1983 roku IBM PC/XT[62]. Model ten stał się ogólnoświatowym standardem oraz przyczynił się do wybuchu boomu na komputery osobiste[49][63]. Wydany w 1981 roku przez firmę Commodore komputer VIC-20 był pierwszym komputerem osobistym, który sprzedał się w liczbie miliona egzemplarzy[64][65]. Rok później na rynku pojawił się Commodore 64, który był jednym z najlepiej sprzedających się komputerów w historii[65][66].

W kwietniu 1982 roku w Wielkiej Brytanii rozpoczęto sprzedaż komputera ZX Spectrum produkowanego przez Sinclair Research. Ze względu na swoją niską cenę był to najpopularniejszy komputer osobisty w latach 80. XX wieku[67]. 29 marca 1983 roku na rynku pojawił się pierwszy laptop. Był to ważący niecałe 2 kg TRS-80 Model 100, wyprodukowany przez firmę Tandy Corporation[68].

20 grudnia 1984 roku firma Bell Laboratories jako pierwsza wyprodukowała 1 MB pamięci operacyjnej RAM[69]. W tym samym roku firmy Philips i Sony zaprezentowały CD-ROM z czytnikiem laserowym[70]. Pierwszy CD-ROM dla komputerów osobistych pojawił się na rynku w 1985 roku[71]. 4 lipca 1985 roku czarno-biały film Yankee Doodle Dandy był pierwszym, który za pomocą komputera przetworzono na film kolorowy[72]. W 1988 roku powstał pierwszy program antywirusowy dla komputerów osobistych[73]. W 1989 roku Janor Lanier opracował składający się z hełmu i rękawicy pierwszy zestaw do kreowania rzeczywistości wirtualnej[74].

W lipcu 1981 roku firma Microsoft udostępniła system operacyjny MS-DOS[75]. Został on wprowadzony do komputerów IBM[76].

21 listopada 1990 roku w Wielkiej Brytanii zaprezentowano Linitekst, pierwszy program translacyjny z wszechstronnym słownictwem. Program był wyposażony w słownik angielsko-francuski liczący 35 tys. słów[77]. W 1995 roku na rynku ukazał się 64-bitowy mikroprocesor Intel Pentium Pro, mogący wykonywać 166 milionów operacji matematycznych na sekundę[78]. W tym samym roku firma Sun Microsystems zaprezentowała język programowania Java, pozwalający na tworzenie programów komputerowych działających na każdym typie komputera osobistego. Java stała się popularna wśród webmasterów do pisania aplikacji działających w Internecie[79].

W drugiej połowie lat 90. XX wieku zaczęto dyskusję nad tzw. pluskwą milenijną – problemie zapisywania daty w systemach komputerowych. W pierwszych maszynach cyfrowych dla oszczędności miejsca rok zapisywano za pomocą dwóch ostatnich cyfr. Pomimo coraz większej wielkości pamięci komputerowej utrzymano zapis, by zachować kompatybilność ze starszymi komputerami. Po 1 stycznia 2000 roku odnotowano stosunkowo niewielką liczbę awarii[80].

Systemy operacyjne

edytuj

W 1969 roku pojawiła się pierwsza wersja systemu operacyjnego Unix[81]. Głównymi autorami Unixa byli Ken Thompson i Dennis Ritchie, pracujący dla AT&T. System ten bazował na systemie Multics. W 1975 roku na uczelnie trafiła nieodpłatnie szósta wersja Unixa. Krok ten przyczynił się do rozwoju tego systemu operacyjnego. Na początku lat 80. AT&T skomercjalizowało Unixa. Decyzja ta spotkała się z krytyką ze strony inżynierów akademickich. W odpowiedzi na tę decyzję w 1983 roku Richard Stallman założył Free Software Foundation, która za główny cel obrała sobie opracowanie wolnego systemu uniksowego, pozbawionego kodu pochodzącego z AT&T[60].

Windows

edytuj

W listopadzie 1985 roku Microsoft zaprezentował system operacyjny Windows 1.0. Pierwsze systemy tej wersji opierały się na systemie MS-DOS. Obsługa Windows 1.0. w dużej mierze polegała na użyciu myszy komputerowej. W wydanym dwa lata później Windowsie 2.0 wprowadzono możliwość nakładania okien na siebie, edytor tekstu Microsoft Word i arkusz kalkulacyjny Microsoft Excel. W 1990 roku na rynku pojawił się Windows 3.0, który wymagał dysku twardego. W sierpniu 1995 roku Microsoft wypuścił system Windows 95, w którym wprowadzono przycisk „Start”, funkcję „plug and play” i przeglądarkę Internet Explorer. W wydanym trzy lata później Windowsie 98 ulepszono obsługę USB, co przyczyniło się do powszechnego przyjęcia tego typu złącza. Ostatnim systemem opartym na MS-DOS był Windows ME[82].

Bliźniaczym systemem do Windows ME był Windows 2000, oparty na systemie Windows NT. W październiku 2001 roku na rynku pojawił się system Windows XP. System cieszył się bardzo dużą popularnością. W styczniu 2007 roku Microsoft zaprezentował system Windows Vista. W październiku 2009 roku wydano system Windows 7, uważany za dopracowaną wersję Visty. W wydanym w październiku 2012 roku Windowsie 8 porzucono przycisk „Start” na rzecz ekranu startowego dopasowanego do dotykowej obsługi. Powszechna krytyka zastąpienia „Startu” ekranem startowym zmusiła Microsoft do przywrócenia tej funkcję w Windowsie 8.1, wydanym w październiku 2013 roku[82]. Najnowszymi systemami Microsoftu są Windows 10 (wydany w lipcu 2015 roku)[83] i Windows 11 (wydany 5 października 2021 roku)[84].

 
Interfejs Ubuntu, jednej z dystrybucji Linuxa

We wrześniu 1991 roku Linus Torvalds zaprezentował pierwszą wersję systemu operacyjnego Linux[85]. Jest on kompatybilny z większością standardów Uniksa, lecz jego jądro zostało wzbogacone przez różne organizacje i firmy komercyjne[60]. System był dostępny bez opłat dla każdej zainteresowanej osoby, na licencji GNU General Public License[60][85].

Na przestrzeni lat powstały liczne dystrybucje Linuksa (w nawiasie data pierwszego wydania systemu)[86]:

23 września 2008 roku na rynku pojawił się telefon G1 wyposażony w system operacyjny Android, system operacyjny z jądrem bazującym na Linuksie dla urządzeń mobilnych[87][85]. W kwietniu 2017 roku Android stał się najpopularniejszym systemem operacyjnym na świecie[88].

Historia informatyki w państwach bloku wschodniego

edytuj

W państwach zachodnich informatyka rozwijała się głównie za sprawą prywatnych firm. W bloku wschodnim rozwój informatyki był oparty na planach gospodarczych kontrolowanych przez organy administracji państwowej[89]. W ZSRR do lat 60. elektronikę i teorię informacji postrzegano jako nauki skażone ideologią kapitalistyczną[90]. W kontrolowanych przez ZSRR krajach Europy Wschodniej powstający przemysł komputerowy miał dogodniejsze warunki rozwoju. Choć początkowo elektronikę i informatykę postrzegano pod kątem ich zastosowania w celach wojskowych, tak na przestrzeni lat poszczególne rządy zaczęły dostrzegać komputeryzację jako ważny czynnik sprzyjający rozwojowi gospodarczemu państw komunistycznych[91].

Radziecki MESM był drugim programowalnym komputerem w Europie kontynentalnej. Następnie w ZSRR powstała Strela (do celów militarnych), seria BESM[92]. Pierwszym polskim komputerem był XYZ zbudowany w 1958 roku[93]. Poziom informatyzacji w Polsce w latach 60. był wyraźnie słabszy od Czechosłowacji i Niemieckiej Republiki Demokratycznej (NRD), które posiadały więcej komputerów przy mniejszej liczbie ludności[94]. W 1970 roku liczba pracujących komputerów w NRD wynosiła 360, w Czechosłowacji 300, a w Polsce 170[95]. W wyniku niewydolności gospodarki planowej i jej braku konkurencyjności oraz niewymielaności walut Rady Wzajemnej Pomocy Gospodarczej (RWPG) poziom komputeryzacji państw bloku wschodniego był wyraźnie słabszy od świata zachodniego. NRD i RFN prowadziły wyścig w dziedzinie technologii mikroelektronicznych, choć faktycznie NRD bezskutecznie próbowała dogonić RFN w tej dziedzinie[91].

W 1967 roku RWPG podjęła decyzję o wdrożeniu Jednolitego Systemu Elektronicznych Maszyn Cyfrowych (systemu RIAD) w komputerach produkowanych przez członków organizacji[96]. System RIAD zaczął być wdrażany przez większość państw RWPG w 1968 roku (w Polsce od 1969)[32][97]. Komputery w systemie RIAD korzystały z architektury logicznej i systemu operacyjnego IBM 360[98].

Sieci komputerowe

edytuj
Osobny artykuł: Historia Internetu.

Do czasu stworzenia pierwszej sieci komputery były traktowane głównie jako wydajne kalkulatory i maszyny do pisania[99]. W 1957 roku w Departamencie Obrony Stanów Zjednoczonych powołano agencję DARPA, która w 1969 roku utworzyła pierwsze połączenie czterech węzłów w ramach sieci ARPANET[100]. Był to eksperyment badający możliwości komunikacji między komputerami. Projekt szybko znalazł zastosowanie w ośrodkach naukowych, które potrzeby technologii do błyskawicznej i taniej wymiany informacji[101]. W październiku 1969 roku uruchomiono sieć komputerową między Uniwersytetem Kalifornijskim w Los Angeles a odległym o 600 km Stanford Research Institute w Palo Alto[102]. W 1971 roku Ray Tomlinson stworzył program do przesyłania wiadomości elektronicznych[100][103]. W 1973 roku opracowano koncepcję Internetu oraz utworzono pierwsze połączenie sieciowe pomiędzy Ameryką Północną a Europą[100].

 
Tim Berners-Lee, współtwórca usługi WWW

W 1974 roku opracowano standard komunikacyjny TCP/IP. Pięć lat później powstała tekstowa grupa dyskusyjna Usenet[100]. Około 1980 roku TCP/IP połączono z innymi sieciami – BITNET-em i Usenetem[104]. W 1981 roku Ted Nelson przedstawił koncepcję hipertekstowej bazy danych. Trzy lata później powstał system DNS, system tłumaczenia nazw komputerów na cyfry. W 1985 roku zarejestrowano pierwszą domenę: symbolics.com. Od 1988 roku rejestracją domen zajmowało się IANA (Internet Assigned Numbers Authority). W tym samym roku opracowano usługę sieciową Internet Relay Chat (IRC), umożliwiającą rozmowę na kanałach komunikacyjnych. W 1990 roku Tim Berners-Lee rozpoczął pracę nad World Wide Web (WWW). Upowszechnienie usługi WWW nastąpiło rok później[100]. Pod koniec lat 90. upowszechnił się handel elektroniczny[101], a na rynku pojawiły się pierwsze komputery przenośne bezpośrednio połączone z Internetem[105]. W 2000 roku powstał standard Wireless Application Protocol, umożliwiający dostęp do Internetu z telefonu komórkowego[59].

W 1993 roku Marc Andreessen opracował przeglądarkę internetową NCSA Mosaic[106]. W tym samym roku Andreessen i James Clark stworzyli firmę Netscape, która w 1995 roku wydała przeglądarkę Netscape Navigator[107]. W 1994 roku Håkon Wium Lie opracował pierwszą wersję kaskadowych arkuszy stylów[108]. W lipcu 1995 roku Microsoft wydał przeglądarkę Internet Explorer. Wprowadzenie Internet Explorera do systemu operacyjnego Windows przyczyniło się do uzyskania przez Microsoft monopolu na przeglądarkę internetową[109]. Na początku XXI wieku wydano nowe przeglądarki internetowe, m.in. Firefox (2004), Safari (2003) i Google Chrome (2008). W 2015 roku Internet Explorer został zastąpiony przez Microsoft Edge[110].

W 1990 roku uruchomiono Archie, wyszukiwarkę plików dla usługi FTP. Cztery lata później David Filo i Jerry Yang stworzyli Yahoo!, pierwszy zbiór stron internetowych. 27 września 1998 roku Larry Page i Sergey Brin uruchomili wyszukiwarkę Google[111].

 
Logotypy firm należących do wielkiej piątki

Około 2010 roku rynek został zdominowany przez cztery firmy komputerowe oferujące usługi zdalne: Google, Amazon, Facebook i Apple. Firmy te zaczęto określać akronimem GAFA[112][113]. W następnych latach do grupy zaczęto dołączać Microsoft, a sam akronim przekształcił się w GAFAM[114][115] (również GAMMA[116]). GAFAM wyróżnia się m.in. bardzo wysokimi zasobami finansowymi (wartość spółek w połowie 2021 roku wyniosła około 10 bilionów dolarów, co stanowiło równowartość łącznego produktu krajowego brutto Francji i Rosji[117]), przewagą technologiczną, dbałością o user experience, rozbudowaną bazą danych o klientach i stałą obecnością w mediach[118].

10 sierpnia 2015 roku Larry Page poinformował o powołaniu holdingu Alphabet. W skład przedsiębiorstwa weszły samo Google oraz jednostki zależne od niej[119]. 28 października 2021 roku spółka Facebook przyjęła nową nazwę Meta i zaprezentowała nowe logo[120]. W 2022 roku ok. 2,9 mld osób korzystało z Facebooka, 2 mld z serwisu YouTube, wchodzącego w skład Google, a 1,4 mld z systemów operacyjnych Microsoft Windows 10 i 11[121].

GAFAM jest krytykowana za naruszanie prywatności użytkowników[122], unikanie płacenia podatków[122][123], likwidację miejsc pracy[122] i działalność lobbingową[124]. Działalność poszczególnych firm bezskutecznie próbowały ograniczyć Australia oraz Komisja Europejska[125].

Superkomputery

edytuj

W latach 60. XX wieku pojawiły się pierwsze superkomputery, urządzenia służące do znacznie szybszego działania na liczbach. Pierwszym modelem był procesor CDC 6600, skonstruowany w 1964 roku przez Seymoura Craya. W 1972 roku Cray założył przedsiębiorstwo Cray Research Incorporated, które zajmowało się produkcją superkomputerów[58]. W 1996 roku w Japonii skonstruowano komputer mogący wykonać 1,08 tryliona operacji matematycznych na sekundę[126]. 29 czerwca 2000 roku IBM skonstruował ASCI White służący do symulowania skutków wybuchów jądrowych[127].

Sztuczna inteligencja

edytuj

Rozwój maszyn imitujących ludzkie działania na początku XX wieku wywołał dyskusję o tym czy możliwe jest stworzenie sztucznego mózgu. W 1949 roku Edmund Callis Berkley wydał książkę pt. Gigantyczne mózgi, czyli maszyny, które myślą, gdzie porównał komputer do mózgu. Wzrost zainteresowania sztuczną inteligencją przypadł na lata 50. W 1950 roku Alan Turing w Computer Machinery and Intelligence zaproponował test inteligencji maszynowej. Dwa lata później Arthur Samuel napisał program samodzielnie uczący się gry w warcaby. W 1959 roku, podczas opowiadania o nauczaniu maszyny gry w szachy, Samuel wprowadził termin „uczenie maszynowe”. W 1955 roku John McCarthy jako pierwszy użył terminu „sztuczna inteligencja”. Do badań nad sztuczną inteligencją wykorzystano język programowania Lips (List Processing), opracowany w 1958 roku przez McCarthy’ego[128].

Pierwszym chatbotem (początkowo znanym pod nazwą „chatterbot”) był stworzony w 1966 roku przez Josepha Weizenbauma program ELIZA, parodiujący psychoterapeutę. Dwa lata później Ołeksij Hryhorowycz Iwachnenko przedstawił ideę uczenia głębokiego. W latach 70. w wyniku braku większego zainteresowania (m.in. ze strony rządów Stanów Zjednoczonych i Wielkiej Brytanii) rozwój sztucznej inteligencji został zahamowany. Ponowny wzrost zainteresowania nastąpił w latach 80. W Japonii uruchomiono projekt Komputerów Piątej Generacji, który miał zakończyć się stworzeniem komputerów potrafiących m.in. rozmawiać w języku ludzkim. W 1986 roku w Niemczech zaprezentowano pierwszy samochód bez kierowcy. Ponowny spadek zainteresowania sztuczną inteligencją miał miejsce w 1987 roku. Głównym powodem drugiego kryzysu były wysokie koszty w stosunku do niewielkiego zysku[128].

Ponowne zainteresowanie sztuczną inteligencją miało miejsce w 1993 roku. W latach 90. i na początku XXI wieku zaczęto wykorzystywać sztuczną inteligencję w życiu codziennym. Pojawiły się m.in. oprogramowanie rozpoznawania mowy na komputerach z systemem Microsoft Windows (1997) czy też robot sprzątający Roomba (2002)[128]. W 1997 roku mistrz świata w szachach Garri Kasparow przegrał partię z superkomputerem Deep Blue, stworzonym przez IBM (poprzedni pojedynek z 1996 roku zakończył się zwycięstwem Kasparowa)[129]. Wysłane w 2003 roku przez NASA łaziki Spirit i Opportunity poruszały się po powierzchni Marsa bez udziału człowieka. W 2006 roku Twitter, Netflix i Facebook wprowadziły sztuczną inteligencję do algorytmów reklamowych. W 2010 roku na rynku pojawił się wyprodukowany przez Microsoft Xbox 360 Kinect. Był to pierwszy sprzęt do gier śledzący ruchy ciała i przekształcający je na polecenia w grach[128]. 4 października 2011 roku Apple wydał asystenta wirtualnego Siri[130]. W 2012 roku związani z Google Jeff Dean i Andrew Ng nauczyli sieć neuronową rozpoznawania kotów na obrazach[131].

27 listopada 2015 roku ponad 1000 sygnatariuszy (m.in. Elon Musk, Steve Wozniak i Stephen Hawking) podpisali otwarty list do rządów świata, apelując o zakazanie rozwoju broni autonomicznych[132]. W 2017 roku zaprogramowane przez Facebooka chatboty SI podczas swoich rozmów zaczęły rozwijać własny język całkowicie automatycznie. W 2020 roku OpenAI zaczęła testy nad chatbotem ChatGPT, modelem wykorzystującym uczenie głębokie do generowania treści[128]. Program został wydany 30 listopada 2022 roku[133]. Rok później OpenAI opracowało DALL-E pozwalający na tworzenie obrazów na podstawie zapytań w języku naturalnym[134].

Komputery kwantowe

edytuj

W 1981 roku fizyk Richard Feynman ogłosił, że symulację procesu kwantowego można przeprowadzić wyłącznie za pomocą komputera kwantowego. Wówczas komputer kwantowy pozostawał wyłącznie problemem teoretycznym. Dalsze prace teoretyczne nad komputerem kwantowym prowadził David Deutsch[135]. Przez pierwsze lata komputery kwantowe pozostawały problemem hipotetycznym. Zainteresowanie ze strony rządów największych państw pojawiło się po opracowaniu przez Petera Shora kwantowego algorytmu służącego do rozkładu na czynniki pierwsze liczb naturalnych z wykorzystaniem komputera kwantowego. Algorytm umożliwia złamanie każdego szyfru cyfrowego, co mogłoby sparaliżować gospodarkę światową[136].

W 2019 roku Google rozpoczął pracę nad stworzeniem własnego komputera kwantowego. Ich pierwszym komputerem był Sycamore liczący 53 kubity[137]. W 2021 roku IBM ogłosił zbudowanie swojego pierwszego komputera kwantowego Eagle[138]. W 2022 roku największym komputerem kwantowym był Osprey IBM, liczący 433 kubity[139]. Prace nad komputerem kwantowym prowadzą również Chiny[139].

Zobacz też

edytuj
  1. Autorstwo instrukcji jest przedmiotem sporu. W źródłach można natknąć się również na informację, że faktycznym autorem programu był Babbage, który miał stworzyć instrukcję kilka miesięcy przed Lovelace[8].
  2. W źródłach można również natknąć się na informację, że twórcą dyskietki był Yoshirō Nakamatsu. Jego dyskietka miała zostać wynaleziona w 1950 roku[27] i zostać opatentowana dwa lata później[52]. Zdaniem samego Japończyka w 1979 roku IBM zawarło z nim szereg umów licencyjnych, by zapobiec konfliktom[52][53].

Przypisy

edytuj
  1. Informatyka, [w:] Encyklopedia PWN [dostęp 2014-07-13].
  2. Sienkiewicz 2006 ↓, s. 11–12.
  3. a b c d e f g Oxford: wielka historia świata 2008 ↓, s. 249.
  4. Kaku 2023 ↓, s. 35–36.
  5. Kaku 2023 ↓, s. 36–37.
  6. Navarro 2023 ↓, s. 76.
  7. Kaku 2023 ↓, s. 39.
  8. a b Navarro 2023 ↓, s. 74.
  9. Kaku 2023 ↓, s. 40.
  10. Sienkiewicz 2006 ↓, s. 12.
  11. a b c Sienkiewicz 2006 ↓, s. 14.
  12. Kaku 2023 ↓, s. 44.
  13. a b Kaku 2023 ↓, s. 47.
  14. Gómez 2022 ↓, s. 68–69.
  15. Oxford: wielka encyklopedia świata 2006 ↓, s. 179, 181.
  16. Navarro 2023 ↓, s. 114–115.
  17. a b Navarro 2023 ↓, s. 116.
  18. a b Oxford: wielka encyklopedia świata 2006 ↓, s. 205.
  19. Jones i Lloyd 2012 ↓, s. 29.
  20. a b c Sienkiewicz 2006 ↓, s. 15.
  21. Sienkiewicz 2006 ↓, s. 15–16.
  22. Rojas i Hashagen 2002 ↓, s. 292.
  23. Oxford: wielka encyklopedia świata 2006 ↓, s. 185.
  24. The Selective Sequence Electronic Calculator. ibm.com. [dostęp 2024-07-17]. (ang.).
  25. Oxford: wielka encyklopedia świata 2006 ↓, s. 195.
  26. Oxford: wielka encyklopedia świata 2006 ↓, s. 203.
  27. a b Oxford: wielka encyklopedia świata 2006 ↓, s. 209.
  28. a b c Oxford: wielka historia świata 2008 ↓, s. 250.
  29. Oxford: wielka encyklopedia świata 2006 ↓, s. 211.
  30. Oxford: wielka encyklopedia świata 2006 ↓, s. 221.
  31. Navarro 2023 ↓, s. 118.
  32. a b Sienkiewicz 2006 ↓, s. 22.
  33. Fortran. ibm.com. [dostęp 2024-07-13]. (ang.).
  34. Oxford: wielka encyklopedia świata 2006 ↓, s. 233.
  35. Navarro 2023 ↓, s. 119–120.
  36. Navarro 2023 ↓, s. 119.
  37. Jakubowski i Łukasiak 2003 ↓, s. 6.
  38. Sienkiewicz 2006 ↓, s. 17.
  39. Kaku 2023 ↓, s. 77.
  40. William B. Shockley Facts. nobelprize.org. [dostęp 2024-07-13]. (ang.).
  41. Walter H. Brattain Facts. nobelprize.org. [dostęp 2024-07-13]. (ang.).
  42. John Bardeen Facts. nobelprize.org. [dostęp 2024-07-13]. (ang.).
  43. Oxford: wielka historia świata 2008 ↓, s. 250–251.
  44. a b c d Oxford: wielka historia świata 2008 ↓, s. 251.
  45. Oxford: wielka encyklopedia świata 2006 ↓, s. 253.
  46. Oxford: wielka encyklopedia świata 2006 ↓, s. 261.
  47. Oxford: wielka encyklopedia świata 2006 ↓, s. 265.
  48. Oxford: wielka encyklopedia świata 2006 ↓, s. 269.
  49. a b c Sienkiewicz 2006 ↓, s. 18.
  50. Oxford: wielka encyklopedia świata 2006 ↓, s. 293.
  51. Floppy Disks. computerhistory.org. [dostęp 2024-07-14]. (ang.).
  52. a b Franz Lidz: Dr. NakaMats, the Man With 3300 Patents to His Name. smithsonianmag.com, 2012. [dostęp 2024-07-14]. (ang.).
  53. Tim Hornyak: Dr. NakaMats: Japan's Self-Proclaimed Savior. japaninc.com, 2002. [dostęp 2024-07-14]. (ang.).
  54. Oxford: wielka encyklopedia świata 2006 ↓, s. 309.
  55. Oxford: wielka encyklopedia świata 2006 ↓, s. 313.
  56. Oxford: wielka historia świata 2008 ↓, s. 251–252.
  57. Hołyński 2019 ↓, s. 111.
  58. a b c Oxford: wielka historia świata 2008 ↓, s. 252.
  59. a b Sienkiewicz 2006 ↓, s. 23.
  60. a b c d e Historia systemów operacyjnych. akacja.wzks.uj.edu.pl. [dostęp 2024-07-14].
  61. Oxford: wielka encyklopedia świata 2006 ↓, s. 343.
  62. IBM XT – Personal Computer (1983). emuseum.ucsc.cmb.ac.lk. [dostęp 2024-07-13]. (ang.).
  63. Hołyński 2019 ↓, s. 114, 127.
  64. Oxford: wielka encyklopedia świata 2006 ↓, s. 333.
  65. a b Commodore Innovations. commodore.ca, 2002-02-07. [dostęp 2024-07-14]. [zarchiwizowane z tego adresu (2010-04-01)]. (ang.).
  66. Marek Więcek: Komputer Commodore C64. muzea.malopolska.pl. [dostęp 2024-07-14].
  67. Jaskułowski 2004 ↓, s. 31.
  68. Oxford: wielka encyklopedia świata 2006 ↓, s. 339.
  69. Oxford: wielka encyklopedia świata 2006 ↓, s. 345.
  70. Oxford: wielka encyklopedia świata 2006 ↓, s. 345, 347.
  71. Oxford: wielka encyklopedia świata 2006 ↓, s. 349.
  72. Oxford: wielka encyklopedia świata 2006 ↓, s. 347.
  73. Oxford: wielka encyklopedia świata 2006 ↓, s. 361.
  74. Oxford: wielka encyklopedia świata 2006 ↓, s. 365.
  75. MS-DOS: A Brief Introduction. linfo.org. [dostęp 2024-07-14]. (ang.).
  76. Oxford: wielka encyklopedia świata 2006 ↓, s. 329.
  77. Oxford: wielka encyklopedia świata 2006 ↓, s. 369.
  78. Oxford: wielka encyklopedia świata 2006 ↓, s. 387.
  79. Oxford: wielka encyklopedia świata 2006 ↓, s. 389.
  80. Hołyński 2019 ↓, s. 181.
  81. M. Douglas McIlroy: A Research UNIX Reader: Annotated Excerpts from the Programmer’s Manual, 1971-1986. cs.dartmouth.edu. [dostęp 2024-07-14]. (ang.).
  82. a b Samuel Gibbs: From Windows 1 to Windows 10: 29 years of Windows evolution. theguardian.com, 2014-10-02. [dostęp 2024-07-13]. (ang.).
  83. Windows 10 - do kiedy ma zapewnione wsparcie techniczne?. politykabezpieczenstwa.pl. [dostęp 2024-07-13].
  84. Nowości Windows 11 w pigułce - dlaczego warto przesiąść się z Windows 10?. benchmark.pl. [dostęp 2024-07-13].
  85. a b c History. cvw.cac.cornell.edu. [dostęp 2024-07-14].
  86. Major Distributions An overview of major Linux distributions and FreeBSD. distrowatch.com. [dostęp 2024-07-14]. (ang.).
  87. Richard Gao: Android and its first purchasable product, the T-Mobile G1, celebrate their 8th birthdays today. androidpolice.com, 2016-09-23. [dostęp 2024-07-14]. (ang.).
  88. Android overtakes Windows for first time. gs.statcounter.com, 2017-04-03. [dostęp 2024-07-14]. (ang.).
  89. Hołyński 2019 ↓, s. 69.
  90. Sikora 2017 ↓, s. 506.
  91. a b Sikora 2017 ↓, s. 507.
  92. Diego Germán González: Komputery w ZSRR. Od zapomnienia do popularności. linuxadictos.com. [dostęp 2024-07-14].
  93. Hołyński 2019 ↓, s. 25–26.
  94. Sikora 2019 ↓, s. 124.
  95. Kubiński 1999 ↓, s. 9.
  96. Sikora 2019 ↓, s. 119.
  97. Sikora 2019 ↓, s. 119–120.
  98. Hołyński 2019 ↓, s. 90.
  99. Oxford: wielka historia świata 2008 ↓, s. 253.
  100. a b c d e Powstanie i rozwój Internetu – kalendarium. umk.pl. [dostęp 2024-07-13].
  101. a b Oxford: wielka historia świata 2008 ↓, s. 256.
  102. Hołyński 2019 ↓, s. 137.
  103. Nie żyje Ray Tomlinson, wynalazca e-mailowego adresu. naukawpolsce.pl, 2016-03-08. [dostęp 2024-07-13].
  104. Sienkiewicz 2006 ↓, s. 19, 23.
  105. Oxford: wielka encyklopedia świata 2006 ↓, s. 405.
  106. NCSA Mosaic: How the First Mainstream Web Browser Changed the World Forever. historytools.org, 2023-11-11. [dostęp 2024-07-13]. (ang.).
  107. Rahul Awati: Netscape. techtarget.com. [dostęp 2024-07-13]. (ang.).
  108. Håkon W Lie: Cascading HTML style sheets -- a proposal. w3.org, 1994-10-10. [dostęp 2024-07-13]. (ang.).
  109. Internet Explorer. britannica.com. [dostęp 2024-07-13]. (ang.).
  110. Browser. britannica.com. [dostęp 2024-07-13]. (ang.).
  111. The Complete History of Search Engines. seomechanic.com, 2023-01-09. [dostęp 2024-07-13]. (ang.).
  112. Górka 2018 ↓, s. 155.
  113. Erick Schonfeld: Eric Schmidt's Gang Of Four: Google, Apple, Amazon, And Facebook. techcrunch.com, 2011-05-31. [dostęp 2024-07-14]. (ang.).
  114. Młynarska-Sobaczewska i Zaleśny 2022 ↓, s. 226.
  115. Górka 2018 ↓, s. 150.
  116. Davies, Mison i Ward 2024 ↓, s. 186.
  117. Młynarska-Sobaczewska i Zaleśny 2022 ↓, s. 226–227.
  118. Górka 2018 ↓, s. 155–156.
  119. Larry Page: G is for Google. blog.google, 2015-10-10. [dostęp 2024-07-14]. (ang.).
  120. Introducing Meta: A Social Technology Company. about.fb.com, 2021-10-28. [dostęp 2024-07-14]. (ang.).
  121. Młynarska-Sobaczewska i Zaleśny 2022 ↓, s. 227.
  122. a b c Bob Pisani: We are letting Amazon and Apple ‘avoid taxes, invade privacy, and destroy jobs,’ says NYU professor. cnbc.com, 2017-10-02. [dostęp 2024-07-14]. (ang.).
  123. Młynarska-Sobaczewska i Zaleśny 2022 ↓, s. 231.
  124. Młynarska-Sobaczewska i Zaleśny 2022 ↓, s. 229.
  125. Młynarska-Sobaczewska i Zaleśny 2022 ↓, s. 229, 231.
  126. Oxford: wielka encyklopedia świata 2006 ↓, s. 393.
  127. Oxford: wielka encyklopedia świata 2006 ↓, s. 407.
  128. a b c d e Historia sztucznej inteligencji. ai.usz.edu.pl. [dostęp 2024-07-13].
  129. Kasparov vs. Deep Blue. The Match That Changed History. chess.com, 2018-10-12. [dostęp 2024-07-13]. (ang.).
  130. Doug Gross: Apple introduces Siri, Web freaks out. edition.cnn.com, 2011-10-04. [dostęp 2024-07-13]. (ang.).
  131. John Markoff: How Many Computers to Identify a Cat? 16,000. nytimes.com, 2012-06-25. [dostęp 2024-07-13]. (ang.).
  132. Samuel Gibbs: Musk, Wozniak and Hawking urge ban on warfare AI and autonomous weapons. theguardian.com, 2015-07-27. [dostęp 2024-07-13]. (ang.).
  133. Introducing ChatGPT. openai.com. [dostęp 2024-07-13]. (ang.).
  134. DALL-E 3 in ChatGPT. openai.com. [dostęp 2024-07-13]. (ang.).
  135. Kaku 2023 ↓, s. 88.
  136. Kaku 2023 ↓, s. 101.
  137. Kaku 2023 ↓, s. 109.
  138. Kaku 2023 ↓, s. 13.
  139. a b Kaku 2023 ↓, s. 108.

Bibliografia

edytuj
  • Gareth Davies, Angela Mison, Richard Ward. Cross-Disciplinary AI Supply Chain Risk Assessment. „International Conference on Cyber Warfare and Security”. 19, 2024. 
  • Joan Gómez: Matematycy, szpiedzy i hakerzy. Kody i szyfry. Barcelona: RBA, 2022. ISBN 978-84-1393-821-9.
  • Jakub Górka. Banki, GAFAM, FinTech w gospodarce współdzielenia – equilibrium współpracy i konkurencji. „Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu”. 531, 2018. ISSN 1899-3192. 
  • Marek Hołyński: Polska informatyka: zarys historii. Warszawa: Polskie Towarzystwo Informatyczne, 2019. ISBN 978-83-95235-74-0. [dostęp 2024-07-13].
  • Andrzej Jakubowski, Lidia Łukasiak. O telekomunikacyjnych pożytkach z elektroniki wynikających. „Przegląd Telekomunikacyjny. Rocznik LXXVI”. 1, 2003. 
  • Krzysztof Jaskułowski. Czytanie ZX Spectrum. „Kultura Popularna”. 3 (9), 2004. 
  • Cliff B. Jones, John L. Lloyd: Dependable and Historic Computing: Essays Dedicated to Brian Randell on the Occasion of his 75th Birthday. Berlin, Heidelberg: Springer, 2012. ISBN 978-3-642-24541-1.
  • Michio Kaku: Kwantowa dominacja Jak komputery kwantowe odmienią nasz świat. Warszawa: Prószyński i S-ka, 2023. ISBN 978-83-835-2092-6.
  • Grzegorz Kubiński, Historia informatyki w Polsce (czasy PRL i początki transformcji) [online] [dostęp 2024-07-11].
  • Anna Młynarska-Sobaczewska, Jacek Zaleśny. GAFAM – globalne korporacje cyfrowe jako uczestnicy procesów politycznych. „Przegląd Prawa Konstytucyjnego”. 3 (67), 2022. ISSN 2082-1212. 
  • Joaquín Navarro: Kobiety w matematyce. Od Hypatii do Emmy Noether. Barcelona: RBA, 2023. ISBN 978-84-1149-405-2.
  • Raul Rojas, Ulf Hashagen: The First Computers: History and Architectures. MIT Press, 2002. ISBN 978-0262681377.
  • Piotr Sienkiewicz. Od Eniaca do Internetu i społeczeństwa wiedzy. „Zeszyty Naukowe Warszawskiej Wyższej Szkoły Informatyki”. 1.1, 2006. 
  • Mirosław Sikora. Współpraca Departamentu I MSW z Hauptverwaltung Aufklärung MfS w zakresie tajnego pozyskiwania nowych technologii dla przemysłu PRL i NRD w latach 1975–1990. „Pamięć i Sprawiedliwość”. 29.1, 2017. 
  • Mirosław Sikora. Polska Droga do RIAD. Uniformizacja systemów komputerowych w RWPG, 1960–1970. „Kwartalnik Historii Nauki i Techniki”. 4, 2019. 
  • Praca zbiorowa: Oxford: wielka encyklopedia świata. T. 20: Kronika XX wieku. Poznań: Oxford Educational, 2006. ISBN 83-7425-500-5.
  • Praca zbiorowa: Oxford: wielka historia świata. T. 30: XX wiek. Świat i Polska od lat osiemdziesiątych do początku XXI w. – Filozofia, religia i sztuka II połowy XX w.. Warszawa: Oxford Educational, 2008. ISBN 978-83-7425-833-3.