Jak długo istnieje komputer? Wszystko o historii
W tym artykule wyjaśniamy, jak długo istniały komputery. Rozwój komputera do dziś jest ekscytującym procesem.
Jak długo istnieje komputer?
Od tego czasu trudno jest dokładnie określić, kiedy komputery były w pobliżu. Poprzednicy, tacy jak mechaniczne pomoce obliczeniowe, istnieli na długo przed Chrystusem, np. Liczydło. Pojęcie komputera jest jednak znacznie młodsze i pojawiło się na początku XX wieku. Oprócz maszyny do dziurkowania kart IBM 601 (1935) ważną rolę odegrały pierwsze maszyny niemieckiego wynalazcy Konrada Zuse. Jednak termin komputer nie był używany. Do tej pory wielu uważa, że istnieje kilka pierwszych komputerów.
1936: Z1 Konrada Zuse
W 1936 r. Konrad Zuse zaczął opracowywać pierwszą automatyczną maszynę sterowaną programowo, która została ukończona w 1938 r. Z1 był pierwszym komputerem, który pracował z liczbami binarnymi i został zaprogramowany za pomocą taśmy papierowej. Jednak komputer był bardzo zawodny z powodu problemów mechanicznych. Replika Z1 znajduje się w Technikmuseum w Berlinie.
1941: Z3 Konrada Zuse
Z3 jest następcą Z1. Był to pierwszy kontrolowany przez program i swobodnie programowalny komputer, więc można go było używać na wiele różnych sposobów. W szczególności w Niemczech uważa się, że Z3 jest pierwszym na świecie funkcjonalnym uniwersalnym komputerem.
1946: Systemy przetwarzania danych 1. generacji
W 1946 r. Eckert i Mauchly opracowali pierwszy w pełni elektroniczny kalkulator rurowy ENIAC. „Elektroniczny integrator numeryczny i komputer” był używany przez armię amerykańską do obliczania stołów balistycznych. ENIAC opanował podstawową arytmetykę i potrafił również wyprowadzać pierwiastki kwadratowe.
1956–1980: Systemy przetwarzania danych 2–5 pokolenia
W tych latach opracowano wyższe języki programowania, kompatybilne komputery i zasady wirtualnego przechowywania. Ponadto systemy baz danych i systemy wieloprocesorowe pojawiły się jako systemy oparte na wiedzy. Pierwszy swobodnie programowalny komputer stacjonarny na świecie został sprzedany przez Olivetti: w 1965 r. Maszynę o nazwie „Programma 101” można było kupić za 3200 USD.
1970-1974: Rewolucja komputera
Z uwagi na fakt, że mikroprocesory stały się tańsze, wiele komputerów zostało zbudowanych i wprowadzonych na rynek w tym okresie. W szczególności Intel i Fairchild odegrały tutaj wiodącą rolę. Intel zbudował pierwszy mikrokomputer w tych latach: 15 listopada 1971 r. Wprowadzono 4-bitowy procesor Intel 4004. W 1973 roku opublikowano „Xerox Alto”, pierwszy komputer z graficznym interfejsem użytkownika, myszą i wbudowaną kartą Ethernet.
1976–1979: mikrokomputer
Mikrokomputery stały się popularne i były sprzedawane w dużych ilościach. Pojawiły się nowe systemy operacyjne i napędy dyskietek. Microsoft ugruntował swoją pozycję na rynku. Były też pierwsze gry i standardowe tytuły oprogramowania. W 1978 roku pojawił się pierwszy 32-bitowy komputer z DEC. W IBM 5100 IBM opracował pierwszy „przenośny” komputer, który ważył 25 kilogramów, miał 16 KB pamięci RAM, miał wyświetlacz 16 x 64 znaków i kosztował ponad 9 000 USD. Głównie ze względu na wysoką cenę nie mogło to jednak przeważyć.
1980-1983: Pierwszy „prawdziwy” komputer
Era „komputerów domowych” rozpoczęła się w latach 80. XX wieku, na przykład Commodore VC20, Atari XL lub komputery Amigi. IBM miał wielki wpływ na przyszłe generacje komputerów PC dzięki wprowadzonemu w 1981 r. Komputerowi IBM: zdefiniowana przez niego klasa urządzeń jest nadal aktualna: procesory x86 są oparte na dalszym rozwoju oryginalnego projektu urządzenia IBM. Pod koniec lat siedemdziesiątych istniała duża liczba urządzeń technicznych i producentów. W tym czasie IBM był dominującym dostawcą na rynku. W 1980 roku uruchomiłeś pierwszy prawdziwy komputer. To kształtuje dziś prawie wszystkie komputery. W 1982 r. IBM uruchomił Word, NetWare i inne aplikacje. W 1983 r. Apple Macintosh ułatwił obsługę.
$config[ads_text5] not found1985/1986: dalszy rozwój
520ST został wydany w 1985 roku. Był to komputer Atari, który był wówczas niezwykle wydajny. Wydano także pierwszy mini komputer, MicroVAX II. W 1986 r. IBM wprowadził nowy system operacyjny (OS / 2).
1990: Windows się podnosi
22 maja 1990 r. Na rynek wszedł Windows 3.0, co było wówczas przełomem dla Microsoftu. Tylko w ciągu pierwszych sześciu miesięcy sprzedano około trzech milionów kopii systemu operacyjnego. Ponadto Internet coraz częściej objawia się jako globalny środek komunikacji.
1991-1995: Windows i Linux
Następnie początkowo bardzo drogie komputery stały się coraz bardziej dostępne. W programach Word, Excel i PowerPoint zostały opracowane ważne aplikacje dla użytkowników końcowych, które ostatecznie zostały połączone w celu utworzenia pakietu Office, który jest nadal używany. W 1991 roku fiński programista Linus Torvalds rozpoczął pracę nad Linuksem. W wielu firmach Ethernet stał się standardem danych. Sieciowanie komputerów spowodowało również, że model klient-serwer stał się coraz bardziej popularny, co umożliwiło tworzenie sieci.
$config[ads_text6] not found1996-2000: Internet staje się coraz ważniejszy
Informatyk Tim Berners-Lee opracował język znaczników „html”, protokół przesyłania „http” i „jednolity wskaźnik zasobów” „url”, aby nadać każdej witrynie nazwę i przetransportować zawartość z serwera do przeglądarki. Od 1995 r. Dostępnych było wiele edytorów stron internetowych, co umożliwiło wielu osobom tworzenie własnych stron internetowych bez wcześniejszej wiedzy.
21 wiek: dalszy rozwój
W 2003 roku Apple wypuścił PowerMac G5. Był to pierwszy komputer z 64-bitowym procesorem. W 2005 roku Intel stworzył pierwsze dwurdzeniowe procesory. W dalszym kursie dominował rozwój procesorów wielordzeniowych, obliczenia procesorów graficznych oraz tabletów. Od 2005 r. W dalszym rozwoju komputera uwzględniono w szczególności aspekty środowiskowe.
Najnowsza technologia: komputery kwantowe
Naukowcy pracują obecnie nad komputerami kwantowymi w wielu laboratoriach. Komputery te działają na zasadzie kubitów. W innym artykule wyjaśnimy, jak dokładnie działają komputery kwantowe.