informatyka

by: Jakub Witek

Informatyka – dyscyplina nauki zaliczana do nauk ścisłych oraz techniki zajmująca się przetwarzaniem informacji, w tym również technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających informacje. Początkowo stanowiła część matematyki, później rozwinęła się do odrębnej dyscypliny – pozostaje jednak nadal w ścisłej relacji z matematyką, która dostarcza informatyce podstaw teoretycznych.


Teorie informatyczne zajmują się badaniem zjawisk związanych z operowaniem informacją — jej przedstawianiem, przechowywaniem, uzyskiwaniem, porządkowaniem, przetwarzaniem. Prawa rządzące tymi zjawiskami leżą u podstaw budowy narzędzi informatyki, będących obiektami fizycznymi (głównie komputerami) i logicznymi (np. algorytmami, językami programowania, programami, strukturami danych). Te z kolei stanowią przedmiot badań działów teoretycznych informatyki. Informatyka posługuje się językiem i metodami matematyki, logiki matematycznej i specyficznych dziedzin, takich jak: teoria języków formalnych i automatów abstrakcyjnych, teoria algorytmów, teoria obsługi masowej; teorie te tworzą również swój własny język i metody. Programowanie i budowanie systemów informatycznych obejmuje w szczególności tworzenie narzędzi ułatwiających programowanie i ogólnie — posługiwanie się komputerami; do narzędzi tych należą języki programowania, translatory, systemy operacyjne i in.; do działu informatyki związanego z programowaniem należą też metody programowania i oceny programów. Dział informatyki związany ze sprzętem komputerowym (jego budową i metodami oceny) wykorzystuje zarówno rozwój elektroniki, jak i modele obliczeniowe tworzone w celu szybkiego, algorytmicznego rozwiązywania zadań; modele te stanowią teoretyczną podstawę tzw. architektur komputerowych, realizowanych następnie elektronicznie. Informatyka stała się wyodrębnioną dziedziną naukową w latach 60. XX w.; jej początki sięgają jednak XVII–XIX w., kiedy podejmowano próby automatyzacji obliczeń za pomocą maszyn mechanicznych (m.in. W. Schickard, B. Pascal, G.W. Leibniz, w Polsce — A. Stern) i zastosowania kart perforowanych do sterowania procesami technologicznymi (1725). Istotne znaczenie dla późniejszego rozwoju technik obliczeniowych miały prowadzone 1820–43 prace Ch. Babbage’a nad maszynami liczącymi; wynikiem tych prac była m.in. przypisywana A.A. Lovelace pionierska idea symbolicznego zapisu programów. Wynalezienie przez H. Holleritha maszyn licząco-analitycznych umożliwiło automatyzację przetwarzania dużych ilości danych statystycznych (1890). Intensywny rozwój informatyki został zapoczątkowany w latach 1940–45 przez skonstruowanie pierwszych elektromechanicznych maszyn cyfrowych (m.in. H.H. Aiken, K. Zuse), pierwszej elektronicznej maszyny cyfrowej (J.V. Atanasoff), a następnie — pierwszego komputera (ENIAC), zaprojektowanego i zbudowanego 1945 przez J.P. Eckerta i J.W. Mauchly’ego. Fundamentalne znaczenie dla informatyki miały prowadzone w tym okresie prace teoretyczne A.M. Turinga i J. von Neumanna. Zastosowanie pamięci operacyjnej (M.V. Wilkes, 1949) umożliwiło rozwój technik programowania, m.in. opracowanie pierwszych języków programowania wysokiego poziomu (Fortran, 1957) i ich rozwój (m.in. Algol, Pascal). Znacznym osiągnięciem informatyki polskiej było zapoczątkowanie w końcu lat 50. budowy komputerów (XYZ), wyposażonych w oryginalne oprogramowanie (systemy operacyjne, translatory). Rozwój elektroniki w latach 70.–80. (m.in. wynalezienie mikroprocesora) umożliwił powszechny dostęp do sprzętu komputerowego, powstanie nowych technik jego użytkowania (graficzny interfejs użytkownika) i nowych metod programowania (programowanie obiektowe), a także narzędzi informatyki związanych z sieciami komputerowymi, zwłaszcza Internetem (HTML, Java)



KONIEC