Информа́тика (от информация и автоматика) — наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации с применением компьютерных технологий, обеспечивающих возможность её использования для принятия решений[1].
Она включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и конкретные, например разработка языков программирования и протоколов передачи данных.
Темами исследований в информатике являются вопросы: что можно, а что нельзя реализовать в программах и базах данных (теория вычислимости и искусственный интеллект), каким образом можно решать специфические вычислительные и информационные задачи с максимальной эффективностью (теория сложности вычислений), в каком виде следует хранить и восстанавливать информацию специфического вида (структуры и базы данных), как программы и люди должны взаимодействовать друг с другом (пользовательский интерфейс и языки программирования и представление знаний) и т. п.
История информатики
Чарльзу Бэббиджу приписывают изобретение первого механического компьютера.
Аде Лавлейс приписывают написание первого алгоритма, предназначенного для обработки на компьютере.
Самые ранние основы того, что впоследствии станет информатикой предшествуют изобретению современного цифрового компьютера. Машины для расчёта нескольких арифметических задач, такие как счёты, существовали с древности, помогая в таких вычислениях как умножение и деление.
Блез Паскаль спроектировал и собрал первый рабочий механический калькулятор, калькулятор Паскаля, в 1642[22].
В 1673 году Готфрид Лейбниц продемонстрировал цифровой механический калькулятор, названный «Stepped Reckoner»[23]. Его можно считать первым учёным в области компьютерных наук и специалистом в области теории информации, поскольку среди прочего, он ещё описал двоичную (бинарную) систему чисел.
В 1820 году Томас де Кольмар[en] запустил промышленный выпуск механического калькулятора после того, как он создал свой упрощённый арифмометр, который был первой счётной машиной достаточно прочной и надёжной для ежедневного использования служащими. Чарльз Бэббидж начал проектирование первого автоматического механического калькулятора, его разностной машины, в 1822, что в конечном счёте подало ему идею первого программируемого механического калькулятора, его аналитической машины[en] [24].
Он начал работу над этой машиной в 1834 году и менее чем за два года были сформулированы многие из основных черт современного компьютера. Важнейшим шагом стало принятие перфокарт, произведенных на Жаккардовском ткацком станке [25], что открывает бесконечные просторы для программирования [26]. В 1843 году, во время перевода французской статьи на аналитической машине, Ада Лавлейс написала в одной из её многочисленных записок алгоритм для вычисления чисел Бернулли, который считается первой компьютерной программой [27].
Около 1885 года Герман Холлерит изобрёл табулятор, который использовал перфокарты для обработки статистической информации; в конечном итоге его компания стала частью IBM. В 1937 году, спустя сто лет после несбыточной мечты Бэббиджа, Говард Эйкен, убедил руководство IBM, производившей все виды оборудования для перфорированных карт[28] и вовлечённой в бизнес по созданию калькуляторов разработать свой гигантский программируемый калькулятор, ASCC/Harvard Mark I[en], основанный на аналитической машине Бэббиджа, которая, в свою очередь, использовала перфокарты и центральный вычислитель (central computing unit) Когда машина была закончена, некоторые называли её «мечта Бэббиджа сбывается»[29].
В 1940-х, с появлением новых и более мощных вычислительных машин, термин компьютер стал обозначать эти машины, а не людей, занимающихся вычислениями (теперь слово «computer» в этом значении употребляется редко)[30]. Когда стало ясно, что компьютеры можно использовать не только для математических расчётов, область исследований информатики расширилась с тем, чтобы изучать вычисления в целом. Информатика получила статус самостоятельной научной дисциплины в 1950-х и начале 1960-х годов[31] [32]. Первая в мире степень по информатике, Диплом Кэмбриджа по информатике, была присвоена в компьютерной лаборатории Кембриджского университета в 1953 году. Первая подобная учебная программа в США появилась в Университете Пердью в 1962 году[33]. С распространением компьютеров возникло много новых самодостаточных научных направлений, основанных на вычислениях с помощью компьютеров.
Мало кто изначально мог предположить, что сами компьютеры станут предметом научных исследований, но в конце 1950-х годов это мнение распространилось среди большинства учёных [34]. Ныне известный бренд IBM в то время был одним из участников революции в информатике. IBM (сокращение от International Business Machines) выпустила компьютеры IBM 704[35] и позже IBM 709[36], которые уже широко использовались, в то время как такие устройства ещё только исследовались. «Тем не менее, работа с IBM (компьютером) была полна разочарований… если ты допускаешь ошибку в одной букве в одной инструкции, программа терпит крах и тебе приходится начинать весь процесс заново» [34]. В конце 1950-х годов информатика как дисциплина ещё только становилась, и такие проблемы были обычным явлением.
Со временем был достигнут значительный прогресс в удобстве использования и эффективности вычислительной техники. В современном обществе наблюдается явный переход среди пользователей компьютерной техники: от её использования только экспертами и специалистами к использованию всем и каждым. Изначально компьютеры были весьма дорогостоящими и чтобы их эффективно использовать нужна была помощь специалистов. Когда компьютеры стали более распространёнными и доступными, тогда для решения обычных задач стало требоваться меньше помощи специалистов.