авторефераты диссертаций БЕСПЛАТНАЯ  БИБЛИОТЕКА

АВТОРЕФЕРАТЫ КАНДИДАТСКИХ, ДОКТОРСКИХ ДИССЕРТАЦИЙ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:   || 2 |
-- [ Страница 1 ] --

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ,

МОЛОДЕЖИ И СПОРТА УКРАИНЫ

ХАРЬКОВСКАЯ НАЦИОНАЛЬНАЯ АКАДЕМИЯ

ГОРОДСКОГО ХОЗЯЙСТВА

А. Б. Костенко

Н. О. Манакова

Е. В. Кузьмичева

КОНСПЕКТ ЛЕКЦИЙ

по курсам

«ИНФОРМАТИКА»,

«ИНФОРМАТИКА и

КОМПЬЮТЕРНАЯ ТЕХНИКА»

(для студентов 1 и 2 курса дневной и заочной форм обучения направлений подготовки 6.140101 «Отельно-ресторанное дело», 6.080101 «Геодезия, картография и землеустройство»

и 6.020107 «Туризм») Харьков – ХНАГХ – 2011 1 Костенко А. Б. Конспект лекций по курсам «ИНФОРМАТИКА», «ИНФОР МАТИКА И КОМПЬЮТЕРНАЯ ТЕХНИКА» (для студентов 1 и 2 курса дневной и заочной форм обучения направлений подготовки 6.140101 «Отельно-ресторанное дело», 6.080101 «Геодезия, картография и землеустройство» и 6.020107 «Туризм») / А. Б. Костенко, Н. О. Манакова, Е. В. Кузьмичева;

Харьк. нац. акад. гор. хоз-ва. – Х.: ХНАМГ, 2011. – 94 с.

Авторы: А. Б. Костенко, Н. О. Манакова, Е. В. Кузьмичева Рецензент: доц. каф. ПМ и ИТ, канд. техн. наук А. Л. Шаповалов Рекомендовано кафедрой ПМ и ИТ, протокол № 5 от 4 января 2010 г.

СОДЕРЖАНИЕ ТЕМА 1. ВВЕДЕНИЕ В ИНФОРМАТИКУ................................................................................ • ЛЕКЦИЯ 1. ИНФОРМАЦИЯ, ИНФОРМАЦИОННЫЕ БАРЬЕРЫ, ИНФОРМАТИКА............................ Понятие и определение информации............................................................................... 1.

Информационные барьеры в развитии информационного общества.......................... 2.

Информационное общество, информационный ресурс............................................... 3.

Информатика. Появление термина и определение...................................................... 4.

• ЛЕКЦИЯ 2. ИНФОРМАЦИЯ. ВИДЫ, СВОЙСТВА, КОЛИЧЕСТВО, ЕДИНИЦЫ ИЗМЕРЕНИЯ........... Классификация информации. Ее характер и виды....................................................... 1.

Свойства информации.................................................................................................... 2.

Количество информации................................................................................................. 3.

Кратные приставки для образования производных единиц измерения информации 4.

Примеры использования мега-, тера-, экза- и других величин.................................... 5.

ТЕМА 2. РАЗВИТИЕ И ОСНОВЫ ФУНКЦИОНИРОВАНИЯ ВЫЧИСЛИТЕЛЬНОЙ ТЕХНИКИ....................................................................................................................................... • ЛЕКЦИЯ 3. ИСТОРИЯ РАЗВИТИЯ ВЫЧИСЛИТЕЛЬНОЙ ТЕХНИКИ.............................................. Первые счетные машины................................................................................................ 1.

Поколения ЭВМ................................................................................................................ 2.

Нулевое поколение............................................................................................................ 3.

Компьютеры первого поколения (1945-1960)............................................................... 4.

ЭВМ второго поколения (1960-1965 годы).................................................................... 5.

Компьютеры третьего поколения (1966-1975)........................................................... 6.

Компьютеры четвертого поколения (1970-1985)........................................................ 7.

Компьютеры пятого поколения (1985 — и по сей день)............................................. 8.

Перспективы развития ЭВМ.......................................................................................... 9.

• ЛЕКЦИЯ 4. АРХИТЕКТУРА ЭВМ...................................................................................... Понятие архитектуры.................................................................................................... 1.

Классическая архитектура (архитектура Неймана).................................................. 2.

Шинная (магистральная) архитектура ЭВМ.............................................................. 3.

Принципы функционирования ЭВМ. Основной цикл работы...................................... 4.

ТЕМА 3. ИНФОРМАЦИЯ: КОДИРОВАНИЕ, СТРУКТУРИРОВАНИЕ, ОБРАБОТКА • ЛЕКЦИЯ 5. КОДИРОВАНИЕ ИНФОРМАЦИИ............................................................................. Дискретизация аналоговых сигналов............................................................................. 1.

Кодирование информации............................................................................................... 2.

Международная система байтового кодирования. Кодирование текстовой 3.

информации...................................................................................................................................... Кодирование звуковой информации............................................................................... 4.

Форматы звуковых файлов............................................................................................. 5.

ТЕМА 4. ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ......................................................................... • ЛЕКЦИЯ 6. КЛАССИФИКАЦИЯ ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ. СИСТЕМНОЕ ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ......................................................................................................................... Классификация ПО.......................................................................................................... 1.

ОПЕРАЦИОННЫЕ СИСТЕМЫ..................................................................................... 2.

Системное ПО.....................................................................................................................

3.

Режимы работы ОС....................................................................................................... 4.

Задачи и функции файловой системы........................................................................... 5.

• ЛЕКЦИЯ 7. ОФИСНЫЕ СИСТЕМЫ КАК ЧАСТЬ ПРИКЛАДНОГО ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ................................................................................................................................................ 1. Microsoft Office................................................................................................................. 2. OpenOffice.............................................................................................................................

СПИСОК ИСТОЧНИКОВ........................................................................................................... Тема 1. ВВЕДЕНИЕ В ИНФОРМАТИКУ Лекция 1. Информация, информационные барьеры, информатика 1. Понятие и определение информации По современным представлениям информация является одной из исходных категорий мироздания наряду с материей и энергией. Эти категории взаимосвязаны между собой;

усмотреть такие связи можно как в природных явлениях, так и в явлениях и процессах, порожденных человеком. Примерами природных явлений, в которых проявляются связи между материей, энергией и информацией, могут служить:

• фазовый переход из кристаллического состояния твердого тела в жидкое – в нем, наряду с материальными преобразованиями и энергетическими затратами, происходит и потеря информации относительно расположения атомов (сопровождаемая ростом энтропии);

• передача наследственных признаков в живой природе посредством информации, заключенной в молекулы ДНК, что обеспечивает, благодаря разным наборам хромосом, с одной стороны, передачу доминантных признаков данного вида животных или растений, а с другой стороны, адаптацию к изменениям внешних условий существования;

• условные и безусловные рефлексы – это информация, которая появилась и сохраняется в мозге животного благодаря материальным и энергетическим воздействиям внешней среды.

Примерами связей материя – энергия – информация в обществе людей являются:

любое производство включает материальную составляющую • (исходные материалы), энергетические ресурсы, необходимые для преобразования материальных объектов, а также информационное обеспечение в виде описания технологий, различной документации и пр.;

подготовка новых членов общества – образование – информационный • процесс, требующий как материального, так и энергетического обеспечения;

управление в любой сфере состоит в выработке решений на основе • имеющейся информации, которые могут иметь конкретные материальные и энергетические проявления, например, отключение электроэнергии в аварийной ситуации.

Какая из трех перечисленных категорий важнее для человека? Такая постановка вопроса кажется бессмысленной, поскольку всегда можно привести множество примеров приоритетности каждой из этих категорий в конкретных ситуациях. Вместе с тем прогресс человечества неизбежно влечет увеличение общего объема информации, которым оно располагает, причем объем этот растет с течением времени гораздо быстрее, чем население земного шара и его материальные потребности. Таким образом, можно утверждать, что значимость информации по отношению к остальным категориям возрастает. Именно по этой причине дальнейшее развитие человечества связывают с построением и переходом к новой формации – информационному обществу.

Итак, определение информации.

Информация (informatio (лат.)-разъяснение, изложение)– первоначально – сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и т.д.);

с середины 20 века – общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом, обмен сигналами в животном и растительном мире, передачу признаков от клетки к клетке, от организма к организму;

одно из основных понятий кибернетики.

Информация – одно из основных универсальных свойств предметов, явлений, процессов объективной действительности, человека и созданных им управляющих ЭВМ, заключающееся в способности воспринимать внутреннее состояние и воздействия окружающей среды и сохранять определенное время результаты его, преобразовывать полученные сведения и передавать результаты обработки другим предметам, явлениям, (преобразования) процессам, машинам, людям.

Информация (для процесса обработки данных) – любые знания о предметах, фактах, понятиях и т.п.проблемной среды, которыми обмениваются пользователи системы обработки данных.

2. Информационные барьеры в развитии информационного общества Информатика как самостоятельная научная дисциплина существует лишь около полувека, хотя с информационными процессами и переработкой информации человечество имело дело всегда. Совершим краткий экскурс в историю, оценивая ее с точки зрения уровня развития информационных процессов.

Для характеристики информационного обеспечения исторических эпох мы выделим несколько параметров:

• организация передачи информации в т.е.

пространстве, распространение информации с целью обеспечения доступа к ней людей (потребителей), удаленных друг от друга, в относительно небольшой временной интервал;

• организация передачи информации во времени, т.е. накопление и хранение информации в интересах будущих потребителей;

• организация обработки информации, т.е. преобразование имеющейся информации с целью ее использования для решения задач практики – управления, обучения, создания новой информации (наука и искусство) и пр.

По ходу истории человечества улучшение показателей, характеризующих уровень развития перечисленных процессов, происходило неравномерно, что повлекло возникновение и затем преодоление нескольких информационных Информационные барьеры образовывались в результате барьеров.

противоречий между информационными запросами общества и техническими возможностями их обеспечения. Эти барьеры оказывались препятствием на пути прогресса общества, и потому, как и в случае барьеров материальных или энергетических, человечество всегда находило способ их преодоления. Таких информационных барьеров можно указать четыре.

I-й информационный барьер был преодолен приблизительно в V тысячелетии до н.э. До того времени единственным хранилищем информации был мозг человека. Передача информации была связана с механическим перемещением самого человека, и, следовательно, скорость передачи была весьма низкой, а передача ненадежной. Обработка информации также производилась человеком. Противоречие состояло в том, что человечеству требовалась возможность сохранять во времени опыт и знания, накопленные предыдущими поколениями с тем, чтобы они могли быть переданы поколениям последующим. Барьер был преодолен благодаря появлению письменности.

Носителями информации стали камни, глиняные таблички, папирус, пергамент, береста, материя;

позднее (во II веке н.э.) появилась бумага.

II-й информационный барьер сформировался к XV в. из-за того, что в связи с развитием производства – появлением цехов, мануфактур – возникла потребность в большом числе образованных людей, способных этим производством управлять. Противоречие состояло в том, что количество источников информации – рукописей, рукописных книг – не могло обеспечить обучение большого количества людей. Изобретение книгопечатания (т.е.

тиражирования информации) в Европе в XV в. И. Гутенбергом и в XVI в.

И. Федоровым позволило преодолеть данное противоречие. В то время скорость передачи информации определялась скоростью механического перемещения ее бумажного носителя. Обработка производилась человеком.

Поскольку основным носителем информации являлась бумага и именно этим определялись технологии накопления и распространения информации, по определению великого советского математика и кибернетика В. М. Глушкова это состояние можно назвать бумажной информатикой.

К началу XX в. ситуация изменилась, в первую очередь в отношении скорости распространения информации: сначала появилась почта;

в XIX в. – телеграф, затем телефон;

в 1905 г.– радио;

в 1920–1930-е годы – телевидение. В результате этих изобретений информация практически мгновенно могла быть доставлена в любую точку земного шара. Появились и новые устройства, обеспечивавшие иные (по сравнению с бумагой) принципы записи информации для хранения – фотография, затем кино, затем магнитная запись. Без существенных изменений оставалась лишь ситуация, связанная с переработкой информации – эту функцию по-прежнему выполнял только человек.

К III-му информационному барьеру человечество подошло во второй половине XX столетия, когда общие объемы информации, которыми оно располагало, выросли настолько, что суммарной пропускной способности человеческого мозга оказалось недостаточно для ее переработки. Прогресс человечества стал зависеть от того, удастся ли решить проблему автоматизации обработки информации. Варианты решения появились в 1945–46 гг., когда американские инженеры П. Экерт и Дж. Мочли построили первую цифровую вычислительную машину «ЭНИАК», математик Дж. фон Нейман описал принципы работы автоматических вычислительных устройств, а в 1948 г.

К. Шеннон опубликовал знаменитую работу «Математическая теория связи», где изложил математические принципы кодирования и передачи информации, а также предложил метод объективного измерения количества информации – именно эти идеи и составили основу новой науки – информатики. Итак, преодоление нового информационного барьера породило необходимость создания устройств, обеспечивающих автоматизированную обработку информации, а это, в свою очередь, вызвало к жизни науку, которая определила бы принципы работы таких устройств и общие принципы представления и преобразования информации.

К IV-му информационному барьеру привел неудержимый рост объёмов информации. За следующие 25 лет после преодоления 3-го барьера было произведено столько же информации, сколько за предыдущие 500 лет. Налицо, несоответствие периодов удвоения: информации (10 лет) и населения земного шара лет). Таким образом, мы ( наблюдаем эффект информационного взрыва – катастрофический рост потоков информации, за которым не успевает увеличиваться количество объектов взаимодействия. Происходит Рис. 1.1 - Механизм информационного взрыва несоответствие потоков информации возможности их обработки.

На рис. 1.1 изображен механизм информационного взрыва:

Было 3 точки. Их связывало три канала (не пунктирные линии). Добавили всего две точки (№4 и №5), а каналов для связи всех точек теперь требуется целых девять. Т.о.: скорость роста числа требуемых каналов связи намного превышает скорость роста числа точек.

Основную опасность таят в себе не потоки информации сами по себе, а соотнесение с возможностями обработать их. И, так как информационный взрыв изменил это соотношение не в пользу человека, то наступил информационный кризис.

Мы получаем так называемый, информационный парадокс: прогресс не возможен без возрастания объемов информации - с одной стороны, возрастание объемов информации препятствует прогрессу - с другой стороны.

Благодаря развитию компьютерной техники и информационных технологий мы пришли к возникновению информационного общества.

3. Информационное общество, информационный ресурс Информационное общество – общество, в котором большинство работающих занято производством, хранением, переработкой и реализацией информации, особенно высшей ее формы – знаний, производство же энергии и материальных благ возложено на машины.

В индустриальном обществе известно несколько основных видов ресурсов (т. е. запасов, источников чего-либо): материальные, природные, трудовые, финансовые, энергетические. В информационном обществе акцент внимания смещается на информационный ресурс, который всегда существовал, но не рассматривался как экономическая категория.

В настоящее время не выработано абсолютно точного единого определения информационного ресурса. Приведем несколько из принятых определений.

Информационные ресурсы – это:

• идеи человечества и указания по их реализации, накопленные в форме, позволяющей их воспроизводство.

• книги, статьи, патенты, диссертации, научно-исследовательская и опытно-конструкторская документация, технические переводы, данные о передовом производственном опыте и др.

• знания, подготовленные людьми для социального использования в обществе и зафиксированные на материальном носителе. Эти знания материализованы в виде документов, баз данных, баз знаний, алгоритмов, компьютерных программ, произведений искусства, литературы, науки.

• документы и массивы документов в информационных системах (библиотеках, архивах, фондах, банках данных и др.).

Главное отличие информационных ресурсов от всех других видов ресурсов (трудовых, энергетических, минеральных и т.д.) - они тем быстрее растут, чем больше их расходуют.

По сравнению с индустриальным обществом, где все направлено на производство и потребление товаров, в информационном обществе производятся и потребляются интеллект, знания. Основным видом производимых продуктов является информационный продукт – совокупность данных, сформированная производителем для распространения в вещественной или невещественной форме.

Т.о. возникла необходимость разработки методов измерения информации, организации хранения, доступа (поиска) и обработки, изучения закономерностей движения информации в различных системах и т.д.

Исследования, позволяющие разрешить возникшие проблемы, стали называть информатикой.

4. Информатика. Появление термина и определение Термин «информатика», обозначающий название новой науки, появился и прижился не сразу. В нашей стране в 60-е гг. XX в. вопросы, связанные с разработкой, функционированием и применением автоматизированных систем обработки информации, объединялись термином «кибернетика», хотя это было не вполне верно, поскольку, кибернетика – это наука о законах управления в живой и неживой природе, т.е. сфера ее интересов охватывает лишь часть (хотя обширную и важную) используемых человеком информационных процессов и систем. Более общую научную дисциплину, связанную с исследованием информации, в англоязычных странах стали называть «Computer Science» – «вычислительная наука»;

во Франции же появился термин «Informatique» – «информатика» – он и был позаимствован и с середины 1970-х гг. прочно вошел сначала в научно-технический обиход, а затем стал общеизвестным и общепринятым. Однако предметную область дисциплины информатика установившейся считать нельзя.

Международный конгресс по информатике 1978 г. предложил следующее определение: «Понятие информатики охватывает области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая машины, оборудование, математическое обеспечение, организационные аспекты, а также комплекс промышленного, коммерческого, административного и социального воздействия». Сращивание информатики со средствами телекоммуникаций, как отмечает академик В. М. Глушков, привело к появлению нового термина – телематика, хотя пока он не получил такого же распространения, как информатика. Для нашего рассмотрения вполне приемлемым можно считать определение академиков А. П. Ершова и Б. Н. Наумова:

Информатика – фундаментальная естественная наука, изучающая общие свойства информации, процессы, методы и средства ее обработки (сбор, хранение, преобразование, перемещение, выдача) Отнесение информатики к фундаментальным наукам означает, что она имеет общенаучную значимость, т.е. ее понятия, законы и методы применимы не только в рамках самой науки, но и в иных научных и прикладных дисциплинах.

В информатике выделяются два направления – теоретическое и прикладное. Результатами исследований теоретической информатики являются выявление и формулировка общих законов, касающихся информации и информационных процессов, определение принципов функционирования технических систем, связанных с информационными процессами и обработкой дискретной информации, а также построение методологии создания и использования информационных моделей. Теоретическая информатика включает следующие дисциплины: теория информации, теория алгоритмов, теория кодирования, теория систем и моделей, теория конечных автоматов, вычислительная математика, математическое программирование и целый ряд других.

Прикладная информатика обеспечивает непосредственное создание информационных систем и программного обеспечения для них, а также их применение для решения задач практики. Здесь выделяют:

• разработку более эффективных методов и средств осуществления информационных процессов, • определение способов оптимальной научной коммуникации с широким применением современных технических средств.

Структура современной информатики Сферу интересов информатики традиционно делят на три уровня:

то есть аппаратура 1. Технические средства (Hardware), вычислительной техники.

2. Программные средства (Software) – это совокупность всех программ, используемых компьютерами, а также вся область деятельности по их созданию и применению. Для программных средств выбрано (а точнее, создано) очень удачное слово Software, которое подчёркивает равнозначность программного обеспечения и самой машины и вместе с тем подчёркивает способность программного обеспечения модифицироваться, приспосабливаться, развиваться.

Помимо двух 3. Алгоритмические средства (Brainware).

общепринятых ветвей информатики выделяют ещё одну существенную ветвь – алгоритмические средства. Для неё российский академик А.А. Дородницин предложил название Brainware (от англ. brain – интеллект). Эта ветвь связана с разработкой алгоритмов и изучением методов и приёмов их построения. Алгоритмы это правила, предписывающие – выполнение последовательностей действий, приводящих к решению задачи. Нельзя приступить к программированию, не разработав предварительно алгоритм решения задачи.

По областям знаний Информатику делят следующим образом:

1. ТЕОРЕТИЧЕСКАЯ ИНФОРМАТИКА – часть информатики, включающая ряд математических разделов, опирается на математическую логику.

a. Теория алгоритмов и автоматов b. Теория информации – математическое описание и оценка методов передачи, хранения, извлечения, классификации информации.

c. Теория кодирования d. Теория формальных языков и грамматик e. Исследование операций Теория множеств f.

g. Системный анализ h. Статистическая теория информации 2. ВЫЧИСЛИТЕЛЬНАЯ ТЕХНИКА – раздел, в котором разрабатываются и изучаются общие принципы построения вычислительных систем (не технические детали и электронные схемы, а принципиальные решения).

a. Архитектура вычислительных систем b. Системотехника c. Принципы функционирования d. Телекоммуникации 3. ПРОГРАММИРОВАНИЕ деятельность, связанная с – разработкой программного обеспечения (ПО).

a. Системное программирование:

b. разработка операционных систем;

c. разработка интерфейсных систем;

d. разработка языков программирования (трансляторов).

e. Прикладное программирование:

обработка текстов;

i.

разработка электронных таблиц;

ii.

программирование баз данных;

iii.

разработка специализированного ПО.

iv.

4. ИНФОРМАЦИОННЫЕ СИСТЕМЫ – раздел информатики, связанный с решением вопросов по анализу потоков информации в различных сложных системах: их оптимизация, структурирование, принципы хранения и поиска.

a. Информационно-справочные системы.

b. Информационно-поисковые системы.

c. Автоматизированные системы.

d. Глобальные системы хранения информации.

e. Средства коммуникаций.

5. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ, ИНЖЕНЕРИЯ ЗНАНИЙ – область информатики, в которой решаются проблемы на пересечении с психологией, лингвистикой, физиологией и др.

a. Моделирование рассуждений.

b. Компьютерная лингвистика.

c. Распознавание образов.

d. Машинный перевод.

e. Создание экспертных систем.

Создание интеллектуальных интерфейсных систем.

f.

Лекция Информация. Виды, свойства, 2.

количество, единицы измерения.

1. Классификация информации. Ее характер и виды Классифицируя информацию, отметим ее характер:

1. Входная информация воспринимается из окружающей среды.

2. Выходная информация выдаётся в окружающую среду.

3. Внутренняя информация.

Таким образом, информация - совокупность сведений (данных), воспринимаемых от окружающей среды (входная информация), выдаваемой в окружающую среду (выходная информация), либо сохраняемой внутри некоторой системы (внутренняя информация).

Сигналы, передаваемые по радио и телевидению, а также используемое в магнитной записи имеют форму непрерывных быстро изменяющихся во времени кривых линий. Такие сигналы называются непрерывными или аналоговыми сигналами. В противоположность этому в телеграфии и вычислительной технике сигналы имеют импульсную форму и именуются дискретными сигналами.

Информация может носить непрерывный (аналоговый) или прерывистый (дискретный) характер:

• дискретная форма представления информации это – последовательность значений (какого-либо рода символов), характеризующая прерывистую, изменяющуюся величину;

• аналоговая или непрерывная форма представления информации это величина, характеризующая процесс, не имеющий перерывов или промежутков тела человека, скорость (температура автомобиля на определенном участке пути и т.п.).

Информация может существовать в самых разнообразных формах (деление весьма условное):

• в виде текстов, рисунков, чертежей, фотографий;

• в виде световых или звуковых сигналов;

• в виде радиоволн;

• в виде электрических и нервных импульсов;

• в виде магнитных записей;

• в виде жестов и мимики;

• в виде запахов и вкусовых ощущений;

• в виде хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

представления информации основана на Символьная форма использовании символов - букв, цифр, знаков и т.д., является наиболее простой, практически применяется только для передачи несложных сигналов.

Текстовая форма представления информации более сложная. Здесь так же используются символы: буквы, цифры, математические знаки. Однако информация заложена не только в этих символах, но и в их сочетании, порядке следования. Так, слова КОТ и ТОК имеют одинаковые буквы, но содержат различную информацию. Благодаря взаимосвязи символов и их отображению в речи человека текстовая информация чрезвычайно удобна и широко используется в деятельности человека: книги, брошюры, журналы, различного рода документы, аудиозаписи и т.д.

Графическая форма представления информации - более емкая и сложная.

К этой форме относятся фотографии, схемы, чертежи, рисунки.

2. Свойства информации Переходя к рассмотрению свойств информации необходимо отметить, что информация выступает как свойство объектов и явлений (процессов) порождать многообразие состояний, которые посредством отражения передаются от одного объекта к другому и запечатлеваются в его структуре (возможно, в измененном виде).

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

Информация есть характеристика не сообщения, а отношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, информация сама по себе теряет смысл.

Целевая функция информации характеризуется способностью влиять на процессы управления, на соответствующее целям управления, поведение людей. В этом состоит полезность и ценность информации.

В определенных случаях ценность информации становится отрицательной, полезность сменяется вредностью, а сама информация становится дезинформацией. Источником дезинформации служат субъективные факторы (мнения, взгляды, оценки), а также преднамеренные искажения информации с какой-либо целью. Если эта цель вызвана общественными интересами, то дезинформация может быть полезной (дезинформация в военном деле).

Итак, свойства информации:

1. Достоверность Достоверность информации - свойство информации быть правильно воспринятой и отражать истинное положение дел. Достоверность уменьшается при увеличении количества ошибок в информационной системе. Заданный уровень достоверности информации обеспечивается контролем и исправлением обнаруженных ошибок. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.

Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел.

2. Полнота Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

3. Точность Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

4. Своевременность Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть переработана), так и её задержка.

5. Ценность Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека.

6. Полезность Эффект от использования информации должен быть положительным, т.е.

наличие информации должно облегчать процесс труда.

7. Понятность Информация понятна, если она выражена языком, который известен приемнику информации. Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.

8. Доступность Форма изложения информации должна соответствовать уровню её восприятия. Поэтому одни и те же вопросы по разному излагаются в школьных учебниках и научных изданиях.

9. Краткость Информацию по одному и тому же вопросу можно изложить кратко, сжато, без несущественных деталей (справочник) или пространно (подробно, многословно).

3. Количество информации Важнейшим результатом теории информации является вывод: в определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

Попытки количественного измерения информации:

• Первые отчетливые предложения об общих способах измерения количества информации были сделаны Р. Фишером (1921 г.) в процессе решения вопросов математической статистики.

• Проблемами хранения информации, передачи ее по каналам связи и задачами определения количества информации занимались Р. Хартли (1928 г.) и X. Найквист (1924 г.). Р. Хартли заложил основы теории информации, определив меру количества информации для некоторых задач.

• Наиболее убедительно эти вопросы были разработаны и обобщены американским инженером Клодом Шенноном в 1948 г.

С этого времени началось интенсивное развитие теории информации вообще и углубленное исследование вопроса об измерении ее количества в частности.

Согласно теории информации, количество информации – это:

• мера, характеризующая уменьшение неопределенности, содержащейся в одной случайной величине относительно другой.

• строгая оценка, относительно которой можно развивать единую строгую теорию.

Единицей измерения информации (на цифровом носителе) является один бит (bit — (англ.) binary, digit — двоичная цифра), т.е. двоичный разряд, который может принимать значение 0 или 1.

Эта аббревиатура придумана в 1946 году выдающимся американским ученым-статистиком Джоном Тьюки. Он был советником пяти президентов Соединенных Штатов. В вычислительной технике и сетях передачи данных обычно значения 0 и 1 передаются различными уровнями напряжения либо тока. Например, в микросхемах на основе TTL 0 представляется напряжением в диапазоне от +0 до + 3 В, а 1 в диапазоне от 4,5 до 5,0 В.

В настоящее время бит — это наименьшая возможная единица измерения информации в вычислительной технике, но интенсивные исследования в области квантовых компьютеров предполагают наличие q-битов.

Как правило, команды компьютеров работают не с отдельными битами, а с восемью битами сразу. Восемь последовательных битов составляют байт - (byte от BinarY TErm) более крупная единица информации, применяющаяся на практике, восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера.

Байт – это название было впервые использовано в 1956 году В. Бухгольцем при проектировании первого суперкомпьютера IBM 7030 для пучка одновременно передаваемых в устройствах ввода-вывода битов (шести штук), позже в рамках того же проекта расширили байт до восьми бит.

Ниббл (англ. nibble, nybble), или полубайт - устаревшая и почти не используемая ныне единица измерения информации, равная четырём битам, может принимать 24 различных значений, удобна тем, что представима одной шестнадцатеричной цифрой. Два ниббла составляют байт. По-английски «nibble» означает «покусывать», тогда как «byte» — искажённое «bite», «кусать».

Октет в информатике — 8 бит, синоним байта. Часто употребляется при описании сетевых протоколов. В отличие от байта, который (в широком смысле) может быть равен 10, 12 и т.п. битам, октет всегда равен 8 битам. В французском языке используется чаще, чем байт.

4. Кратные приставки для образования производных единиц измерения информации Кратные приставки для образования производных единиц измерения информации для байта применяются не как обычно: во-первых, уменьшительные приставки не используются совсем, а единицы измерения информации меньшие чем байт называются специальными словами (ниббл и бит);

во-вторых, увеличительные приставки означают за каждую тысячу 1024(= 2 ).

Вообще говоря, происхождение приставок не лишено интереса. Все началось в 1789 году, после Великой Французской революции, с переходом на метрическую систему. Тогда появились первые приставки «кило» (kilo, k, 10 3 ) и «мега» (mega, m, 10 6 ), и их вполне хватало.

B XX веке, после Второй мировой войны, этот ряд приставок был продолжен, и появились две следующие: «гига» (giga, G) и «тера» (tera, T) — соответственно для 10 и 10, то есть миллиард и триллион.

В 1975 году Генеральная конференция мер и весов обогатила мир еще двумя приставками: «пета» (peta, P, 1015 ) и «экза» (exa, E, 10 ), то есть квадриллион и квинтиллион. На этом процесс порождения приставок не остановился.

В последнем издании Британской энциклопедии признаны права гражданства за «зетта» (zetta, Z, 10 21 ) и «йота» (yotta, Y, 10 ), то есть секстиллион и септиллион.

Приставки «кило», «мега», «гига» и «тера» имеют древнегреческое происхождение и соответственно означают «тысяча», «много», «гигант» и «монстр». Но есть и другое мнение, что tera образована от четверки: tetra.

«Пета» (peta) представляет собой своеобразное сокращение греческой пятерки penta с исключением буквы n. Таким же образом была образована «экза» (exa), укороченная на h шестерка hexa.

Названия «зетта» и «йотта» образованы от последней и предпоследней букв латинского алфавита.

Из-за упомянутого расхождения на каждую тысячу 1024= 2 имеется существенная разница в заявленных и фактических измеряемых информационных величинах, которая возрастает с ростом веса приставки Таблица 1.

Ошибочно используемые приставки Сокращение Приставка Подразумеваемое Относительная Как должно быть по СИ значение ошибка, % 10 210 = 1 кило к 2, = 1 10 2 мега М 4, = 1 000 = 1 048 10 2 гига Г 7, = 1 000 000 = 1 073 741 2 тера T 9, = 1 000 000 000 = 1 099 511 627 2 50 = = пета П 12, 1 125 899 906 842 624 1 000 000 000 000 1018 = 2 60 = экза Э 15, 1 152 921 504 606 846 976 1 000 000 000 000 000 10 2 70 = = зетта З 18, 1 180 591 620 717 411 303 424 1 000 000 000 000 000 000 10 2 80 = = йотта Й 20, 1 208 925 819 614 629 174 706 176 1 000 000 000 000 000 000 000 Иногда десятичные приставки используются и в прямом смысле, например при указании ёмкости жёстких дисков: у них гигабайт может обозначать миллион килобайт, т.е. 1 024 000 000 байт, а то и просто миллиард байт, а не 1 073 741 824 байт, как, например, в модулях памяти.

Сложившимся положением пользуются крупные корпорации, производящие жёсткие диски, которые при маркировке своих изделий под мегабайтом понимают 1 000 000 байт, а под гигабайтом — 1 000 000 000 байт.

Самую оригинальную трактовку термина мегабайт используют производители компьютерных дискет, которые понимают под ним 1 024 байта. Таким образом, дискета, на которой указан объём 1,44 Мбайт на самом деле вмещает лишь 1440 Кбайт, то есть 1,41 Мбайт в обычном понимании.

В связи с этим получилось, что мегабайт бывает коротким, средним и длинным:

короткий - 1 000 000 байт средний - 1 024 000 байт длинный - 1 048 576 байт В марте 1999 года Международная электротехническая комиссия ввела новый стандарт по именованию двоичных чисел. Приставки МЭК схожи с СИ:

они начинаются на те же слоги, но второй слог у всех двоичных приставок — би (binary — «двоичный», англ.). Стандарт был утверждён международно, но введённые названия практически не используются, очевидно, из-за их неблагозвучия: Килобит звучит приятнее, нежели кибибит.

Таблица 2. Единицы измерения Измерения в байтах Десятичная приставка Двоичная приставка Название Символ Степень Название Символ Степень килобайт кибибайт 10 kB KiB 2 мегабайт мебибайт 10 MB MiB 2 гигабайт гибибайт 10 GB GiB 2 терабайт тебибайт TB TiB 2 петабайт пебибайт 10 PB PiB 2 экзабайт эксбибайт EB EiB 2 зеттабайт зебибайт 10 ZB ZiB 2 йоттабайт йобибайт 10 YB YiB 2 Внимание: не путать килобайт и килобит:

Килобит (кбит) м., скл.— единица измерения количества двоичной информации.

1 кбит = 10 = 1000 бит или 210 = 1024 битам.

Термин «килобит» чаще всего используют при указании скорости передачи информации. Так, скорость связи по телефонному модему может составлять 56 кбит/с.

5. Примеры использования мега-, тера-, экза- и других величин Пример 1.

Проиллюстрируем на следующем примере, если на странице текста помещается в среднем 2500 знаков, то 1 Мбайт - это примерно 400 страниц, а Гбайт - 400 тыс. страниц.

Пример 2.

Национальный центр атмосферных исследований США (NCAR) собирает и хранит информацию о состоянии атмосферы Земли, океана, и данных землепользования. В январе 2003 г. объемы архива NCAR достигли отметки в один петабайт.

В 1986 г. объём архива NCAR составлял один терабайт, и с тех пор количество данных увеличилось более чем в тысячу раз. Петабайт равняется 1024 терабайтам, что эквивалентно 500 миллиардам страниц формата А4. Этого достаточно, чтобы заполнить 500 миллионов флоппи-дисков и в 100 раз превышает объём информации в Библиотеке Конгресса США.

По данным NCAR, объём климатической информации в 2005 году достиг 11 петабайт в 200 миллионах файлов.

Для достижения первого петабайта понадобились 16 лет, но технический прогресс, предоставляющий учёным всё новые средства познания, ускоряет процесс сбора информации. Для накопления каждого следующего петабайта информации требуется все меньшее время.

Пример 3.

По исследованиям независимой корпорации IDC на данный момент электронная почта по-прежнему остается основным средством коммуникации.

сообщает, что годовой объем мирового почтового трафика впервые превысил экзабайт (1 млрд гигабайт). К сожалению, из этого количества более петабайт оказались спамом, то есть попросту говоря мусором.

Пример 4.

Файловая система FAT16 имеет логический предел в 2 гигабайта.

Файловая система FAT32 может работать с 2 терабайтами данных, а в Windows 2000 можно работать с 4 терабайтами. Предел файловой системы NTFS находится на уровне 15 экзабайт.

С трудом верится в то, что когда-то винчестеры персоналок станут "двухзеттовыми". Хотя, с другой стороны, еще несколько лет назад жесткий диск объемом в 800 мегабайт считался роскошью.

Пример 5.

По данным компьютерного обозрения (июль 2006 г.) уже сейчас вполне достаточно информации, исчисляемой терабайтами, и со временем количество ее будет расти в геометрической прогрессии. Например, даже такой незначительный пока сервис, как передача контента по оптическим сетям, уже составляет порядка 10 3 терабайт. Если же говорить о недалеком будущем, то, может быть, и йоттабайта ( 10 24 ) окажется не так уж и много. Патрик Гелсингер (старший вице-президент корпорации Intel) даже предложил назвать величину двадцать седьмого порядка ( 10 ) по имени Крейга Баррета — баррабайт.

(Крейг Баррет — исполнительный директор Intel).

Тема 2. Развитие и основы функционирования вычислительной техники Лекция 3. История развития вычислительной техники Слово "компьютер" означает "вычислитель". Первые компьютеры создавались как устройства для вычислений. Скоро оказалось, что они могут обрабатывать и другие виды информации, которые могут быть представлены в числовой форме. Поэтому история развития компьютеров это прежде всего история развития вычислительной техники. Первыми приспособлениями для вычислений были, вероятно, всем известные счётные палочки, которые и сегодня используются в начальных классах многих школ для обучения счёту.

Развиваясь, эти приспособления становились более сложными, например, такими как финикийские глиняные фигурки, также предназначаемые для наглядного представления количества считаемых предметов, однако для удобства, помещаемые при этом в специальные контейнеры. Такими приспособлениями, похоже, пользовались торговцы и счетоводы того времени.

Постепенно из простейших приспособлений для счёта рождались всё более и более сложные устройства: абак (счёты), логарифмическая линейка, механический арифмометр, электронный компьютер. Несмотря на простоту ранних вычислительных устройств, опытный счетовод может получить результат при помощи простых счёт даже быстрее, чем нерасторопный владелец современного калькулятора. Естественно, сама по себе, производительность и скорость счёта современных вычислительных устройств давно уже превосходят возможности самого выдающегося расчётчика человека.

1. Первые счетные машины Первая "считающая машина" была создана в 1623 году Уильямом Шикардом. Это был довольно громоздкий аппарат, который мог производить простые арифметические действия (сложение, вычитание) с 7-значными цифрами.

По-настоящему популярная считающая машина была создана в 1644 году Блеза Паскаля колесо), производившая – "вычислитель" (Паскалево арифметические действия над 5-значными числами. Восемнадцатилетний Блез Паскаль создал вычислительное устройство, чтобы помочь отцу в выполнении громоздких вычислений при расчетах налоговых сборов. Паскаль создал несколько машин. Восемь таких машин сохранились в музеях мира до настоящего времени. Машины не нашли широкого применения, так как они для налоговиков и бухгалтеров были достаточно сложны, а совокупные затраты на приобретение, изучение и использование для расчетов существенно превышали традиционные. Но, несмотря на это, роль этого изобретения для дальнейшего развития вычислительных устройств была значительной.

В 1674 году Вильгельм Готфрид фон Лейбниц сконструировал механическую счетную машину, которая умела производить четыре арифметических операции: сложение, вычитание, умножения и деление.

Называлась она арифмометром.

В 1820 году появился первый калькулятор – "Арифмометр" Шарля де Кольмара. Это было первое механическое считающее устройство, поступившее в широкую продажу.

В первой половине XIX в. английский математик Чарльз Бэббидж создал счетную арифметическую машину, которая могла работать без участия человека, т.е. автоматически. Она производила сложные последовательности вычислительных операций по заранее заданной инструкции – программе.

Именно Ч. Бэббидж впервые высказал идею о том, что компьютер для хранения данных должен содержать память. Однако реализовать он ее не смог — не позволяла техника того времени. Тем не менее, своими работами ученый заложил теоретические основы компьютерной техники, а также и некоторые принципы программирования. Первым программистом мира стала графиня Ада Лавлейс, дочь поэта Дж. Байрона (в честь которой назван знаменитый язык программирования Ada). Она в 1843 году сформулировала основные принципы программирования, которые используются и в настоящее время.

В конце XIX века инженер Герман Холлерит создал систему машин для обработки статистических данных – перфоратор, контроллер, сортировщик и табулятор. В основе этой системы была обработка перфокарт, изобретенная Жаккаром и идея разностной машины Бэббиджа. В 1886 году система машин Холлерита была использована при переписи населения в США и сократила время обработки результатов почти в 4 раза. В том же году Холлерит создал компанию для серийного производства системы машин. В скором времени машины Холлерита стали применяться в Европе, в том числе в России. Их использовали для сельскохозяйственной переписи, железнодорожной статистики, для начисления заработной платы и учета материалов в крупных компаниях. Производство машин стало выгодным. Поэтому вскоре появились другие конкурирующие компании, выпускающие машины Холлерита. В году Холлерит продал свою компанию конкурентам, которые вскоре объединились в единую корпорацию с названием Inernational Business Machines – IBM.

Современные компьютеры появились в первой половине ХХ века почти одновременно в России, Германии, США.

В 40-ых годах XX в. сразу несколько групп исследователей повторили попытку создания компьютера, используя идеи Чарльза Бэббиджа. Некоторые из этих исследователей ничего не знали о работах Бэббиджа и переоткрыли его идеи заново. Первым из них был немецкий инженер Конрад Цузе, который в г. построил небольшой компьютер на основе нескольких электромеханических реле. Машина изобретенная Цузе носит название Z1. Это был двоичный механический вычислитель с электрическим приводом и ограниченной возможностью программирования. Вводились и выводились данные в десятичной системе, в виде чисел с плавающей запятой. Ввод команд и данных осуществлялся при помощи клавиатуры, сделанной на основе пишущей машинки, а вывод, — с помощью маленькой лампочной панели.

Память вычислителя организовывалась при помощи конденсатора чередующего слои стекла и металлические пластины. Такая конструкция позволяла хранить 64 22-битовых вещественных числа, каждое из которых состояло из 14-битовой мантиссы и 8 бит, отводившихся под знак и порядок.

Это уникальное решение было запатентовано Конрадом Цузе в 1936 году.

Тактовая частота составляла 1 Гц, быстродействие — в среднем 1 умножение за 5 сек. Машина была снабжена устройством чтения перфокарт и приводилась в движение мотором мощностью в 1 киловатт. Но из-за войны работы Цузе не были опубликованы.

А в США в 1943 г. на одном из предприятий фирмы IBM (International Business Machines) американец Говард Эйкен создал более мощный компьютер под названием "ASCC Mark 1" – машину, считающуюся дедушкой современных компьютеров. "Марк" весил более 7 т. и состоял из 750000 частей.

Машина позволяла проводить вычисления в сотни раз быстрее, чем с помощью арифмометров, и реально применялась в военных целях – для расчета артиллерийских таблиц.

2. Поколения ЭВМ Дальнейшее развитие вычислительных машин носило уже не единичный, а лавинообразный характер. В связи с этим было предложено эволюции компьютеров разбить на поколения.

Поколение ЭВМ период развития вычислительной техники, – отмеченный относительной стабильностью архитектуры и технических решений Первоначальный принцип деления на поколения был предложен в зависимости от использования физических элементов, технологий изготовления (физико-технологический принцип).

Таким образом, смена поколений обычно связана с переходом на новую элементную базу, что приводит к скачку в росте основных характеристик ЭВМ.

Современные принципы деления (в дополнение к первоначальному) включает также • уровень программного обеспечения, • быстродействие, • емкость устройств, • разрядность устройств, • элементная база, • средства и принципы связи и др.

В настоящее время выделяют пять поколений ЭВМ. Некоторые авторы выделяют развитие вычислительной техники докомпьютерной эпохи ( в современном понимании слова «компьютер») выносят в так называемое нулевое поколение. Кратко перечислим, что же сформировало нулевое поколение.

3. Нулевое поколение 87 год до н.э.— в Греции был изготовлен «антикитерский механизм» — механическое устройство на базе зубчатых передач, представляющее собой специализированный астрономический вычислитель.

1492 год — Леонардо да Винчи в одном из своих дневников приводит эскиз 13-разрядного суммирующего устройства с десятизубцовыми кольцами.

Хотя работающее устройство на базе этих чертежей было построено только в XX веке, всё же реальность проекта Леонардо да Винчи подтвердилась.

1623 год — Вильгельм Шиккард, профессор университета Тюбингена, разрабатывает устройство на основе зубчатых колес («считающие часы») для сложения и вычитания шестиразрядных десятичных чисел. Было ли устройство реализовано при жизни изобретателя, достоверно не известно, но в 1960 году оно было воссоздано и проявило себя вполне работоспособным.

1630 год — Ричард Деламейн создаёт круговую логарифмическую линейку.

1642 год — Блез Паскаль представляет «Паскалин» — первое реально осуществлённое и получившее известность механическое цифровое вычислительное устройство. Прототип устройства суммировал и вычитал пятиразрядные десятичные числа. Паскаль изготовил более десяти таких вычислителей, причём последние модели оперировали числами с восемью десятичными разрядами.

1673 год — известный немецкий философ и математик Готфрид Вильгельм Лейбниц построил механический калькулятор, который при помощи двоичной системы счисления выполнял умножение, деление, сложение и вычитание.

Примерно в это же время Исаак Ньютон закладывает основы математического анализа.

1723 год — немецкий математик и астроном Христиан Людвиг Герстен на основе работ Лейбница создал арифметическую машину. Машина высчитывала частное и число последовательных операций сложения при умножении чисел. Кроме того, в ней была предусмотрена возможность контроля за правильностью ввода данных.

1786 год — немецкий военный инженер Иоганн Мюллер выдвигает идею машины» — специализированного калькулятора для «разностной табулирования логарифмов, вычисляемых разностным методом. Калькулятор, построенный на ступенчатых валиках Лейбница, получился достаточно небольшим (13 см в высоту и 30 см в диаметре), но при этом мог выполнять все четыре арифметических действия над 14-разрядными числами.

1801 год — Жозеф Мари Жаккар строит ткацкий станок с программным управлением, программа работы которого задается с помощью комплекта перфокарт.

1820 год — первый промышленный выпуск арифмометров. Первенство принадлежит французу Тома де Кальмару.

1822 год — английский математик Чарльз Бэббидж изобрёл, но не смог построить, первую разностную машину (специализированный арифмометр для автоматического построения математических таблиц) (см.: Разностная машина Чарльза Бэббиджа).

1855 год — братья Георг и Эдвард Шутц (англ. George & Edvard Scheutz) из Стокгольма построили первую разностную машину на основе работ Чарльза Бэббиджа.

1876 год — русским математиком П.Л.Чебышевым создан суммирующий аппарат с непрерывной передачей десятков. В 1881 он же сконструировал к нему приставку для умножения и деления (Арифмометр Чебышева).

1884—1887 годы — Холлерит разработал электрическую табулирующую систему, которая использовалась в переписях населения США 1890 и годов и России в 1897 году.

1912 год — создана машина для интегрирования обыкновенных дифференциальных уравнений по проекту российского ученого А.Н.Крылова.

1927 год — в Массачусетском технологическом институте (MIT) был изобретён аналоговый компьютер.

1938 год — немецкий инженер Конрад Цузе вскоре после окончания в 1935 году Берлинского политехнического института построил свою первую машину, названную Z1. (В качестве его соавтора упоминается также Гельмут Шрейер Это полностью механическая (нем. Helmut Schreyer)).

программируемая цифровая машина. Модель была пробной и в практической работе не использовалась. Её восстановленная версия хранится в Немецком техническом музее в Берлине. В том же году Цузе приступил к созданию машины Z2 (Сначала эти компьютеры назывались V1 и V2. По-немецки это звучит «Фау1» и «Фау2» и чтобы их не путали с ракетами, компьютеры переименовали в Z1 и Z2).

1941 год — Конрад Цузе создаёт первую вычислительную машину Z3, обладающую всеми свойствами современного компьютера.

4. Компьютеры первого поколения (1945-1960) Начиная с 40-х годов 20 века выделяют несколько важных достижений, которые могут считаться предтечей первого поколения компьютеров.

1942 год — в Университете штата Айова (англ. Iowa State University) Джон Атанасов (англ. John Atanasoff) и его аспирант Клиффорд Берри (англ.

Clifford Berry) создали (а точнее — разработали и начали монтировать) первый в США электронный цифровой компьютер (англ. Atanasoff-Berry Computer — ABC (компьютер)). Хотя эта машина так и не была завершена (Атанасов ушёл в действующую армию), она, оказала большое влияние на Джона Мочли, создавшего двумя годами позже ЭВМ ЭНИАК.

В начале 1943 года успешные испытания прошла первая американская вычислительная машина Марк I, предназначенная для сложных баллистических расчётов ВМФ США.

В конце 1943 года заработала английская вычислительная машина специального назначения Колосс. Машина работала над расшифровкой секретных кодов фашистской Германии. Разработчик Алан Тьюринг (математик, основоположник теории алгоритмов, Великобритания).

В 1944 году Конрад Цузе разработал ещё более быстрый компьютер Z4, а также первый языка программирования высокого уровня Планкалкюль.

1946 год стал годом создания первой универсальной электронной цифровой вычислительной машины ЭНИАК.

1949 год появилась первая ЭВМ с хранимой программой. Построена под руководством Джона фон Неймана – основоположника принципов архитектуры ЭВМ.

В Советском Союзе первая электронная вычислительная машина была создана в Киеве группой Лебедева в 1950 году.

В 1958 году Н.П. Брусенцов с группой единомышленников построили первую троичную ЭВМ с позиционной симметричной троичной системой счисления «Сетунь».

Итак, немного подробнее об основных вехах этого поколения. Начиная с 1943 г. в США группа специалистов под руководством Джона Мочли и Преспера Экерта начала конструирование компьютеров ENIAC на основе электронных ламп. Созданный ими компьютер работал в тысячу раз быстрее, чем Марк-1. Однако большую часть времени этот компьютер простаивал, т.к.

для задания метода расчетов (программы) в нем приходилось в течение нескольких часов или даже нескольких дней присоединять нужным образом провода. Чтобы упростить и ускорить процесс задания программы, Мочли и Экерт стали конструировать новый компьютер, который мог хранить программу в своей памяти. В 1945 г. к работе был привлечен знаменитый математик Джон фон Нейман. Он описал, как должен быть устроен компьютер, чтобы он был универсальным и эффективным устройством для обработки информации. Эти основные конструкции компьютера называют принципами фон Неймана. Сейчас большинство компьютеров в основных чертах соответствуют принципам фон Неймана. Прежде всего, компьютер должен иметь следующие устройства:

арифметико-логическое устройство, выполняющее арифметические и логические операции;

устройство управления, которое организует процесс выполнения программ;

запоминающее устройство, или память для хранения программ и данных. Память компьютера должна состоять из некоторого количества пронумерованных ячеек, в каждой из которых могут находиться или обрабатываемые данные, или инструкции программ.

внешние устройства для ввода-вывода информации.

Следует заметить, что схема устройства современных компьютеров несколько отличается от приведенного выше. В частности, арифметико логическое устройство и устройство управления, как правило, объединены в единое устройство – центральный процессор. Процесс выполнения программ может прерываться для выполнения неотложных действий, связанных с поступившими сигналами от внешних устройств компьютера – прерываний.

Многие быстродействующие компьютеры осуществляют параллельную обработку данных на нескольких процессорах.

Первые коммерчески доступные компьютеры появились в начале 50-х годов прошлого века (до этого вычислительные устройства имели скорее научное, нежели прикладное значение). Это были ЭВМ первого поколения, сконструированные на электронных лампах. Компьютеры были громоздки и занимали целые комнаты, в одной машине могли быть сотни и даже тысячи ламп, но они уже могли хранить программы и использовали трансляторы.

Первыми такими компьютерами стали:

UNIVAC 1 – одна из первых машин в мире, была выпущена в 1946 году а США. Весила эта машина 30 тонн;

«БЭСМ» (СССР, 1951 год) – самая быстродействующая машина в мире. Эта ЭВМ была создана под руководством профессора С.А.Лебедева.

Эти машины были ориентированы на решение сложных задач науки и техники, проведение инженерно-технических расчетов. Новые свойства:

программное управление, машинный язык.

Что касается промышленного использования компьютеров, то начало ему положили компании Remington Rand и IBM. Ставшая впоследствии гигантом компьютерной индустрии компания IBM выпустила в 1952-54 годах целую серию электронных цифровых компьютеров IBM 701 и периферийных устройств. Первая из таких машин поехала в штаб-квартиру IBM в Нью-Йорке в конце 1952-го. Уже в 1954 году 17 устройств были поставлены главному заказчику — американскому правительству: три из них попали в атомные лаборатории, восемь — в авиакомпании, три — в крупные корпорации, две — в правительственные агентства и две — на флот, а последняя машина оказалась в американском бюро погоды в начале 1955 года. При этом главным достижением компании IBM в те годы было оснащение своих компьютеров разнообразными периферийными устройствами. Так, например, уже в году появился первый коммерческий дисковод с перемещением головок для чтения/записи - IBM 305, ставший впоследствии прообразом современных жестких дисков.

До середины годов программирование осуществлялось 50-х преимущественно на специализированных языках и ассемблере, и поэтому было доступно лишь узкому кругу специалистов. Но 1954 году появился первый универсальный алгоритмический язык FORTRAN, представивший программирование более отвлеченно, не привязывая язык к машинным кодам.

Он задал точку отсчета в эволюции универсальных языков программирования и сделал само программирование значительно более доступным.

К этому же периоду относится появление первых успешно продаваемых цифровых игровых устройств: созданная в 1956 году приставка Geniac стала прототипом игровых компьютеров и приставок. А чуть позже, в 1957-м, компания NCR выпустила первый специализированный бизнес-компьютер NCR 304.

Однако еще долгое время как сами компьютеры, так и системы ввода вывода информации оставались весьма неудобными. И хотя уже в 1955 году делались первые попытки использования мониторов с электронно-лучевой трубкой, но первое надежное коммерческое использование их для компьютерного дисплея (VDT) относится лишь к 1963 году, когда у первого мини-компьютера PDP-1 компании DEC впервые появился дисплей. Но это уже были компьютеры следующего поколения.

5. ЭВМ второго поколения (1960-1965 годы) В 40-50-ых годах компьютеры создавались на основе электронных ламп, поэтому они были очень большими, дорогими и ненадежными. Но в 1948 г.

были изобретены транзисторы – миниатюрные и недорогие электронные приборы, которые смогли заменить электронные лампы. Это привело к уменьшению размеров компьютеров в сотни раз и повышению их надежности, появилось много алгоритмических языков (как универсальных, так и специализированных), начались серьезные исследования в области искусственного интеллекта, а сферы применения компьютеров существенно расширились. Первые компьютеры на основе транзисторов появились в конце 50-ых годов.

В 1960 году Френк Розенблат, работавший в Корнелльской лаборатории аэронавтики, создал первую систему распознавания изображений — перцептрон «Марк-1», а Джозеф Уайзенбаум из компании «Дженерал Электрик» разработал программу «Элиза», которая поддерживала текстовый диалог с собеседником на любую заложенную в нее тему.

К этому же периоду следует отнести и зарождение интерактивной компьютерной графики, определившей, например, применение компьютеров в области автоматизированного проектирования и управления производством.

Так, в 1963 году Айвен Сазерленд разработал программу Sketchpad (блокнот), которую можно считать первым коммерческим проектом в области интерактивной компьютерной графики. В 1964 году Дугласом Энгельбартом было изобретено первое ручное устройство ввода — манипулятор «мышь», а в 1965 году компания IBM выпустила первый коммерческий графический терминал IBM 2250, созданный специально для конструкторов автомобильной промышленности.

В 1967 году в СССР была создана самая быстродействующая ЭВМ – «БЭСМ-6», которая могла выполнять 1 млн.оп./с. Фирма IBM достигла таких показателей практически десятилетие спустя.

6. Компьютеры третьего поколения (1966-1975) В компьютерах третьего поколения уже использовались интегральные микросхемы, что привело к радикальному уменьшению габаритов, а развитие сетевых технологий и реализация доступа с удаленных терминалов сделали компьютеры еще более доступными.

В 1959 г. Роберт Нойс (будущий основатель фирмы Intel) изобрел способ, позволяющий создавать на одной пластине кремния транзисторы и все необходимые соединения между ними. Полученные электронные схемы стали называться интегральными схемами, или чипами. Микросхема - это небольшая пластинка, которая заменяет 2-3 транзистора. В 1968г. фирма Burroughs выпустила первый компьютер на интегральных схемах.

Продолжились исследования и в области искусственного интеллекта. В 1962 году созданная Артуром Сэмюэлем программа по игре в шашки, смогла потягаться с чемпионом-человеком.

В начале 60-х был изобретен модем, который в 1967-м был существенно усовершенствован Джоном Ван Гином из Станфордского научно исследовательского института, а в под руководством уже 1970-м упоминавшегося изобретателя мыши Энгельбарта была отмечена первая крупномасштабная реализация электронной почты. Там же был создан первый многооконный интерфейс пользователя, а в 1969-м Алан Кей в лаборатории компании Xerox в Пало-Альто разработал первый графический интерфейс.

Параллельно развивалась компьютерная графика. В 1968 году на космическом аппарате «Маринер-6» была установлена первая система растрового сканирования, данные с которой передавались на Землю, обрабатывались компьютером IBM и выводились на экран графического монитора.

7. Компьютеры четвертого поколения (1970-1985) Начало ознаменовалось поистине революционными 70-х преобразованиями в элементной базе компьютеров: в 1971 году по заказу производителя калькуляторов компании Busicom программист корпорации Intel Маршиан Эдвард Хофф разработал первый коммерчески доступный микропроцессор открывший эру микропроцессоров и Intel 4004, микрокомпьютеров. Так, в начале 70-х появились компьютеры четвертого поколения, созданные на базе микропроцессоров, и, что особенно важно, процесс их производства удалось настолько удешевить, что сами компьютеры стали доступны рядовым пользователям, то есть стали персональными. И началось их массовое производство. Появление первого цифрового микрокомпьютера MITS 816, доступного для персонального использования, относят к 1972 году, но первый полнофункциональный персональный компьютер Alto, укомплектованный монитором (мышью, появился годом позже, в уже упомянутой лаборатории компании Xerox в Пало-Альто. А еще одним годом позже, в марте 1974-го, в журнале QST была опубликована первая реклама персонального компьютера в прессе.

Однако первые персональные компьютеры больше напоминали детские конструкторы — как первый выставленный на продажу знаменитый комплект для сборки персонального компьютера Mark-8. И только в 1975 году в продажу поступил первый персональный компьютер массового производства Altair 8800, который имел все необходимое и даже был оснащен интерпретатором с алгоритмического языка BASIC. Как известно, этот интерпретатор написали Билл Гейтс и Поль Ален, так что 5 сентября 1975 года с тех пор считается официальным днем рождения компании Microsoft.

Первый персональный компьютер IBM (IBM Portable Computer) появился тогда же, но был очень дорогим и неудобным в использовании, поэтому широкого распространения не получил. Это был портативный компьютер с ленточным устройством ввода-вывода и крошечным дисплеем. А вот первым полнофункциональным и в высшей степени успешно продаваемым персональным компьютером стал Apple II, созданный Стивом Джобсом и Стивом Возняком годом позже. Его разработка производилась в гараже двух друзей-изобретателей с 1974-го по 1976 год, но затем была выполнена на коммерческой основе, став чрезвычайно популярной после выпуска. Именно этот компьютер положил начало тенденции всеобщей компьютеризации и сделал возможным применение компьютеров буквально во всех областях человеческой деятельности.

Первый успешно продаваемый персональный компьютер IBM PC появился лишь пятью годами позже — в 1981-м, но именно компания IBM революционизировала компьютерную индустрию показав «персоналок», пример расширяемой архитектуры, называемой также «открытой», которая обеспечила пользователям возможность добавлять все новые и новые компоненты к их компьютерам без замены целого устройства.

Именно благодаря возможной расширяемости и открытости архитектуры сторонние изготовители быстро наладили производство различной периферии (в том числе и жестких дисков), которая добавила IBM PC новые возможности.

А появление текстовых процессоров и электронных таблиц заложило основу для офисного и домашнего использования компьютера.

Компьютеры этой серии стали настолько популярны, что многие изготовители начали копировать проект IBM, ставший промышленным стандартом, а с выпуском нового компьютера IBM XT произошел настоящий взрыв в индустрии персональных компьютеров.

К 1981 году относится и появление первых успешно продаваемых переносных микрокомпьютеров с экраном, дисководами и сумкой для переноса (то есть прообразов современных ноутбуков). Первым был Osborne корпорации Osborne Computer Соrр, а за ним последовала модель IBM (Personal Portable Computer).

В мире наблюдался все больший интерес к задачам искусственного интеллекта. В 1974 году состоялся международный шахматный турнир машин, снабженных соответствующими программами. Как известно, победу на этом турнире одержала советская машина с шахматной программой «Каисса».

Начиная с 1976 года ученые вели работы по созданию протокола TCP/IP, который со временем стал одним из наиболее популярных протоколов сетевого взаимодействия и стандартом де факто для реализации глобальных сетевых соединений благодаря открытости, масштабируемости и предоставлению одинаковых возможностей глобальным и локальным сетям. К концу 70-х годов архитектура и протоколы TCP/IP практически приобрели современный вид.

В те же годы появились первые суперкомпьютеры семейства CRAY, которые привлекли внимание многочисленных американских исследователей, стремившихся получить удаленный доступ к мощным вычислительным ресурсам этих компьютеров. Таким образом, на повестке дня встал вопрос о необходимости организации сетевого доступа к суперкомпьютерным центрам, положивший начало бурному развитию локальных и глобальных сетей.

При этом персональные компьютеры инициировали и взрывное развитие коммуникаций, и появление настольных устройств с потенциальной возможностью коммуникаций при помощи модемного подключения дало мощный толчок развитию сетевых технологий и модемной связи.

Наряду с созданием дешевых ПК в это время совершенствовались мощные многопроцессорные системы и продолжала развиваться компьютерная графика (в созданном в 1977 году кинофильме Джорджа Лукаса «Звездные войны» было использовано 90 секунд компьютерной графики).

В 1976 году начались разработки по реализации цветной растровой графики, появились первые интегрированные текстово-графические дисплеи.

Продолжались работы в области искусственного интеллекта. В 1976 году группа из Иллинойского университета создала экспертную систему (программа AQ11 могла ставить диагноз на основе распознавания признаков болезни).

8. Компьютеры пятого поколения (1985 — и по сей день) Компьютеры нынешнего поколения отличаются от предыдущих главным образом широкими коммуникационными возможностями и повышением степени интеграции полупроводниковой элементной базы (сверхвысокая интеграция). В 1986 году магистральная сеть NSFNET объединила пять суперкомпьютерных центров, открыв широкому кругу исследователей доступ к мощным вычислительным ресурсам. Прежде, из-за бюрократических проблем, эта задача не могла быть решена, что и привело к появлению NSFNET. Большое число университетов и исследовательских центров, в том числе за пределами США, выразили желание подключиться к этой сети. Для сокращения платы за использование междугородних линий связи было решено развивать систему региональных сетей, объединяющих компьютеры внутри какого-то региона и имеющих выходы на подобные сети в соседних областях. При такой конфигурации все компьютеры являются равноправными и имеют связь по цепочке через соседние компьютеры как друг с другом, так и с суперкомпьютерами. Таким образом, начиная с 1986 года можно говорить о становлении Глобальной компьютерной сети Интернет.

С середины 80-х начало значительно расти количество программ для домашнего применения. Появились различного рода развивающие и обучающие программы, а сеть Интернет, перекинувшись из США в Европу, начала быстро распространяться по всему миру. В 1988 Интернет стал международной сетью — к нему присоединились Канада, Дания, Финляндия, Франция, Норвегия, Швеция и т.д. Появились новые службы Глобальной сети.

К началу 90-х сеть Интернет объединяла уже сотни отдельных сетей в США и Европе. К Интернету помимо научных институтов стали подключаться различные компании нефтяной, автомобильной и электронной индустрии, а также телефонные компании.

В 1990 году была разработана система Интернет-чата IRC (Internet а в середине стали доступными настольные RelayChat), 90-х видеоконференции.

В том же году был разработан язык HTML, давший начало развитию WWW. В 1991 году Брюстер Кале предложил технологию и программное обеспечение для поиска информации в Интернете WAIS — Wide Area Information Servers (до 1994 года был наиболее мощным инструментом поиска благодаря возможности находить слова в текстах документов). В этом же году Пауль Линднер и Марк Мак-Кахил разработали поисковую систему Gopher, а в 1992 году появился графический браузер Mosaic от компании NCSA, который вдохнул новую жизнь в WWW, обеспечив стремительный рост популярности Интернета. В апреле 1994 года была образована корпорация Mosaic Communications, изменившая в ноябре того же года свое название на Netscape Communications, Inc. В том же году эта компания выпустила версию популярного Web-браузера Netscape Navigator (в нем, в частности, появился механизм cookies, позволяющий отслеживать действия клиентов в Интернете).

За пять лет, с 1994-го по декабрь 1999 года, появилось примерно 10 млн. сайтов и сотни тысяч людей освоили новую специальность — Web-дизайнер.

Тем временем компьютеры постепенно становились все более компактными, а на рынке появились карманные варианты — PDA (Personal Digital Assistant).

Начиная с 1994 года, в Интернете стали появляться торговые центры;

для бизнеса открылся первый виртуальный кибербанк. Однако это не мешало развитию изначальных функций Сети, направленных на осуществление связей между научными центрами. Так, в 1994 году была создана Трансевропейская научно-исследовательская и образовательная ассоциация TERENA, образованная представителями 38 стран для «участия в распространении и получении высококачественной международной информации и развития телекоммуникационной инфраструктуры в целях развития науки и образования».

В середине 90-х Интернет и бизнес в Сети попадают в центр внимания всей компьютерной индустрии, а регистрация доменных имен перестает быть бесплатной процедурой. Сеть стала использоваться в секторе финансовых услуг в качестве средства связи для быстрого приема большого количества заказов.

Возникли системы электронной торговли с возможностью фактически прямого доступа к участию в торгах. Параллельно развивался Интернет-банкинг. В году появился первый полностью сетевой банк, осуществляющий всю полноту сервиса в Сети, — First Internet Bank of Indiana. С помощью этих систем клиент, не покидая дома, офиса или любого другого места, мог распоряжаться своими средствами, находящимися в банке. В Интернете стали возникать различные платежные системы. Началось все с обычных карточных моделей, а со временем появились и различные системы электронных денег.

Мультимедийные компьютеры стали стандартом де факто, а искусственный интеллект достиг такого уровня развития, что компьютер IBM Deep Blue обыграл чемпиона мира по шахматам Гарри Каспарова.

С 1999 года в ряде стран появляются так называемые Интернет-дома — пилотные проекты, в которых всеми электронными устройствами можно управлять дистанционно из любой точки в мире, где есть доступ в Интернет.

Параллельно с развитием Интернета в конце столетия шло развитие суперкомпьютерной техники, позволяющей решить глобальные задачи. Так, например, в 2000 году была решена «задача века» — расшифрован геном человек.

9. Перспективы развития ЭВМ Современное развитие вычислительной техники достигло такого уровня развития, что можно отметить следующие явления:

• микро- и нано-электроника находятся на пределе физических законов;

• используется предельно высокая плотность компонентов в ЧИПах;

• достигнуты предельно высокие скорости работы.

В настоящее время выделяют два пути совершенствования ЭВМ:

На физическом уровне:

переход на новые физические принципы:

оптоэлектроника (построение процессора и памяти на основе оптических свойств материала), криоэлектроника сверхпроводимости (использование материалов при низкой температуре).

На интеллектуальном уровне:

принципиально новые подходы к программированию (системы искусственного интеллекта, базы знаний, экспертные системы).

Тенденции развития на современном этапе так или иначе связывают с развитием сетевых технологий, а именно:

• совершенствование сетей ЭВМ;

• сетевые технологии обработки информации;

• сетевые структуры интегрируют в себя персональные компьютеры.

Лекция 4. АРХИТЕКТУРА ЭВМ 1. Понятие архитектуры это концептуальная структура Архитектура компьютера– вычислительной машины, определяющая проведение обработки информации и включающая методы преобразования информации в данные и принципы взаимодействия технических средств и программного обеспечения.

Таким образом, с точки зрения архитектуры важны не все сведения о построении ЭВМ, а только те, которые могут использоваться при программировании и пользовательской работе, более детальным рассмотрением физической реализации занимаются другие науки, например, электроника, микропроцессорная техника, нанотехнология, оптика и проч.

Архитектура ЭВМ:

• структура памяти и ее адресация;

• способы доступа к памяти и внешним устройствам;

• возможность изменения конфигурации компьютера;

• система команд;

• форматы данных;

• организация интерфейса;

• принципы работы процессора при управлении информационными потоками.

Выделяют несколько основных типов архитектуры, наиболее значимыми являются классическая архитектура и шинная архитектура.

2. Классическая архитектура (архитектура Неймана) Автором этой архитектуры является Джон фон Нейман – основатель учения об архитектуре вычислительных машин.

Он сформулировал принципы работы ЭВМ (1945 г.):

1. Принцип программного управления.

Программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности. Процессор исполняет программу автоматически, без вмешательства человека.



Pages:   || 2 |
 




 
2013 www.netess.ru - «Бесплатная библиотека авторефератов кандидатских и докторских диссертаций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.