Введение в информатику. Базовые понятия и определения информатики

Автор работы: Пользователь скрыл имя, 25 Декабря 2011 в 15:07, курс лекций

Краткое описание

Инфоpматика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.

Вложенные файлы: 1 файл

Тема 1. Введение в информатику. Базовые понятия и определения информатики.doc

— 613.00 Кб (Скачать файл)
ustify">Под информацией в  информатике  будем  понимать сведения, отражающие свойства и состояния объектов, явлений и процессов в природе, обществе, технических системах, которые уменьшают степень неопределенности и неполноту знаний о них.

     Разные  науки по-разному классифицируют виды информации. Например, в философии различают информацию объективную и субъективную. Объективная информация отражает явления, происходящие в природе и обществе. Субъективная информация создается в воображении человека, как результат  видения им окружающего мира.

 

    Люди  обмениваются информацией в форме  сообщений. Сообщение — это форма представления информации в виде речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п.

    Одно  и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

    Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

Информация  есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.

    В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке  данных под информацией  понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

1.4. В каком виде существует информация?

    Информация  может существовать в виде:

  • текстов, рисунков, чертежей, фотографий;
  • световых или звуковых сигналов;
  • радиоволн;
  • электрических и нервных импульсов;
  • магнитных записей;
  • жестов и мимики;
  • запахов и вкусовых ощущений;
  • хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

    Предметы, процессы, явления материального  или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

     Представление информации в живой природе и  технике осуществляется в различных формах. Одной из форм представления и обмена информацией являются  языки. Языки разделяются на естественные и формальные языки.

     Люди  используют естественные языки, например, белорусский, русский, английский и т.д. В основе естественных языков лежит алфавит, который состоит из определенного набора знаков. Таким образов язык является знаковой системой. В каждом языке существуют правила для работы с ним. В устной речи на естественном языке элементами информации являются слова. В письменном представлении языка на буквенной основе знаком является буква, а в таких языках, как китайский или японский  - иероглиф.

     Кроме естественных языков человек для  представления информации использует формальные языки: азбука Морзе, языки  программирования,  языки представления химических, математических формул, язык музыки (нотная грамота) и др.

     Формальные  языки - это языки, придуманные и разработанные человеком для определенных целей. В отличие от естественных языков формальные языки состоят из специальных знаков и записываются с помощью строгих правил синтаксиса и грамматики.

     Большинство живых организмов воспринимают внешние  воздействия с помощью нервных  окончаний – рецепторов. Рецепторы  передают эти воздействия специальным  клеткам нейронам, составляющим нервную  систему. Нейроны находятся в одном из двух состояний: возбужденном или невозбужденном. Различные состояния нейронов сравнивают со своеобразным алфавитом.

     Строение  и развитие живых организмов определяет генетическая информация, которая передается по наследству. Эта информация хранится в структуре специальных молекул ДНК - дезоксирибонуклеиновая кислота.

     Молекула  ДНК (рис. 1.) состоит из двух скрученных спиралей, каждая из которых содержит четыре вида нуклидов. Эти нуклиды  составляют генетический алфавит.

     

     Рис. 1. Молекула ДНК

     От  источника к приемнику информация передается с помощью сигналов, например электрических, световых, звуковых.

     Сигнал (от лат. слова signum ¾ знак) - изменяющийся во времени физический процесс, с помощью которого передается сообщение.

     Сообщение - форма представления информации в виде совокупности знаков (символов).

      Источники информации могут вырабатывать непрерывные сигналы (сообщения), в этом случае информация называется непрерывной. Примерами непрерывных сигналов являются человеческая речь, музыка, а также  сигналы, передаваемые по телевидению или радио. Например, человеческая речь передается звуковой волной. Параметром сигнала в этом случае является давление, создаваемое звуковой волной в человеческом ухе. 

     Если  источник информации вырабатывает сигнал, который принимает конечное число значений в пределах некоторого интервала времени, то в этом случае информация называется дискретной. Дискретные сигналы, вырабатываются механическими часами, цифровыми измерительными приборами, табло и пр.

     Цифровой  способ представления информации является дискретным способом. В современном  компьютере обрабатывается числовая, текстовая, графическая и звуковая информация. Процессор обрабатывает информацию, представленную в цифровой форме. Задачей устройств ввода/вывода компьютера в зависимости от их назначения является преобразовать информацию в форму понятную компьютеру или человеку. 

     Числовая  информация в компьютере представлена в виде двоичных чисел в двух формах с фиксированной и плавающей запятой (точкой). Для кодирования текстовой информации в компьютере используются кодовые таблицы, например ASCII или Unicode.

     Для создания и сохранения графических  объектов в компьютере используется два вида представления изображений: растровое и векторное.

     Растровое изображение – это совокупность точек (пикселей). Координаты каждой точки и ее свойства цвет, яркость выражаются с помощью двоичных чисел. Векторное изображение  представляется совокупностью математических значений свойств объектов изображения.

     Звук  представляет собой периодическую волну. Каждая звуковая волна показывает силу и высоту звука. Двоичное кодирование звуковой информации в компьютере заключается в том, чтобы звуковой волне поставить в соответствие последовательность из нулей и единиц.  Компьютерное устройство, например микрофон,  преобразует звуковую волну в электрический сигнал, который затем преобразуется в цифровую форму. 

1.5. Как передаётся информация?

    Информация  передаётся в форме сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

канал связи

                ПРИЁМНИК     -----------> ИСТОЧНИК                  

    Примеры:

  1. Cообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику (телезрителю) от источника — специалиста-метеоролога посредством канала связи — телевизионной передающей аппаратуры и телевизора.
  2. Живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.) воспринимает информацию из внешнего мира, перерабатывает её в определенную последовательность нервных импульсов, передает импульсы по нервным волокнам, хранит в памяти в виде состояния нейронных структур мозга, воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе своей жизнедеятельности.

    Передача  информации по каналам связи часто  сопровождается воздействием помех, вызывающих искажение и потерю информации.

1.6. Как измеряется количество информации?

    Какое количество информации содержится, к  примеру, в тексте романа "Война  и мир", во фресках Рафаэля или  в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро. А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является следующий вывод:

В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

    В настоящее время получили распространение  подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте. Эти подходы используют математические понятия вероятности и логарифма.  

Подходы к определению количества информации.  Формулы Хартли и Шеннона.

    Американский  инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Формула Хартли:   I = log2N
 

    Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле  Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 > 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

    Приведем  другие примеры равновероятных сообщений:

  1. при бросании монеты: "выпала решка", "выпал орел";
  2. на странице книги: "количество букв чётное", "количество букв нечётное".

    Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

    Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона: I = — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN), 
где p
i — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.
 

    Легко заметить, что если вероятности  p1, ..., pN равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли.

    Помимо  двух рассмотренных подходов к определению  количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

Информация о работе Введение в информатику. Базовые понятия и определения информатики