Основы построения и эксплуатации защищенных телекоммуникационных систем

Автор работы: Пользователь скрыл имя, 22 Сентября 2013 в 22:05, реферат

Краткое описание

Основные из этих требований можно сформулировать следующим образом:
получатель сообщения должен быть уверен в истинности отправителя, то есть в том, что отправитель – это то лицо, за которое он себя выдает;
отправитель сообщения должен быть уверен в истинности получателя;
получатель должен быть уверен в истинность полученного сообщения, то есть в том, что принятые данные идентичны отправленным;
отправитель должен быть уверен в истинности доставленного сообщения;
отправитель должен быть уверен в своевременности доставки сообщения;
и отправитель, и получатель должны быть уверены в том, что никто кроме них двоих (и, возможно, специального посредника) не знает о факте передачи сообщения;
и отправитель, и получатель должны быть уверены в том, что никто кроме них двоих (и, возможно, специального посредника) не ознакомился с содержимым сообщения.

Содержание

Введение. 4
1. Понятие защищенной телекоммуникационной системы. 5
1.1. Обобщенная структурно-функциональная схема ТКС. 5
1.2. Понятие информации. 6
1.3. Понятие информационной безопасности. 7
1.4. Обзор рекомендаций ISO 7498-2. 8
1.5. Обзор требований Руководящих документов ГТК РФ 19
1.6. Обзор стандарта ИSO/IEC 15408-1-99. 22
2. Основы криптографической защиты телекоммуникаций. 30
2.1. Основы теории информации. 30
2.2. Модель криптозащищенной ТКС. 38
2.3. Теоретическая оценка криптозащищенности ТКС. 46
2.4. Практическая оценка криптозащищенности ТКС. 53
3. Основы теории надежности. 55
3.1. Основные понятия теории надежности. 55
3.2. Важнейшие распределения наработки. 59
3.3. Методы статистического оценивания наработки по результатам испытаний. 63
3.4. Задачи по теории надежности. 64
Литература. 67

Вложенные файлы: 1 файл

konspekt_osnovy_teorii_nadezhnosti.doc

— 861.00 Кб (Скачать файл)

Если изначально исходов было n1, а в результате передачи информации DH неопределенность уменьшилась и число исходов стало n2 (очевидно, n2£ n1), то из (15) легко получить:

 

.    (20)

 

Таким образом, можно утверждать, что информация – это то, что понижает неопределенность некоторого опыта с неоднозначным исходом, причем соответствующее количество информации равно логарифму отношения числа возможных исходов до и после получения информации.

2. Энтропию, таким образом, можно  определить как меру недостатка информации в системе; она выражает общее количество отсутствующей информации о структуре (строении) системы. Наибольшая энтропия у равновесной полностью беспорядочной системы – о состоянии такой системы наша осведомленность минимальна. Упорядочение системы (наведение какого-то порядка) связано с получением некоторой дополнительной информации и уменьшением энтропии.

3. Объективность информации. Одна  и та же информация может  иметь различную оценку с точки  зрения значимости (важности, ценности) разными потребителями. Определяющей в такой оценке оказывается содержание (смысл) сообщения6. Однако при решении задач технического характера содержание сообщения роли не играет. Например, задача телеграфной (и любой другой) линии связи – точно и безошибочно передать сообщение без анализа того, насколько ценной для получателя оказывается переданная информация. Техническое устройство не может оценить важности информации – его задача безошибочно передать или сохранить информацию. Выше мы определили информацию как результат выбора. Такое определение является объективным, а связанная с ним количественная мера информации – одинаковой для любого потребителя. То есть появляется возможность объективного измерения информации, при этом результат измерения – абсолютен. Это служит предпосылкой для решения технических задач. Как мы увидим далее, количество информации можно связать с числом символов (букв) в сообщении. Мы уже говорили, что информатика формулирует законы для формальных информационных процессов, то есть таких, где смысл и ценность информации выводится за рамки рассмотрения и никак не отслеживается. Это связано с тем, что нельзя предложить абсолютной и единой для всех меры ценности информации. С точки зрения информатики страница из учебника информатики или из «Войны и мира» и страница, записанная бессмысленными значками, содержат одинаковое количество информации. Другими словами, в теории информации информация отделяется от знания человека, которое связано с оценками смысла информации и которое не имеет количественной меры. По этой причине утверждение, что информация – это знание о чем-либо, является ошибочным в данном контексте. При этом, жертвуя смысловой (семантической) стороной информации, мы получаем объективные методы измерения количества информации, а также имеем возможность описывать информационные процессы математическими уравнениями. Это очень важно для решения проблем передачи, обработки и хранения информации с помощью технических устройств.

4. Пусть некоторый опыт имеет  два исхода A и B, причем, pA=0,99 , а pB=0,01. В случае исхода A мы получим количество информации HA= –log20,99=0,0145 бит. В случае исхода B количество информации оказывается равным HB= –log20,01=6,644 бит. Другими словами, больше информации связано с теми исходами, которые маловероятны. Действительно, то, что наступит именно A мы почти наверняка знали и до опыта; поэтому реализация такого исхода очень мало добавляет к нашей осведомленности. Наоборот, исход B – весьма редкий; информации с ним связано больше (осуществилось трудно ожидаемое событие). Однако такое большое количество информации мы будет при повторах опыта получать редко, поскольку мала вероятность B. Среднее же количество информации H=0,99×HA+0,01×HB»0,081.

 

При передаче дискретных (текстовых) сообщений по каналу связи появление конкретного знака (буквы) в конкретном месте сообщения на приемном конце – событие случайное. Следовательно, узнавание (отождествление) знака требует получения некоторой порции информации. Попробуем оценить ее.

Сначала будем считать, что появление всех знаков (букв) алфавита в сообщении равновероятны. Тогда для английского алфавита ne=26. Для русского алфавита nr=33. Из (18) имеем:

 

He=log226=4,700 бит,

Hr=log233=5,044 бит.

 

То есть при равновероятном распределении  букв получается, что любой знак русского алфавита несет больше информации, чем знак английского. Например, русская «а» несет больше информации, чем «a» английская! Это, безусловно, не означает, что английский язык – язык Шекспира и Диккенса – беднее, чем язык Пушкина и Достоевского. Лингвистическое «богатство» языка определяется количеством слов в нем и их сочетаний, а это никак не связано с числом букв в алфавите. С точки зрения техники это означает, что сообщения из равного количества символов будет иметь разную длину (и соответственно, время передачи) и большими они окажутся у сообщений на русском языке.

Приведенные оценки информационной емкости  букв соответствуют предположению  об их одинаковой вероятности появления  в сообщении. На самом деле это  не так, и относительная частота появления в тексте разных букв различна (таблица 5).

 

Буква

о

е

а

и

т

н

с

р

Отн.частота

0,110

0,087

0,075

0,075

0,065

0,065

0,055

0,048

Буква

в

л

к

м

д

п

у

я

Отн.частота

0,046

0,042

0,034

0,031

0,030

0,028

0,025

0,022

Буква

ы

з

ь,ъ

б

г

ч

й

х

Отн.частота

0,019

0,018

0,017

0,017

0,016

0,015

0,012

0,011

Буква

ж

ю

ш

ц

щ

э

ф

 

Отн.частота

0,009

0,007

0,007

0,005

0,004

0,003

0,002

 

 

Таблица 5. Средние частоты букв для русского алфавита.

 

Можно поставить вопрос: каково среднее  количество информации, приходящее на один знак алфавита, с учетом не равной вероятности их появления в сообщении (текстах)? На основе (15) имеем:

 

,     (21)

 

где pi – вероятность (относительная частота) i-го знака данного алфавита, H – средняя информация, приходящаяся на один знак.

Это и есть знаменитая формула К.Шеннона, с работы которого «Математическая  теория связи», написанной в 1948 г., принято начинать отсчет возраста теории информации как самостоятельной науки7.

Необходимо заметить, что формула  Шеннона справедлива только в том случае, если вероятность pi для данного знака одинакова в различных сообщениях. То, что это может быть не так, легко убедиться, если мы возьмем какое-либо короткое (с малым числом знаков) сообщение («Мама мыла раму»), то относительная частота букв не будет совпадать с приведенной в таблице 5. Поэтому вероятности знаков (относительные частоты) определяются для сообщений (текстов), содержащих много символов с тем, чтобы проявились статистические закономерности, неизменные с течением времени.

Сообщения, в которых  вероятность появления знака  не меняется с течением времени, называются шенноновскими. Теория информации строится именно для таких сообщений, поэтому в дальнейшем мы будем считать это исходным положением (условием применимости) теории.

Применение формулы (21) к алфавиту русского языка дает значение средней  информации на знак H=4,460 бит, для английского языка H=4,143 бит, для французского H =3.986 бит, для немецкого H=4,096 бит. В этих оценках, как и в таблице 5, пробел не включен в алфавит, его включение приводит к коррекции данных таблицы и, соответственно, значений H.

В любом случае, и для русского, и для английского языков учет вероятностей появления букв в сообщениях приводит к уменьшению среднего «информационного содержания» буквы, что, кстати, подтверждает справедливость формулы (11). Несовпадение значений средней информации для английского, французского и немецкого языков, основанных на одном алфавите, связано с тем, что частоты появления одинаковых букв в них различаются.

Значение средней информации на букву может быть еще уменьшено учетом корреляций, то есть связей между буквами в словах. Дело в том, что буквы в словах появляются не в любых сочетаниях; это понижает неопределенность угадывания следующей буквы после нескольких, например, в русском языке нет слов, в которых встречается сочетание щц или фъ. И напротив, после некоторых сочетаний можно с большей определенностью, чем чистый случай, судить о появлении следующей буквы, например, после распространенного сочетания пр- всегда следует гласная буква, а их в русском языке 10 и, следовательно, вероятность угадывания следующей буквы есть 1/10, а не 1/33. Учет в английских словах двухбуквенных сочетаний понижает среднюю информацию на знак до значения H=3,32 бит, учет трехбуквенных – до H=3,1 бит; экстраполяция, позволяющая учесть все сочетания, дает значение H=2,14 бит.

Введем величину, которую будем  называть избыточностью языка:

 

,     (22)

 

где H – средняя информация на знак при представлении информации с помощью алфавита данного языка, а Hlim – предельная наименьшая информация на знак в данном языке. Исследования, проведенные Шенноном, показали, что для английского языка Hlim»1,4¸1,5 бит, что по отношению к H0=4,143 дает избыточность около 0,64. Это означает, что в принципе возможно почти трехкратное сокращение языка без ущерба для его содержательной стороны и выразительности. Например, мы знаем, что в телеграммах используются сокращения «ЗПТ» и «ТЧК» вместо полных слов без ущерба для смысла. Однако такое «экономичное» представление слов снижает разборчивость сообщений и возможность понимания речи при наличии шума (а это одна из проблем передачи информации по реальным каналам связи).

Информационная избыточность естественных языков (и, соответственно, передаваемых сообщений) легла в основу подхода Шеннона к анализу криптозащищенных систем.

2.2. Модель  криптозащищенной ТКС

 

Определим ряд исходных положений  дальнейшего анализа. Во-первых, будем  рассматривать защищенные ТКС, в которых смысл передаваемого сообщения скрывается при помощи шифра, кода, но само существование сообщения не скрывается и предполагается, что противник обладает любым специальным оборудованием, необходимым для перехвата и записи переданных сигналов8. Во-вторых, ограничимся случаем дискретной информации, то есть положим, что сообщение, которое должно быть зашифровано, состоит из последовательных дискретных символов, каждый из которых выбран из некоторого конечного множества. Эти символы могут быть буквами или словами некоторого языка, амплитудными уровнями «квантованной» речи или видеосигнала, но главный акцент будет сделан на случае букв.

Далее следует ввести удовлетворительную идеализацию и определить математически  приемлемым способом, что будет пониматься под криптозащищенной (далее по тексту – защищенной) системой. Схематическая структура защищенной системы показана на рис. 3.

 

 

Рис. 3. Схема защищенной телекоммуникационной системы

 

На передающем конце имеются  два источника информации – источник сообщений и источник ключей. Источник ключей отбирает конкретный ключ среди всех возможных ключей данной системы. Этот ключ передается некоторым способом на приемный конец, причем предполагается, что его нельзя перехватить9 (например, ключ передается посыльным). Источник сообщений формирует некоторое сообщение (незашифрованное), которое затем зашифровывается, и готовая криптограмма передается на приемный конец, причем криптограмма может быть перехвачена (например, пересылается по радио). На приемном конце шифровальщик с помощью ключа по криптограмме восстанавливает исходное сообщение. Очевидно, шифровальщик на передающем конце выполняет некоторую функциональную операцию. Если M – сообщение, K – ключ и E – зашифрованное сообщение (криптограмма), то имеем

 

E = f(M,K),      (23)

 

то есть E является функцией от M и K. Удобнее, однако, понимать E не как функцию двух переменных, а как (однопараметрическое) семейство операций или отображений, и записывать его в виде:

 

E = TiM.      (24)

 

Отображение Ti примененное к сообщению M, дает криптограмму E. Индекс i соответствует конкретному используемому ключу. Вообще мы будем предполагать, что имеется лишь конечное число возможных ключей, каждому из которых соответствует вероятность pi. Таким образом, источник ключей является статистическим процессом, или устройством, которое выбирает одно из множества отображений T1,...,Tm с вероятностями p1,...,pm соответственно. Будем также предполагать, что число возможных сообщений конечно и эти сообщения M1,...,Mn имеют априорные вероятности q1,...,qn. Например, возможными сообщениями могли бы быть всевозможные последовательности букв некоторого языка, включающих по N букв каждая, а соответствующими вероятностями тогда были бы относительные частоты появления таких последовательностей в тексте на соответствующем языке.

Должна иметься возможность восстанавливать M на приемном конце, когда известны E и K. Поэтому отображение Ti, из нашего семейства должно иметь единственное обратное отображение Ti–1, так что TiTi–1 = I, где I – тождественное отображение. Таким образом:

 

M = Ti–1E.      (25)

 

Во всяком случае, это обратное отображение Ti–1 должно существовать и быть единственным для каждого E, которое может быть получено из M с помощью ключа i. Приходим, таким образом, к следующему определению: защищенная система есть семейство однозначно обратимых отображений Ti множества возможных сообщений во множество криптограмм, при этом отображение Ti имеет вероятность pi. Обратно, любое множество объектов такого типа будет называться защищенной системой. Множество возможных сообщений для удобства будет называться «пространством сообщений», а множество возможных криптограмм – «пространством криптограмм». Две защищенные системы совпадают, если они образованы одним и тем же множеством отображений Ti и одинаковыми пространствами сообщений и криптограмм, причем вероятности ключей в этих системах также совпадают. Защищенную систему можно представлять себе как некоторую машину с одним или более переключающими устройствами. Последовательность букв (сообщение) поступает на вход машины, а на выходе ее получается другая последовательность. Конкретное положение переключающих устройств соответствует конкретному используемому ключу. Для выбора ключа из множества возможных ключей должны быть заданы некоторые статистические методы.

Информация о работе Основы построения и эксплуатации защищенных телекоммуникационных систем