Информация
<<  Информация Информация  >>
Информация
Информация
Литература
Литература
Наука исследования свойств знаков и систем
Наука исследования свойств знаков и систем
Синтаксический уровень
Синтаксический уровень
Семантический уровень
Семантический уровень
Прагматический уровень
Прагматический уровень
Классификация мер информации
Классификация мер информации
Синтаксическая мера информации
Синтаксическая мера информации
Объемный подход ( VД )
Объемный подход ( VД )
Единицы измерения информации
Единицы измерения информации
Вероятностный подход
Вероятностный подход
Энтропия (часть1)
Энтропия (часть1)
Энтропия (часть 2)
Энтропия (часть 2)
Формула Хартли и Шеннона
Формула Хартли и Шеннона
Энтропия (часть 3)
Энтропия (часть 3)
Семантическая мера информации
Семантическая мера информации
Прагматическая мера информации
Прагматическая мера информации
Сопоставление мер информации
Сопоставление мер информации
Кодирование информации
Кодирование информации
Абстрактный алфавит
Абстрактный алфавит
Кодирование информации
Кодирование информации
Математическая постановка задачи кодирования
Математическая постановка задачи кодирования
Математическая постановка задачи кодирования
Математическая постановка задачи кодирования
Первая теорема Шеннона
Первая теорема Шеннона
Вторая теорема Шеннона
Вторая теорема Шеннона
Вторая теорема Шеннона
Вторая теорема Шеннона
Особенности вторичного алфавита при кодировании
Особенности вторичного алфавита при кодировании
Равномерное алфавитное кодирование
Равномерное алфавитное кодирование
К (С, 2)
К (С, 2)
Таблицы кодировки
Таблицы кодировки
Таблица кодировки ASCII
Таблица кодировки ASCII
Код обмена информации ASCII
Код обмена информации ASCII
Системы кодирования
Системы кодирования
Неверная кодировка
Неверная кодировка
Кодирование текстовой информации
Кодирование текстовой информации
Кодирование графической информации*
Кодирование графической информации*
Кодирование графической информации
Кодирование графической информации
Кодирование звука*
Кодирование звука*
Кодирование видеоинформации*
Кодирование видеоинформации*
Вопросы
Вопросы

Презентация: «Информация». Автор: тест. Файл: «Информация.ppt». Размер zip-архива: 470 КБ.

Информация

содержание презентации «Информация.ppt»
СлайдТекст
1 Информация

Информация

2 Литература

Литература

А.В.Могилев, Н.И.Пак, Е.К.Хённер Информатика. - М.: Академия, 2009. - 848 с.

Л.З. Шауцукова Информатика Книга 1. Теория. http://book.kbsu.ru

2

3 Наука исследования свойств знаков и систем

Наука исследования свойств знаков и систем

Семиотика (греч. semeion – знак, признак) – наука, занимающаяся исследованием свойств знаков и знаковых систем. Семиотика выделяет следующие уровни передачи информации: Синтаксический, рассматриваются внутренние свойства сообщений. Семантический, анализируется смысловое содержание сообщения, его отношение к источнику информации. Прагматический, рассматривается потребительское содержание сообщения, его отношение к получателю.

3

4 Синтаксический уровень

Синтаксический уровень

Идея: Это технические проблемы совершенствования методов передачи сообщений и их материальных носителей – сигналов. Проблемы доставки получателю сообщений. Полностью абстрагируются от смыслового содержания сообщений и их целевого предназначения. Информация - данные Учитывают: Тип носителя. Способ представления информации. Скорость передачи и обработки. Размеры кодов представления информации и т.д.

4

4

5 Семантический уровень

Семантический уровень

Идея: Проблемы связаны с формализацией и учетом смысла передаваемой информации. Проблемы этого уровня чрезвычайно сложны, так как смысловое содержание информации больше зависит от получателя, чем от семантики сообщения, представленного на каком-либо языке. На данном уровне: Анализируется сведенья, которые отражает информация. Выявляется смысл информации. Выявляется содержание информации. Осуществляется обобщение.

5

5

6 Прагматический уровень

Прагматический уровень

Идея: Проблемы этого уровня связаны с определением ценности и полезности информации для потребителя. Интересуют последствия от получения и использования данной информации потребителем. На данном уровне: Ценность информации может быть различной для разных потребителей. Фактор доставки актуальности доставки и использования.

6

6

7 Классификация мер информации

Классификация мер информации

Синтаксическая мера информации Семантическая мера информации Прагматическая мера информации

7

7

8 Синтаксическая мера информации

Синтаксическая мера информации

На синтаксическом уровне для измерения информации вводятся два параметра

Объем информации (объемный подход)

Количество информации (вероятностный подход)

8

9 Объемный подход ( VД )

Объемный подход ( VД )

Идея: Если количество информации, содержащейся в сообщении из одного символа, принять за единицу, то объем информации (данных) VД в любом другом сообщении будет равен количеству символов (разрядов) в этом сообщении. В памяти компьютера объем информации записывается двоичными знаками и равен количеству требуемых для этой записи двоичных кодов.

Объём данных (VД ) в техническом смысле этого слова как информационный объём сообщения или как объём памяти, необходимый для хранения сообщения без каких-либо изменений.

9

10 Единицы измерения информации

Единицы измерения информации

1 бит = кол-во двоичных цифр (0 и 1) Пример: код 11001011 имеет объем данных V= 8 бит 1 байт = 8 бит 1 Кбайт = 1024 байт = 210 байт 1 Мбайт = 1024 Кбайт = 220 байт =1 048 576 байт; 1 Гбайт = 1024 Мбайт = 230 байт = 1 073 741 824 байт; 1 Тбайт = 1024 Гбайт = 240 байт = 1 099 511 627 776 байт.

10

10

11 Вероятностный подход

Вероятностный подход

События, о которых нельзя сказать произойдут они или нет, пока не будет осуществлен эксперимент, называются случайными. Отдельный повтор случайного события называется опытом, а интересующий нас исход этого опыта – благоприятным. Если N – общее число опытов, а NА - количество благоприятных исходов случайного события А, то отношение NA/N, называется относительной частотой появления события А. В разных сериях опытов частота может быть различна, но при увеличении количества опытов относительная частота все меньше отклоняется от некоторой константы, ее наличие называется статической устойчивостью частот. Если все исходы опыта конечны и равновозможные, то их вероятность равна где N - число исходов.

11

12 Энтропия (часть1)

Энтропия (часть1)

Энтропия – численная мера измеряющая неопределенность. Некоторые свойства: f(1)=0, так как при N=1 исход не является случайным и неопределенность отсутствует. f(N) возрастает с ростом N, чем больше возможных исходов, тем труднее предсказать результат. Если a и b два независимых опыта с количеством равновероятных исходов Na и Nb, то мера их суммарной неопределенности равна сумме мер неопределенности каждого из опытов: Количество информации – разность неопределенностей “ДО” и ”ПОСЛЕ” опыта:

12

13 Энтропия (часть 2)

Энтропия (часть 2)

общее число исходов М – число попыток (пример: Х = 62 = 36) Энтропия системы из М бросаний кости будет в M раз больше, чем энтропия системы однократного бросания кости - принцип аддитивности энтропии:

13

13

14 Формула Хартли и Шеннона

Формула Хартли и Шеннона

Обозначим через K Получим f(X) = K ? lnX или H = K ? lnX, таким образом получим формулу Хартли для равновозможных исходов Формула Шеннона для неравновозможных исходов

14

14

15 Энтропия (часть 3)

Энтропия (часть 3)

Информация – это содержание сообщения, понижающего неопределенность некоторого опыта с неоднозначным исходом; убыль связанной с ним энтропии является количественной мерой информации.

Количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.

15

16 Семантическая мера информации

Семантическая мера информации

При sp?0 пользователь не воспринимает, не понимает поступающую информацию; при sp?? пользователь все знает, и поступающая информация ему не нужна.

Тезаурус — это совокупность сведений, которыми располагает пользователь или система.

Относительной мерой количества семантической информации может служить коэффициент содержательности С, который определяется как отношение количества семантической информации к ее объему.

Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса.

16

17 Прагматическая мера информации

Прагматическая мера информации

Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция. Целевая функция – есть математическое выражение некоторого критерия качества одного объекта (решения, процесса и т.д.) в сравнении с другим.

17

18 Сопоставление мер информации

Сопоставление мер информации

Мера информации

Единицы измерения

Примеры (для компьютерной области)

Синтаксическая: шенноновский подход компьютерный подход

Степень уменьшения неопределенности Единицы представления информации

Вероятность события Бит, байт. Кбайт и т.д.

Семантическая

Тезаурус Экономические показатели

Пакет прикладных программ, персональный компьютер, компьютерные сети и т.д. Рентабельность, производительность, коэффициент амортизации и т.д.

Прагматическая

Ценность использования

Емкость памяти, производительность компьютера, скорость передачи данных и т.д. Денежное выражение Время обработки информации и принятия решений

18

18

19 Кодирование информации

Кодирование информации

Информатика

20 Абстрактный алфавит

Абстрактный алфавит

Алфавит - множество знаков, в котором определен их порядок (общеизвестен порядок знаков в русском алфавите: А, Б,..., Я)

Алфавит прописных русских букв Алфавит Морзе Алфавит клавиатурных символов ПЭВМ IBM (русифицированная клавиатура) Алфавит знаков правильной шестигранной игральной кости Алфавит арабских цифр Алфавит шестнадцатиричных цифр Алфавит двоичных цифр Двоичный алфавит «точка, «тире» Двоичный алфавит «плюс», «минус» Алфавит прописных латинских букв Алфавит римской системы счисления Алфавит языка блок-схем изображения алгоритмов Алфавит языка программирования

20

20

21 Кодирование информации

Кодирование информации

Источник представляет сообщение в алфавите, который называется первичным, далее это сообщение попадает в устройство, преобразующее и представляющее его во вторичном алфавите. Код – правило, описывающее соответствие знаков (или их сочетаний) первичного алфавита знаком (их сочетаниями) вторичного алфавита. Кодирование – перевод информации, представленной сообщением в первичном алфавите, в последовательность кодов. Декодирование – операция обратная кодированию. Кодер – устройство, обеспечивающее выполнение операции кодирования. Декодер – устройство, производящее декодирование. Операции кодирования и декодирования называются обратимыми, если их последовательное применение обеспечит возврат к исходной информации без каких-либо ее потерь.

21

22 Математическая постановка задачи кодирования

Математическая постановка задачи кодирования

А – первичный алфавит. Состоит из N знаков со средней информацией на знак IА . В – вторичный алфавит из М знаков со средней информацией на знак IВ . Сообщение в первичном алфавите содержит n знаков, а закодированное – m знаков. Is (A)-информация в исходном сообщении, If (B)-информация в закодированном сообщении.

22

23 Математическая постановка задачи кодирования

Математическая постановка задачи кодирования

IS (A) ? If (B) – условие обратимости кодирования, т.е не исчезновения информации. n* IА ? m* IB (заменили произведением числа знаков на среднее информационное содержание знака). m/n –характеризует среднее число знаков вторичного алфавита, который используется для кодирования одного знака первичного. Обозначим его К (А, В) К (А, В)? IA/IB Обычно К (А, В) >1 Кmin (А, В)= IA/IB – минимальная длинна кода

23

24 Первая теорема Шеннона

Первая теорема Шеннона

Примером избыточности может служить предложение «в словох всо глосноо зомононо боквой о»

Существует возможность создания системы эффективного кодирования дискретных сообщений, у которой среднее число двоичных символов на один символ сообщения асимптотически стремится к энтропии источника сообщений . Х = {xi } - кодирующее устройство – В Требуется оценить минимальную среднюю длину кодовой комбинации. Шенноном была рассмотрена ситуация, когда при кодировании сообщения в первичном алфавите учитывается различная вероятность появления знаков, а также равная вероятность появления знаков вторичного алфавита. Тогда:

24

24

25 Вторая теорема Шеннона

Вторая теорема Шеннона

При наличии помех в канале всегда можно найти такую систему кодирования, при которой сообщения будут переданы с заданной достоверностью. При наличии ограничения пропускная способность канала должна превышать производительность источника сообщений. Первоначально последовательность Х = {xi} кодируется символами из В так, что достигается максимальная пропускная способность (канал не имеет помех). Затем в последовательность из В длины n вводится r символов и по каналу передается новая последовательность из n + r символов. Число возможных последовательностей длины n + r больше числа возможных последовательностей длины n. Множество всех последовательностей длины n + r может быть разбито на n подмножеств, каждому из которых сопоставлена одна из последовательностей длины n. При наличии помехи на последовательность из n + r символов выводит ее из соответствующего подмножества с вероятностью сколь угодно малой.

25

25

26 Вторая теорема Шеннона

Вторая теорема Шеннона

Это позволяет определять на приемной стороне канала, какому подмножеству принадлежит искаженная помехами принятая последовательность длины п + r, и тем самым восстановить исходную последовательность длины п. Эта теорема не дает конкретного метода построения кода, но указывает на пределы достижимого в создании помехоустойчивых кодов, стимулирует поиск новых путей решения этой проблемы. Способ кодирования только устанавливает факт искажения сообщения, что позволяет потребовать повторную передачу. Используемый код находит и автоматически исправляет ошибку передачи.

26

26

27 Особенности вторичного алфавита при кодировании

Особенности вторичного алфавита при кодировании

Элементарные коды 0 и 1 могут иметь одинаковые длительности (t0 = t1) или разные (?). Длина кода может быть одинаковой для всех знаков первичного алфавита (код равномерный) или различной (неравномерный код) Коды могут строиться для отдельного знака первичного алфавита (алфавитное кодирование) или для их комбинаций (кодирование блоков, слов).

27

28 Равномерное алфавитное кодирование

Равномерное алфавитное кодирование

Представление чисел в компьютере

Компьютерный алфавит С включает буквы латинского алфавита – 52 шт. Букв русского (прописные и строчные) – 66 шт. Цифры 0…9 – 10 шт. Знаки математических операций, препинания, спецсимволы – 20 штук Итого: 148

28

28

29 К (С, 2)

К (С, 2)

log2 148 ? 7,21, так как длина кода – целое число, следовательно, К (С,2) = 8бит = 1байт. Именно такой способ кодирования принят в компьютерных системах. Один байт соответствует количеству информации в одном знаке алфавита при их равновероятном распределении. Это объемный способ измерения информации. Присвоение символу конкретного двоичного кода фиксируется в кодовой таблице, где устанавливается соответствие между символами и их порядковыми номерами.

29

30 Таблицы кодировки

Таблицы кодировки

Таблица, в которой устанавливается однозначное соответствие между символами и их порядковыми номерами, называется таблицей кодировки. Для разных типов ЭВМ используют различные таблицы кодировки: ANSI - (American National Standards Institute) ASCII - (American Standard Cod for Information Interchange)

30

31 Таблица кодировки ASCII

Таблица кодировки ASCII

31

31

32 Код обмена информации ASCII

Код обмена информации ASCII

Первоначально – 7 бит N=27=128 символов 0…31- всевозможные управляющие символы 32…127 – видимые на экране символы. Сейчас – 8 бит N=28 =256 символов 128…255- национальные алфавиты,псевдографика 01000001 = буква А = 65

32

33 Системы кодирования

Системы кодирования

Кои-7

Windows-1251

Кои-8

ISO

Unicode

UTF-8

33

34 Неверная кодировка

Неверная кодировка

34

35 Кодирование текстовой информации

Кодирование текстовой информации

35

36 Кодирование графической информации*

Кодирование графической информации*

Растровое изображение представляет собой однослойную сетку точек, называемых пикселами (pixel, от англ. picture element). Код пиксела содержит информации о его цвете. Векторное изображение многослойно. Каждый элемент векторного изображения - линия, прямоугольник, окружность или фрагмент текста - располагается в своем собственном слое, пикселы которого устанавливаются независимо от других слоев.

Объем графического файла в битах определяется как произведение количества пикселей на разрядность цвета (битовую глубину)

36

37 Кодирование графической информации

Кодирование графической информации

Бит/пиксель

4 бита

8 бит

16 бит

24 бита

Число цветов

24=16цв

28=256цв

216= 65536цв

224= 16777216цв

640x480

150 Кбайт

300 Кбайт

600 Кбайт

900 Кбайт

800x600

234,4 Кбайт

468,8 Кбайт

937,6 Кбайт

1,4 Мбайт

1024x768

384 Кбайт

768 Кбайт

1,5 Мбайт

2,25 Мбайт

1280x1024

640 Кбайт

1,25 Мбайт

2,5 Мбайт

3,75 Мбайт

37

38 Кодирование звука*

Кодирование звука*

Звук - это колебания воздуха Процесс преобразования аналогового сигнала в последовательность двоичных чисел называется дискретизацией (или оцифровкой), а устройство, выполняющее его - аналого-цифровым преобразователем (АЦП).

Для того чтобы воспроизвести закодированный таким образом звук, нужно выполнить обратное преобразование (для него служит цифро-аналоговый преобразователь - ЦАП), а затем сгладить получившийся ступенчатый сигнал.

38

39 Кодирование видеоинформации*

Кодирование видеоинформации*

V=800*600*16*25*30=576*107(бит)=72*107(байт)=687(Мбайт)

Число кадров вычисляется как произведение длительности видеоклипа на скорость кадров , то есть их количество в 1 с

При разрешении 800*600 точек, разрядности цвета C=16, скорости кадров v=25 кадров/c, видеоклип длительностью 30 с будет иметь объем:

39

40 Вопросы

Вопросы

40

«Информация»
http://900igr.net/prezentacija/informatika/informatsija-250702.html
cсылка на страницу
Урок

Информатика

130 тем
Слайды