Содержательный подход к измерению информации

Предмет: Информатика
Категория материала: Конспекты
Автор:

Содержание архива: конспект урока, презентация, раздаточный материал(тест).


УРОК НА ТЕМУ
«СОДЕРЖАТЕЛЬНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ»

Тема урока: Содержательный подход к измерению информации (теория инфор­мации Шеннона).

Цель урока: приобретение обучающимися теоретических знаний и практических навыков по измерению количество информации с точки зрения содержательного подхода.

ХОД УРОКА

1. Актуализация опорных знаний

Проводится фронтальный опрос, вопросы по одному выводятся на экран (см. презентацию), ответы учащихся тезисно записываются на доске.

Учитель. Ребята, давайте сегодня поговорим об измерении информации. Но сначала вспомним, что вы уже знаете о науке информатике.

Что изучает информатика? (Проблемы обработки, хранения и передачи ин­формации.)

Что является предметом изучения информатики? (Информация.)

Что мы уже знаем об информации и что умеем делать с информацией? (Зна­ем, что такое информация, виды информации, свойства информации; умеем кодировать информацию, измерять информацию.)

Какую информацию мы умеем измерять? (Текстовую, графическую.)

В каких единицах измеряется информация? (Бит, байт, килобит, килобайт и т. д.)

Что означают эти единицы измерения? (Бит — один двоичный знак, 1 байт = 8 бит; сигнал ЭВМ: есть — 1, нет — 0.)

От чего зависит количество информации? (Количество текстовой информа­ции зависит от количества символов, графической — от количества точек и количества цветов.)

Разминка на измерение информации.

На доске записаны два сообщения: «абра ка дабра» и «завтра среда». Надо опре­делить, в каком из них информации больше.

(В первом сообщении — 13 байт, во втором — 12 байт, поэтому ученики могут ответить, что в первом.)

Учитель. Сравните количество информации в двух словах: «яблоко» и «apple».

По количеству символов в первом слове больше информации, но многие учени­ки могут заметить, что смысл обоих слов одинаков.

Можно попросить трех учеников задать учителю один и тот же вопрос: «Сегодня у вас есть урок информатики?» Первому ученику учитель отвечает «Да», второму — «Yes», а третьему просто кивает головой.

Полезно изобразить ответы на доске:

Да Yes +

После этого следует спросить учеников, получил ли каждый из них информа­цию. Ученики ответят, что да, получили. Учитель: «Сколько информации вы полу­чили? Одинаковое ли количество в каждом случае?» После множества высказан­ных версий чаще всего приходим к выводу, что количество символов в ответах разное, но содержание ответов одинаково. Возникает проблема: как измерить полу­ченное количество информации?

Учитель. Давайте вспомним, для чего нам нужна информация? (Для приня­тия решения.) Какое из сообщений - - «абра ка дабра» и «завтра среда» — больше повлияет на принятие вами решения? (Большинство учащихся, как правило, отве­чает, что второе.) Значит ли это, что во втором сообщении информации больше? От чего зависит объем информации? {От новизны информации, от ее полезно­сти.) Итак, если учитывать смысл сообщения, то информации больше во втором сообщении, если учитывать только количество знаков, то в первом.

2. Изучение нового материала

Учитель. Мы уже умеем вычислять количество информации в специальных единицах измерения с технической точки зрения, как в ЭВМ. Давайте научимся измерять количество информации с точки зрения содержания информации. Итак, тема сегодняшнего урока — «Содержательный подход к измерению информации»

В истории информатики имя американского ученого Клода Шеннона занимает одно из самых главных мест. Он является основоположником математической тео­рии информации, появившейся в 30-х гг. XXв.

Историческая справка. Шеннон (Shannon) Клод Олвуд (р. 30.4.1916, Гейлорд, шт. Мичи­ган, США) — американский ученый и инженер, один из создателей математической теории информации, с 1956 г. — член национальной Академии наук США и Американской акаде­мии искусств и наук. Окончил Мичиганский университет (1936). В 194]—1957 гг. — сотруд­ник математической лаборатории компании «Белл систем». С 1957 г. ----- профессор электротехники и математики Массачуеетского технологического института. Основные тру­ды но алгебре логики, теории релейно-контактных схем, математической теории связи, информации и кибернетике. (См.: Работы по теории информации и кибернетике. М., 1963.)

Учитель. Прочитайте определение информации Клода Шеннона.

«Информация как снятая неопределенность»

Клод Шеннон

Учитель. Как вы понимаете это определение? Что означает «неопределенность»? Приведите синонимы этого слова. (Неизвестность, незнание и т. д.) А что означает «снятая неопределенность»? Под «информацией» Клод Шеннон понимал не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неизвестность (неопределенность). Итак, вы сказали, что информа­ция нужна для принятия решения. Какого решения? (Правильного, для достиже­ния поставленной цели.) Можно ли измерить, сколько информации нужно для при­нятия правильного решения? Сколько нужно информации, чтобы снять неопреде­ленность, незнание?

Пример 1.

Я не знаю, есть ли на улице дождь, неопределенность. Я вас спрашиваю, есть ли на улице дождь. Когда я получу ответ, моя информация об окружающем мире увели­чится? На сколько? Если вы ответили «да»? (Увеличилась.) Если вы ответили «нет»? (Тоже увеличилась.) На сколько? (Иногда учащиеся могут ответить, что «да>> — 2 байта, «нет» - - 3 байта, тогда учитель может привести пример анг­лийских вариантов этих слов: «yes» - 3 байта, «по» — 2 байта. Полезно обра­тить внимание на то, что просто кивок головы может полностью снять суще­ствующую неопределенность, а значит, содержать информацию.) Одинаковое ли количество информации в этих двух ответах?

Есть дождь?

Да Нет

Пример 2.

Я подброшу монетку, и она упадет или «орлом», или «решкой». Неопределен­ность? Сколько информации содержит сообщение о том, какой стороной упала монетка?

Орел?

Да Нет

Получение информации (ее увеличение) одновременно означает увеличение зна­ния, что, в свою очередь, означает уменьшение незнания или информационней не­определенности.

Пример 3.

Книга лежит на одной из двух полок — верхней или нижней (неопределен­ность). Во сколько раз уменьшится неопределенность после сообщения о том, что книга лежит на верхней полке? (Ровно в 2 раза.) Неопределенность снимается пол­ностью?(Да.) На данный вопрос существует только два варианта ответа.

Верхняя полка?

Да Нет

Можно ли закодировать варианты ответа двоичными цифрами и измерить коли­чество информации? А если полок четыре? Тогда один вопрос уменьшит неопреде­ленность, но не снимет ее полностью.

Игра-пример.

Учитель. Загадайте любое целое число от 1 до 32. (Кто-то из ребят пишет число на доске, учитель может выйти из класса или стоять спиной к доске, лицом к детям.) Считайте, сколько вопросов я задам для отгадывания числа. Ответ на мой вопрос должен быть «да» или «пет».

Для отгадывания достаточно 5 вопросов.

Можно повторить игру еще раз или пригласить вызвавшегося отгадывать уче­ника.

Учитель. Каждый ответ на вопрос снимает (уменьшает) неопределенность в 2 раза. После 5 вопросов можно отгадать задуманное число — неопределенности не осталось. Сколько всего чисел? (32.) Нет ли какой-нибудь связи между числами 2, 5, 32? (32 = 25.) В простейшем случае выбор одного из двух сообщений («да» или «нет», 1 или 0) принимают за единицу измерения информации — бит, двоичную цифру. То есть мы используем двоичный алфавит для кодирования информации. Итак, сколько информации содержит ответ на вопрос, предполагающий два вариан­та ответа — «да» и «нет»? (1 бит.) Попробуйте сделать вывод, от чего зависит коли­чество информации в сообщении. Молено сказать, что количество бит информа­ции в сообщении о событии совпадает с количеством вопросов, которые необ­ходимо задать, чтобы полностью сиять неопределенность.

Ученики записывают вывод в тетрадь:

2' — N, N— количество возможных вариантов исхода некоторого события,

i— количество бит в сообщении о событии.

Задача 1.

Если было загадано число от 1 до 16, сколько вопросов надо задать, чтобы его угадать? (4.)

Сколько информации будет получено? (4 бита.)

Задача 2.

Проводится лотерея «5 из 64». Первым вытащили шар с номером 8. Сколько информации в этом сообщении? (6 бит.)

Задача 3.

Объявляют оценки за контрольную работу. Сколько информации содержит сообщение об оценке? (Если возможных вариантов оценок — пять («5», «4», «3», «2», «1»), то 3 бита; если вариантов оценок — четыре («5», «4», «3», «2»), то 2 бита.)

Работа по карточкам в парах (группах). Вариант 1.

1. «На улице идет дождь?» — спросили вы. «Нет», —- ответили вам. Сколько бит информации вы получили?

2. Столицу Англии Лондон называют туманным Альбионом, так как, по стати­стике, из 365 дней в году 320 дней там идет дождь. Сравните количество информа­ции в сообщениях: «На улице идет дождь» и «На улице дождя нет» с точки зрения жителей Лондона.

ПОМНИТЕ, ЧТО ИНФОРМАЦИЯ НАМ НУЖНА ДЛЯ ПРИНЯТИЯ РЕШЕНИЯ!!!

Вариант 2.

1. «На улице идет дождь?» — спросили вы. «Да», — ответили вам. Сколько
бит информации вы получили?

2. В южноамериканской стране Перу есть горные районы, в которых дождя не
было около 300 лет! Сравните количество информации в сообщениях: «На улице
идет дождь» и «На улице дождя нет» с точки зрения жителей этих районов.

ПОМНИТЕ, ЧТО ИНФОРМАЦИЯ НАМ НУЖНА ДЛЯ ПРИНЯТИЯ РЕШЕНИЯ!!!

Вариант 3.

1. «Ты меня любишь?» — спросил влюбленный юноша девушку. «Да», — ответила та. Сколько бит информации содержит ее ответ?

2. Влюбленный юноша 100 раз спрашивал девушку и каждый раз получал один
и тот же ответ — «Да». Спросив в 101-й раз «Ты меня любишь?», он вдруг получил
ответ «Нет». Сколько бит информации содержит этот ответ?

ПОМНИТЕ, ЧТО ИНФОРМАЦИЯ НАМ НУЖНА ДЛЯ ПРИНЯТИЯ РЕШЕНИЯ!!!

На обсуждение и решение задач в группах отводится 2—3 минуты. Затем пред­ставители групп выступают, рассказывая о решении задач.

Учитель. Все рассмотренные нами ранее примеры имеют равновероятные ис­ходы: монета может упасть только «орлом» или «решкой» — два равновероятных исхода; задуманным может оказаться любое из 32 чисел — 32 вероятных исхода. Но всегда ли вероятность событий бывает равной? Не всегда. Попробуйте сделать вывод, от чего еще зависит количество информации в сообщении.

Таким образом, количество информации зависит не только от возможных вари­антов исхода события, но и от вероятности получения ответа. Причем чем больше вероятность события, тем меньшее количество информации в сообщении о таком событии. Вероятность — ожидаемость события. Она измеряется в долях (от 0 до 1) или в процентах.

Можно сделать вывод: количество информации зависит от вероятности события. (Учащиеся записывают вывод в тетради.)

Вернемся к нашей задаче об оценках. Одинаково ли количество информации в сообщении о разных оценках? Достигли мы цели нашего урока?

Задача 4.

Известно, что Иванов живет на улице Весенней, но неизвестно, в каком доме, — неопределенность. На сколько уменьшилась неопределенность при получении сооб­щения, что Иванов живет на четной стороне улицы? [Неопределенность уменьши­лась, но полностью не снялась.) Нельзя сказать, что неопределенность уменьши­лась вдвое, т. е. мы получили 1 бит информации. Например, на нечетной стороне улицы может быть пять домов, а на четной — всего один.

3. Тестирование

Ответы. 1 — а, 2 — 1 бит, 3 —- 4 вопроса, 4 -- 32 дома, 5 — б, 6 — в, 7 — 4 бита,

8 — б, 9 — в.

Далее проводится коррекция по результатам проверочного теста, решаются за­дачи, вызвавшие наибольшее затруднение.

Тип материала: Архив ZIP (zip)
Размер: 310.35 Kb
Количество скачиваний: 1
Просмотров: 78

Похожие материалы