Содержательный подход к измерению информации
Предмет: | Информатика |
---|---|
Категория материала: | Конспекты |
Автор: |
Киселев Александр Александрович
|
Содержание архива: конспект урока, презентация, раздаточный материал(тест).
УРОК НА ТЕМУ
«СОДЕРЖАТЕЛЬНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ»
Тема урока: Содержательный подход к измерению информации (теория информации Шеннона).
Цель урока: приобретение обучающимися теоретических знаний и практических навыков по измерению количество информации с точки зрения содержательного подхода.
ХОД УРОКА
1. Актуализация опорных знаний
Проводится фронтальный опрос, вопросы по одному выводятся на экран (см. презентацию), ответы учащихся тезисно записываются на доске.
Учитель. Ребята, давайте сегодня поговорим об измерении информации. Но сначала вспомним, что вы уже знаете о науке информатике.
Что изучает информатика? (Проблемы обработки, хранения и передачи информации.)
Что является предметом изучения информатики? (Информация.)
Что мы уже знаем об информации и что умеем делать с информацией? (Знаем, что такое информация, виды информации, свойства информации; умеем кодировать информацию, измерять информацию.)
Какую информацию мы умеем измерять? (Текстовую, графическую.)
В каких единицах измеряется информация? (Бит, байт, килобит, килобайт и т. д.)
Что означают эти единицы измерения? (Бит — один двоичный знак, 1 байт = 8 бит; сигнал ЭВМ: есть — 1, нет — 0.)
От чего зависит количество информации? (Количество текстовой информации зависит от количества символов, графической — от количества точек и количества цветов.)
Разминка на измерение информации.
На доске записаны два сообщения: «абра ка дабра» и «завтра среда». Надо определить, в каком из них информации больше.
(В первом сообщении — 13 байт, во втором — 12 байт, поэтому ученики могут ответить, что в первом.)
Учитель. Сравните количество информации в двух словах: «яблоко» и «apple».
По количеству символов в первом слове больше информации, но многие ученики могут заметить, что смысл обоих слов одинаков.
Можно попросить трех учеников задать учителю один и тот же вопрос: «Сегодня у вас есть урок информатики?» Первому ученику учитель отвечает «Да», второму — «Yes», а третьему просто кивает головой.
Полезно изобразить ответы на доске:
Да Yes +
После этого следует спросить учеников, получил ли каждый из них информацию. Ученики ответят, что да, получили. Учитель: «Сколько информации вы получили? Одинаковое ли количество в каждом случае?» После множества высказанных версий чаще всего приходим к выводу, что количество символов в ответах разное, но содержание ответов одинаково. Возникает проблема: как измерить полученное количество информации?
Учитель. Давайте вспомним, для чего нам нужна информация? (Для принятия решения.) Какое из сообщений - - «абра ка дабра» и «завтра среда» — больше повлияет на принятие вами решения? (Большинство учащихся, как правило, отвечает, что второе.) Значит ли это, что во втором сообщении информации больше? От чего зависит объем информации? {От новизны информации, от ее полезности.) Итак, если учитывать смысл сообщения, то информации больше во втором сообщении, если учитывать только количество знаков, то в первом.
2. Изучение нового материала
Учитель. Мы уже умеем вычислять количество информации в специальных единицах измерения с технической точки зрения, как в ЭВМ. Давайте научимся измерять количество информации с точки зрения содержания информации. Итак, тема сегодняшнего урока — «Содержательный подход к измерению информации»
В истории информатики имя американского ученого Клода Шеннона занимает одно из самых главных мест. Он является основоположником математической теории информации, появившейся в 30-х гг. XXв.
Историческая справка. Шеннон (Shannon) Клод Олвуд (р. 30.4.1916, Гейлорд, шт. Мичиган, США) — американский ученый и инженер, один из создателей математической теории информации, с 1956 г. — член национальной Академии наук США и Американской академии искусств и наук. Окончил Мичиганский университет (1936). В 194]—1957 гг. — сотрудник математической лаборатории компании «Белл систем». С 1957 г. ----- профессор электротехники и математики Массачуеетского технологического института. Основные труды но алгебре логики, теории релейно-контактных схем, математической теории связи, информации и кибернетике. (См.: Работы по теории информации и кибернетике. М., 1963.)
Учитель. Прочитайте определение информации Клода Шеннона.
«Информация как снятая неопределенность»
Клод Шеннон
Учитель. Как вы понимаете это определение? Что означает «неопределенность»? Приведите синонимы этого слова. (Неизвестность, незнание и т. д.) А что означает «снятая неопределенность»? Под «информацией» Клод Шеннон понимал не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неизвестность (неопределенность). Итак, вы сказали, что информация нужна для принятия решения. Какого решения? (Правильного, для достижения поставленной цели.) Можно ли измерить, сколько информации нужно для принятия правильного решения? Сколько нужно информации, чтобы снять неопределенность, незнание?
Пример 1.
Я не знаю, есть ли на улице дождь, неопределенность. Я вас спрашиваю, есть ли на улице дождь. Когда я получу ответ, моя информация об окружающем мире увеличится? На сколько? Если вы ответили «да»? (Увеличилась.) Если вы ответили «нет»? (Тоже увеличилась.) На сколько? (Иногда учащиеся могут ответить, что «да>> — 2 байта, «нет» - - 3 байта, тогда учитель может привести пример английских вариантов этих слов: «yes» - 3 байта, «по» — 2 байта. Полезно обратить внимание на то, что просто кивок головы может полностью снять существующую неопределенность, а значит, содержать информацию.) Одинаковое ли количество информации в этих двух ответах?
Есть дождь?
Да Нет
Пример 2.
Я подброшу монетку, и она упадет или «орлом», или «решкой». Неопределенность? Сколько информации содержит сообщение о том, какой стороной упала монетка?
Орел?
Да Нет
Получение информации (ее увеличение) одновременно означает увеличение знания, что, в свою очередь, означает уменьшение незнания или информационней неопределенности.
Пример 3.
Книга лежит на одной из двух полок — верхней или нижней (неопределенность). Во сколько раз уменьшится неопределенность после сообщения о том, что книга лежит на верхней полке? (Ровно в 2 раза.) Неопределенность снимается полностью?(Да.) На данный вопрос существует только два варианта ответа.
Верхняя полка?
Да Нет
Можно ли закодировать варианты ответа двоичными цифрами и измерить количество информации? А если полок четыре? Тогда один вопрос уменьшит неопределенность, но не снимет ее полностью.
Игра-пример.
Учитель. Загадайте любое целое число от 1 до 32. (Кто-то из ребят пишет число на доске, учитель может выйти из класса или стоять спиной к доске, лицом к детям.) Считайте, сколько вопросов я задам для отгадывания числа. Ответ на мой вопрос должен быть «да» или «пет».
Для отгадывания достаточно 5 вопросов.
Можно повторить игру еще раз или пригласить вызвавшегося отгадывать ученика.
Учитель. Каждый ответ на вопрос снимает (уменьшает) неопределенность в 2 раза. После 5 вопросов можно отгадать задуманное число — неопределенности не осталось. Сколько всего чисел? (32.) Нет ли какой-нибудь связи между числами 2, 5, 32? (32 = 25.) В простейшем случае выбор одного из двух сообщений («да» или «нет», 1 или 0) принимают за единицу измерения информации — бит, двоичную цифру. То есть мы используем двоичный алфавит для кодирования информации. Итак, сколько информации содержит ответ на вопрос, предполагающий два варианта ответа — «да» и «нет»? (1 бит.) Попробуйте сделать вывод, от чего зависит количество информации в сообщении. Молено сказать, что количество бит информации в сообщении о событии совпадает с количеством вопросов, которые необходимо задать, чтобы полностью сиять неопределенность.
Ученики записывают вывод в тетрадь:
2' — N, N— количество возможных вариантов исхода некоторого события,
i— количество бит в сообщении о событии.
Задача 1.
Если было загадано число от 1 до 16, сколько вопросов надо задать, чтобы его угадать? (4.)
Сколько информации будет получено? (4 бита.)
Задача 2.
Проводится лотерея «5 из 64». Первым вытащили шар с номером 8. Сколько информации в этом сообщении? (6 бит.)
Задача 3.
Объявляют оценки за контрольную работу. Сколько информации содержит сообщение об оценке? (Если возможных вариантов оценок — пять («5», «4», «3», «2», «1»), то 3 бита; если вариантов оценок — четыре («5», «4», «3», «2»), то 2 бита.)
Работа по карточкам в парах (группах). Вариант 1.
1. «На улице идет дождь?» — спросили вы. «Нет», —- ответили вам. Сколько бит информации вы получили?
2. Столицу Англии Лондон называют туманным Альбионом, так как, по статистике, из 365 дней в году 320 дней там идет дождь. Сравните количество информации в сообщениях: «На улице идет дождь» и «На улице дождя нет» с точки зрения жителей Лондона.
ПОМНИТЕ, ЧТО ИНФОРМАЦИЯ НАМ НУЖНА ДЛЯ ПРИНЯТИЯ РЕШЕНИЯ!!!
Вариант 2.
1. «На улице идет дождь?» — спросили вы. «Да», — ответили вам. Сколько
бит информации вы получили?
2. В южноамериканской стране Перу есть горные районы, в которых дождя не
было около 300 лет! Сравните количество информации в сообщениях: «На улице
идет дождь» и «На улице дождя нет» с точки зрения жителей этих районов.
ПОМНИТЕ, ЧТО ИНФОРМАЦИЯ НАМ НУЖНА ДЛЯ ПРИНЯТИЯ РЕШЕНИЯ!!!
Вариант 3.
1. «Ты меня любишь?» — спросил влюбленный юноша девушку. «Да», — ответила та. Сколько бит информации содержит ее ответ?
2. Влюбленный юноша 100 раз спрашивал девушку и каждый раз получал один
и тот же ответ — «Да». Спросив в 101-й раз «Ты меня любишь?», он вдруг получил
ответ «Нет». Сколько бит информации содержит этот ответ?
ПОМНИТЕ, ЧТО ИНФОРМАЦИЯ НАМ НУЖНА ДЛЯ ПРИНЯТИЯ РЕШЕНИЯ!!!
На обсуждение и решение задач в группах отводится 2—3 минуты. Затем представители групп выступают, рассказывая о решении задач.
Учитель. Все рассмотренные нами ранее примеры имеют равновероятные исходы: монета может упасть только «орлом» или «решкой» — два равновероятных исхода; задуманным может оказаться любое из 32 чисел — 32 вероятных исхода. Но всегда ли вероятность событий бывает равной? Не всегда. Попробуйте сделать вывод, от чего еще зависит количество информации в сообщении.
Таким образом, количество информации зависит не только от возможных вариантов исхода события, но и от вероятности получения ответа. Причем чем больше вероятность события, тем меньшее количество информации в сообщении о таком событии. Вероятность — ожидаемость события. Она измеряется в долях (от 0 до 1) или в процентах.
Можно сделать вывод: количество информации зависит от вероятности события. (Учащиеся записывают вывод в тетради.)
Вернемся к нашей задаче об оценках. Одинаково ли количество информации в сообщении о разных оценках? Достигли мы цели нашего урока?
Задача 4.
Известно, что Иванов живет на улице Весенней, но неизвестно, в каком доме, — неопределенность. На сколько уменьшилась неопределенность при получении сообщения, что Иванов живет на четной стороне улицы? [Неопределенность уменьшилась, но полностью не снялась.) Нельзя сказать, что неопределенность уменьшилась вдвое, т. е. мы получили 1 бит информации. Например, на нечетной стороне улицы может быть пять домов, а на четной — всего один.
3. Тестирование
Ответы. 1 — а, 2 — 1 бит, 3 —- 4 вопроса, 4 -- 32 дома, 5 — б, 6 — в, 7 — 4 бита,
8 — б, 9 — в.
Далее проводится коррекция по результатам проверочного теста, решаются задачи, вызвавшие наибольшее затруднение.
Тип материала: | Архив ZIP (zip) |
---|---|
Размер: | 310.35 Kb |
Количество скачиваний: | 1 |