Автор: Администратор
Евразия Категория: Древняя Русь
Просмотров: 3867

 

1. 2. Информация – фундаментальное понятие новой познавательной модели

Прежде чем перейти к дальнейшему исследованию нашего предмета, необходимо рассмотреть вопрос о природе и сущности информации, ее месте в нестабильной картине мира, связи с системным развитием и процессами идентификации. Рассмотрим, как теория информации способствовала изменению представлений о человеческой деятельности.

Стоит обратить внимание на следующий факт. Вышедшая в 1952 г. энциклопедия «Британика» не содержала понятий «информация», «коммуникация», «управление», которые сейчас распространены во всех сферах человеческой деятельности.

Впервые понятие информации вводится в связи с развитием теории систем, а именно в связи с необходимостью оценки соотношения детерминизма и неопределенности. Это не случайно: сама сущность информации связана со становлением систем. Понятие информации начинает использоваться в термодинамике, в частности в знаменитой не только среди естественников гипотезе Дж. К. Максвелла. Основными уроками так называемого «демона Максвелла» стали утверждения, что для управления необходима информация и модель; информация не существует независимо от материи и энергии и определяется через уровень энтропии.

Таким образом, введенная в науку взаимосвязь «энтропия - информация» позволяла качественно оценить соотношение детерминизма и неопределенности в системе. Информация была противопоставлена энтропии. Итак, с самых первых попыток определения информации стало ясно, что она связана с такими понятиями, как организация, порядок, определенность. Информация – то, что противостоит неопределенности. Принято считать, что впервые в науке было представлено структурное определение информации. Информация – показатель состояния любой системы. В основе ее функционирования лежит информация, характеризующая детерминированность связей элементов системы. Степень детерминированности системы может быть оценена информацией, а уровень недетерминированности – величиной, ей противоположной – энтропией. (М. Бриллюэн, Р, Хартли, К. Шеннон).

В дальнейшем понятие информации начинает употребляться во многих областях науки и, прежде всего, в квантовой механике. Итак, в развитии теории информации, в признании неопределенности и разнообразия как фундаментальных свойств человеческого мира и познания немалую роль сыграли теория Максвелла, показавшая случайную природу явлений, невозможность решать многие вопросы в рамках замкнутой Вселенной, открытие неоднородности и неоднозначности интерпретаций времени в работах Э. Гуссерля, М. Хайдеггера, А. Бергсона. Как следствие в теоретической физике, механике, математике сложилось научное направление стохастической динамики (А. Пуанкаре, А. Н. Колмогоров, Н. Винер, Л. Понтрягин и др.). Впоследствии основные положения этого научного направления используются в кибернетике. В частности, взаимосвязь «энтропия-информация» была востребована в кибернетике довольно быстро. В кибернетике понятие информации существенно усложнилось. Было использовано не только структурное определение информации, но и исследовались ее преобразования. Классическим считается определение Винера: информация – обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления наших чувств [21]. Этот тезис свидетельствовал о том, что всякая жизнедеятельность, познание связаны с информацией, которая определенным образом фиксируется в знаковых системах и потенциально становится общественным достоянием. Само понятие информации включает в кибернетике уже характеристики систем и показывает ее преобразования. Информация имеет принципиальное значение для всех процессов адаптации и управления (Н. Винер). В основу построения любой управляемой системы положена информация и соотношение энтропии и информации – фактор ее функционирования. Если информация равна нулю, система не управляема. В кибернетике был сделан вывод о том, что построение модели управляемой системы предполагает идентификациювыделение системы из числа подобных. Согласно определению Шеннона, информация – выбор альтернатив. Об информации можно говорить, когда система находится в одном из возможных состояний.

Следующим шагом в исследовании сущности информации стали работы Р. Эшби и С. Маккаллока. Исследователи показали возможность построения множества различных информационных моделей для адекватного оценивания состояний одной и той же системы. У. Р. Эшби в связи с этим развил новое понимание информации: «Теория информации изучает процессы передачи разнообразия по каналам связи, причем информация не может передаваться в большем количестве, чем это позволяет количество разнообразия» (выделено нами М.З.) [22].

Признание разнообразия и множественности математических и логических моделей было показано и в знаменитой теореме К. Геделя (К. Госс – Г. Фреге – А. Уайтхед – Б. Рассел – Д. Гилберт – К. Гедель). Характерно, что именно эта теорема легла в основу построения математической модели компьютера британского логика А. Тьюринга.

Итак, уже к середине XX века была отмечены значение многозначности моделей и возможность их различных интерпретаций.

С середины 60- х , в начале 70-х годов появляются работы исследователей, занимающихся философской интерпретацией информации (Б. Бирюков, И. Новик, Л. Петрушенко, В. Тюхтин, Б. Украинцев, А. Урсул). Уханов В. А. отмечает, что в сферу философского мышления включаются: проблема информационной основы мышления (Л. Баженов, Д. Дубровский, А. Кочергин, С. Шалютин, Ю. Шрейдер), проблема информации в сфере науки (Э. Бернштейн, Р. Гиляровский, В Налимов, А Черный, Э. Шапиро), информации и кибернетики мозга (Коган А. Б., Чораян О. Г.). В зарубежной науке ведущие социологи, экономисты приходят к выводу о возможности наступления нового социального этапа, связанного с информационной деятельностью (Д. Белл, З. Бжезинский, К Койяма,.И. Масуда, Ф. Махлуп, А. Тоффлер и др.). Проблемой информации занимаются: отечественные авторы (А. В. Айламазян, В. Г. Афанасьев, В. И. Глушков, В. З. Коган, А. И. Колмогоров, П. С. Поспелов, Е. В. Стась, А. И. Суханов, В. Ф. Сухотин, А.Д. Урсул) и зарубежные авторы (Дж. Бенигер, Х. Брэнсон, Л. Бриллюэн, И. Вейс, Н. Винер, Г. Лассуэл, Х. Найксвит, В. Хагемон, Р.Хартли, Т. Хелви, К. Шеннон, Р. Фишер, У. Р. Эшби).

При появлении средств вычислительной техники, возможностей решения проблем передачи информации, при обсуждении проблем искусственного интеллекта стало ясно, что во всех информационных системах сам способ представления информации и ее обработки имеет синтаксическую и семантическую природу. Каждый язык имеет информационную основу и демонстрирует разнообразие отражения одних и тех же явлений. Язык стал той структурой, которая вывела человека из мира животных в совершенно иной мир, закрепив программирование через взаимообмен. Этому способствовали такие свойства языка, как уникальная структура для кодирования и раскодирования информации (Дж. Смит, Б. Хукер, М. Кониши), богатая синтаксическая и семантическая структура – отсылка к месту и времени, наличие глаголов, существительных, связок. В языке воспроизводится коллективная реальность и становится возможной мобилизация индивидуальной активности.

Итак, информация – сложное явление, объемная по смыслу категория. Этим обстоятельством объясняется множество определений информации. Для дальнейшего анализа мы выбираем определение У. Р. Эшби. Именно его наиболее емкое представление информации позволит проследить взаимосвязь информационных и других социальных процессов, в том числе и идентификации.

Не будем вдаваться в глубину исследования информации. Выделим только три ее важнейших свойства:

  1. Информация - оценка структурного состояния любой системы в части соотношения детерминизма и неопределенности.
  2. Информация используется для отображения разнообразия в любой системе, где возникает необходимость целеориентированных действий, для управления. Живая система адаптивно вырабатывает оптимальное соотношение энтропии и информации в процессе эволюции. Информация порождается все возрастающей сложностью самоорганизующейся системы.
  3. Информация в ходе ее производства или использования может преобразовываться, т.к. в ходе ее преобразования имеют место такие явления, как потеря информации и новая ее интерпретация.

Отмеченные выше обстоятельства показывают, что само понятие информации вошло в науку в связи с объяснением закономерностей эволюции систем.