Scientific journal
Modern problems of science and education
ISSN 2070-7428
"Перечень" ВАК
ИФ РИНЦ = 1,006

PHILOSOPHICAL CONTENT OF THE INFORMATION CONCEPT: CRITICAL ANALYSIS

Bondarenko I.A. 1 Gidlevskiy A.V. 1
1 Federal State Budget Educational Institution of Higher Professional Education "Dostoyevsky Omsk State University"
What is normally called the theory of information refers to the so-called statistical theory of information and respective quantitative characteristics. The general information concept suitable for living systems must be intelligible as memorized. The actual issue here is structure modeling of the memorized things. In philosophical discourse two basic information concepts can be marked out. According to one of them, information is supposed to be characteristic for societies, living creatures and computing machines. The supporters of the second theory consider information to be the feature of all material systems. The authors of the paper analyze information in terms of memory. However, nowadays there are no effective models to calculate the quantity of information on different levels of memory in living systems. For the models of non-living systems the quantity of information is easy to calculate due to their simplicity.
information
reflected diversity
memory
information structures
consciousness
thinking
reflection
knowledge
Современная дискуссия по поводу информации имеет одну существенную черту - это попытки неспециалистов в области теории информации и когнитивной психологии заполнить своими рассуждениями поле интерпретаций данного понятия. Содержание понятия информации в различных сферах рассуждений о ней существенным образом отличается. Так, например, в физике, которая будет нас интересовать в данной статье в минимальной степени, информация часто определяется через другое понятие - энтропию, которая в той же физике определяется по-разному. Для того, чтобы философ понял, что такое энтропия, ему необходимо ознакомиться с термодинамикой, статистической физикой, да и математикой, в которой отыщется немалое количество энтропий. Философов, способных усвоить с десяток научных дисциплин на достаточном уровне, не существует. Поэтому мы не можем рекомендовать философам определять понятие информации посредством энтропии, сообразуясь еще и с тем, что один из авторов статьи, кроме философской степени, имеет за плечами степень к.ф-м.н и десятки лет преподавания физики на физическом факультете вуза. Возможно, чтобы облегчить участь философов в плане усвоения понятия информации, ряд энтузиастов от науки советует определять информацию через неопределенность, что еще больше запутывает проблему, поскольку само понятие неопределенности носит в работах исследователей очень уж неопределенный смысл и нередко определяется через статистическую энтропию, в которой «стандартный» философ мало что понимает.

В дальнейших наших рассуждениях будем определять информацию в системе как запомненное и ограничимся живыми системами, а точнее системами, обладающими естественным интеллектом. Интеллект, вслед за Л.С. Цветковой, определим как совокупность познавательных функций [7, с. 300]. Похожее понимание интеллекта присутствует также у П. Линдсея, Д. Нормана, Ж. Пиаже, Ю. Конорского, М.А. Холодной и др. Запомненным будем называть содержание памяти, а памятью - совокупность функций по возбуждению, сохранению (пусть даже на очень короткое время) и переработке (видоизменению) нейронной активности. Сознанием назовем рабочую память, «которая удерживает обрабатываемый материал и оперирует с ним» [1, с. 52]. Процедуры принятия решений - мышление. Информацию мы могли бы называть знаниями, и это было бы правильнее, но, к сожалению, по ряду причин более распространен термин «информация», хотя очевидно, что термины «сознание» и «информация» являются излишними и без них прекрасно можно было бы обойтись, поскольку они лишь запутывают проблемы, связанные с функционированием баз знаний естественных интеллектуальных систем. Но поскольку всё же термин «информация» широко используется в философском и научном дискурсе, мы также будем его применять, подразумевая основную цель такого применения - возможность измерения информации посредством информационных единиц, алфавитов, кодов и др.

Классическими философскими работами по проблемам информации по праву считаются работы А.Д. Урсула. «В рассмотрении экстенсивной характеристики понятия информации существуют сейчас в основном две концепции. Согласно одной из них предполагается, что информация свойственна лишь обществу, живым существам и кибернетическим устройствам... Сторонники другой концепции... считают, что информация присуща и объектам неживой естественной природы» [6, с. 12]. А.Д. Урсул предлагает определить информацию как отраженное разнообразие: «Определение понятия информации как отраженного разнообразия выступает как единство объективного и логико-гносеологического аспектов» [6, с. 45]. Под разнообразием автор понимает количество различий. Но данное количество зависит от метода подсчета и поэтому не может служить однозначным определителем количества информации, в особенности для живых систем. А.Д. Урсул говорит также: «Отражение есть везде, это всеобщее свойство материи, поэтому, считая, что там, где есть отражение, есть и информация, мы должны признать и неразрывную связь отражения и информации» [6, с. 154]. Тогда возникает вопрос: где информация, например, при отражении света от зеркала? В чем она содержится? В свете? В зеркале? И из чего она «сделана»? Мы бы очень затруднились дать ответы на эти вопросы. И еще один вопрос: А.Д. Урсул утверждает, что «...в самой объективной действительности информация и отражение не находятся в отношении субординации...» [6, с. 155]. Мы понимаем это так, что нет ответа на вопрос, является ли информация причиной отражения или наоборот. Кроме того, по нашему мнению, данное утверждение противоречит определению информации как отраженного разнообразия, согласно которому информация - результат отражения.

Неплохой обзор определений понятия информации представлен в работе Д.С. Чернавского [8]. Рассматривая проблему информации, Д.С. Чернавский близко подошел к рассмотрению проблемы энтропии и информации с позиций памяти. Это один их немногих исследователей, которые почти смогли выйти из противоречий, возникающих при плюралистичном, эклектичном подходе к информации. В частности, он рассматривает вопрос о ценности информации как вопрос о структуре памяти, а точнее - о ее организации. «Во-первых, стал исследоваться вопрос об эволюции информации, в частности, биологической. Проблема происхождения жизни вступила в новую фазу; теперь она формулируется как проблема спонтанного возникновения новой ценной биологической информации» [9, с. 3]. По мнению Д.С. Чернавского, информация «есть выбор одного варианта (или нескольких) из многих возможных и равноправных» [10, с. 4]. Мы бы не стали настаивать на условиях равноправности и сказали бы, что информация представляет собой запомненный, зафиксированный на какое-то время выбор - состояние системы, алгоритм поведения. Если программа поведения в каких-либо условиях не имеет альтернативы, то есть в данный момент выбор отсутствует, то, по мнению Д.С. Чернавского, нет и информации. Для живых систем это не совсем так, поскольку выбор для них - многоступенчатая операция. Выбор, который сегодня безальтернативен (безусловные рефлексы), в прошлом формировался посредством выбора из нескольких альтернатив в процессе естественного отбора нынешнего единственно правильного безальтернативного выбора. Некоторой аналогией может служить формирование навыка. Когда навык еще отсутствует, индивид выбирает между возможностями до тех пор, пока навык не будет сформирован - не будет сделан выбор в пользу единственной программы, либо, в общем случае, нескольких программ.

Как указывает Э.М. Сороко, «проблема информации поставлена и исследуется ныне в двух аспектах: структурном (атрибутивном) и функциональном» [4, с. 144]. Точка зрения данного автора на функциональную (свободную) и структурную (связанную) информацию сводится к следующему: «Фигурирующая, с одной стороны, в качестве функциональном, а с другой - в качестве структурной субстанции систем информация обозначается как свободная (свободно циркулирующая) и связанная, «осевшая» в структурах систем, представляющая их внутреннее ограниченное разнообразие. Свободная информация - это «поток разнообразия», воздействующий на данную структуру, порожденный в ней же или вне ее и обеспечивающий «подпитку» связанной информации» [4, с. 144]. Что такое поток разнообразия, свободная и связанная информация, подпитка связанной информации и др. в тексте данной работы, к сожалению, не разъясняется. Но из текста видно, что, по мнению Э.М. Сороки, существует субстанция - информация в двух видах - свободном и осевшем. «Информация является нематериальным объектом. Она инвариант структур объективного мира и далеко не относится к числу простых и очевидных» [4, с. 147]. Постулирование информации как инварианта структур объективного мира есть, на наш взгляд, не что иное, как трансцендирование информации, вынос ее в превращенной, неопределенной форме в мир эйдосов. Предыдущее высказывание Э.М. Сороки связано с другим его утверждением: «Структурное разнообразие элементов... не зависит от того, фиксирует его какой-нибудь субъект познания, извлекая из него для себя информацию, или нет. Оно существует объективно» [4, с. 147]. Как мы уже видели выше - в виде «инварианта структур объективного мира», то есть, фактически, в виде платоно-аристотелевых формо-эйдосов.

К позиции Э.М. Сороки близка позиция М. Янкова. Основная идея данного автора - несиловое взаимодействие как «попытка критики идеалистических интерпретаций понятия информации» [10, с. 276]. Данный автор является фактически сторонником доктрины информации как трансцендентной сущности. «Современная физика в лице квантовой теории открыла особый тип связи, которая не сводится к силовому взаимодействию... Вот эта-то неизвестная естествознанию XIX в. связь, или несиловое взаимодействие, и лежит в основе тех явлений, которые описываются понятиями отражения и информации» [10, с. 279]. Для доказательства своей правоты М. Янков апеллирует к синергетике, утверждая, что «кооперативные процессы, порядок, самоорганизацию нельзя сколь-нибудь адекватно представить без учета несиловых, информационных взаимодействий, находящихся в отношении дополнительности с взаимодействиями силовыми» [10, с. 284]. По-видимому, он рассчитывает на то, что далеко не все интересовались данной «экзотической» наукой, поскольку серьезные исследователи не привлекают для решения проблем синергетики «несиловые взаимодействия».

Проблема информации и ее измерений, в том числе и в живых системах, не так уж трудна для решения и не представляла бы для нас особого интереса, если бы ни некоторые ее расширения со стороны философов. Так, например, А.Г. Спиркин эмоционально убеждает студентов и философов в существовании единого энергоинформационного поля: «Все в мире находится в непосредственном или удаляющемся в бесконечность опосредствованном взаимодействии всего со всем - все несет информацию обо всем. Напомним в этой связи о глубоком прозрении древних: все во всем! Это предполагает универсальное информационное поле мироздания, которое является всеобщей формой связи, формой универсального взаимодействия и тем самым единства мира: ведь все в мире «помнит» обо всем! Это вытекает из принципа отражения как всеобщего свойства материи. Образно говоря, каждая точка универсального поля есть живое зеркало Вселенной» [5, с. 144].

Подробно обсуждается «энергоинформационная» идея также и А.А. Силиным [3]. Его концепция фактически повторяет приведенную выше космо-теософскую, но уже в иной, современной терминологии. Суть ее заключается в следующем: «Напрашивается мысль, что неуемный рост энтропии в природе компенсируется производством информации» [3, с. 60]. Следует сказать, что мысль не нова - данная идея подробно обсуждается, например, в работах Л. Бриллюэна и Е.А. Седова. Дальнейшее развитие концепции А.А. Силина уже выходит за пределы классической информационной концепции названных ученых и сводится к доктрине единого информационного поля: «Возникшая единожды информация становится уже нетленной, подобно рукописям, которые "не горят". Точнее, в природе сохраняются каким-то чудом не сами рукописи, а содержащаяся в них оригинальная информация. И это относится ко всякой реалии, начиная с любого неодушевленного предмета и кончая человеком - наиболее сложным из известных нам существ» [3, с. 61]. На собственный вопрос о том, где и как сохраняется информация, А.А. Силин отвечает: «Дадим пока самый общий ответ: в информационном отображении (ИО), присущем любой реалии» [3, с. 61]. И далее: «Так мы делаем следующий принципиальный шаг: переходим от традиционной двуединой картины мира (материя и дух) к триединству нашего бытия (материя, дух и информация). При этом... информация возводится в ранг базовой сущности этого мира» [3, с. 61].

Теософской концепции духа-информации не чураются и современные философы. Так, например, читаем: «Онтологически ложь есть эпифеномен Большого Взрыва, слышимость содрогания, испытываемого материей, когда ее пронизывает Дух в творческом акте». И далее: «Эхо-эффект творения, слышимый человеком благодаря особому устройству его слуха, накладывается на прямой голос Бога» [2, с. 35]. Как видим, ложь вместе с материей созданы Богом. Но если ложь возникла в процессе Большого взрыва, который учинил Господь, то также хотелось бы узнать, на каком этапе данного пиротехнического случая это произошло. А так же как данное побочное явление выглядело, из чего сделано, где и какой объем занимало и занимает сейчас? Какой модели Большого взрыва соответствует? И какому варианту инфляционного сценария? Поскольку возможно, что Больших взрывов немало, то при каждом ли Большом взрыве возникает побочное явление (эпифеномен), ныне носящий название лжи? Ответы на подобные вопросы и есть онтология (разъяснение причин). Реликтовое излучение - также эпифеномен Большого взрыва. Но причины его возникновения и поведения разъясняются в популярной литературе для школьников. Таким образом, по мнению
А.К. Секацкого, ложь - это не слово, придуманное людьми для обличения негодяев, а составляющая мира - идеальная информационная сущность - эйдос. Однако заметим, что в наше время о существовании эйдосов серьезные философы не говорят даже в шутку.

Заключение

Существуют две основные философские концепции «размещения» информации. Согласно одной из них, информация свойственна лишь обществу, живым существам и вычислительным машинам. Сторонники другой концепции считают, что информация является свойством вообще всех материальных систем. Ряд исследователей считает, что информация представляет собой субстанцию, которая может перетекать из одних объектов в другие, а также в голову человека и обратно. Мы придерживаемся иной точки зрения, которая сводится к следующему. Естественный интеллект формирует «внутри себя» информацию как психические структуры (виды нейронной активности), носящие названия кодов, программ, алфавитов и др. Интеллектуальная система «сжимает» содержание памяти на том или ином уровне обобщений, заменяет одни коды другими. Определение памяти как способности систем получать, хранить и перерабатывать информацию - это в значительной степени метафора. Системы хранят изменения, которые могут быть названы словом «информация» - изменение (придание) формы. Сегодня отсутствуют эффективные модели вычислений количества информации на различных уровнях памяти живых систем. Для моделей неживых систем, в силу их простоты, количество информации легко вычислимо.

Рецензенты:

Зайцев П.Л., д.ф.н., профессор, декан социально-гуманитарного факультета ОмГУ им. Ф.М. Достоевского, г. Омск.

Филатов В.И., д.ф.н., заслуженный профессор ОмГУ им. Ф.М. Достоевского, г. Омск.