Понятие информации

Понятие информации тесно связано с понятием антиэнтропии (негэнтропии). Введение понятия негэнтропии (П. Бриллюэн) вызвано следующим. На основе изложенного выше следует, что необходимым условием превращения неопределенной системы в определенную является поступление информации Причем количество информации должно быть равным по величине неопределенности (энтропии) системы. Поэтому информация количественно является величиной как бы обратной энтропии, т. е. антиэнтропией. Под энтропией в теории информации понимается неопределенность, которая бывает при распознании человеком того ил иного предмета объективного мира в процессе опыта (в широком смысле слова). Так, отсутствие у водителя полной уверенности в том, что в следующий момент движения появится заранее известный элемент либо создастся заранее известная обстановка, вносит неопределенность в его действия по управлению автомобилем, т. е. в этом случае имеет место явление энтропии. Физические системы, выполняющие ту или иную работу, можно условно рассматривать как машины, предназначенные для хранения и переработки информации.

В частности, один из элементов транспортной системы дорога хранит информацию, обусловливающую эффективность работы всей системы в целом. Количество информации, которое может содержать данный элемент, называют информационной емкостью элемента. Информационная емкость физической системы возрастает с числом различных состояний, в которые она может переводиться. Например, фрагмент дорожной обстановки, попавший в поле зрения водителя в любой момент движения, содержит значительное количество объектов, каждый из которых может оказаться любым элементом ландшафта, характерным для данного района. Следовательно, количество состояний элементов (объектов) дорожной обстановки и ее фрагментов будет выражаться чрезвычайно большим числом (примерно 2030).