группе n
1 участников владеют суммой M
1, а в другой — n
2 участников располагают общей денежной массой M
2. Средние значения m
1 = M
1/n
1 и m
2 = M
2/n
2 характеризуют абсолютную температуру рынков. Через какое-то время суммарная система придет к равновесию, и мы получим одну группу с числом участников n = n
1 + n
2 и с денежной массой M = M
1 + M
2. Отсюда можно найти температуру комплексной системы, она будет равна
Если вы помните, именно так вычисляется температура, получающаяся, например, при смешивании двух объемов воды, нагретых по-разному. Так что аналогия среднего достатка и температуры вполне пригодна для использования.
Завершим мы рассказ о температуре рынка еще одним примером, в котором эта концепция совпадает по смыслу с физической величиной. Представьте себе, что наша система становится открытой и может выпускать членов группы, набравших определенную денежную сумму. Иными словами, разрешим богачам, как говорится, «линять» из системы, прихватив с собой «золотой парашют». Что мы должны наблюдать? По мере исчезновения самых богатых количество денег в группе станет убывать. Если бы из нее могли выбывать любые участники, то средний достаток практически не менялся бы из-за одинакового уменьшения как количества участников, так и общей денежной массы. Но, поскольку по нашим правилам выбывают именно богатые, будет убывать и средний уровень благосостояния, а это приведет к тому, что температура нашего рынка станет падать.
Описанный процесс очень похож на остывание жидкости при испарении: помните, как охлаждает руку тонкий слой спирта, наносимый врачом перед уколом? Молекулы, толкая друг друга случайным образом, могут какой-то из них придать такой импульс, что она окажется в состоянии преодолеть общее притяжение и покинуть систему, унеся при этом и энергию, подаренную ей соседями. В «холодной» рыночной системе возрастает доля бедных по сравнению с «горячей», так что остающимся в группе участникам этот процесс не сулит ничего хорошего.
Постигаем Дао энтропии
Осталось разобраться с равновесностью итогового состояния рынка. Термодинамическое равновесие можно описать разными способами. Во-первых, равновесным должно быть стационарное состояние, в котором система может находиться неограниченно долго, не изменяя своих макроскопических параметров и не образуя внутри себя упорядоченных потоков вещества и энергии. Во-вторых, такое состояние должно быть устойчивым: если вывести систему из него, она будет стремиться к нему вернуться. В-третьих, оно соответствует наиболее вероятному состоянию системы из всех возможных. Оно чаще наблюдается, и система со временем будет стремиться попасть в устойчивое равновесие из любого другого состояния.
Наш эксперимент демонстрирует все эти критерии равновесности: придя к экспоненциальному распределению, система в нем и остается. К тому же в эксперименте легко убедиться, что из любого произвольного распределения мы по истечении какого-то времени снова придем к экспоненциальному. Но это еще не доказательство, а только намек, что мы, скорее всего, имеем дело с равновесием. Нужен формальный измеримый критерий, который однозначно укажет нам, что система равновесна, без необходимости ждать бесконечно долго или перебирать все возможные первоначальные распределения. Это был бы полезный критерий, который допустимо применять и к реальному рынку — без необходимости проводить рискованные эксперименты на живых людях.
Размышления о равновесии привели физиков к одному фундаментальному понятию, о котором слышали, наверное, все, но объяснить и тем более с толком использовать способны немногие, — энтропии. Она постепенно вышла за пределы термодинамики и так понравилась ученым всех направлений, философам и даже широкой публике, что это сугубо термодинамическое понятие получило нынче ореол загадочности, непостижимости и бог знает еще чего. Простое и специальное, в сущности, понятие приобрело в сознании широких масс репутацию необъяснимо управляющей миром концепции. Это связано с тем, что термодинамика описывает на очень высоком уровне абстракции системы самой разной природы: от физических, химических и биологических до социальных, экономических и даже чисто гуманитарных. После школьного курса, правда, остается ощущение, что термодинамика — это про скучный идеальный газ, какие-то поршни и невозможный цикл Карно. Такое однобокое представление связано с тем, что термодинамика, будучи одним из самых абстрактных и универсальных разделов естествознания, элегантно решает прикладные задачи, которые могут быть поняты школьниками и при этом оказаться полезными в промышленности. Этого не скажешь, например, о теории категорий или топологии — тоже весьма абстрактных, универсальных и, несомненно, полезных дисциплинах, но в повседневных задачах почти не встречающихся.
Итак, на сцену выходит энтропия. Создателю термодинамики Рудольфу Клаузиусу (1822–1888), а позже физикам Джозайе Гиббсу (1839–1903) и Людвигу Больцману (1844–1906) потребовалась количественная характеристика равновесности, которая говорила бы о вероятности наблюдать указанное состояние системы или ее частей. Причем эта величина, которая отражает вероятность, мультипликативную для ансамбля, должна быть аддитивной функцией состояния, чтобы можно было вычислить ее для системы, складывая установленные значения ее частей. Когда мы искали подходящую функцию для распределения Гиббса, мы исходили из того, что она должна превращать аддитивный аргумент в мультипликативное значение. При поиске выражения для энтропии мы нуждаемся в функции, мультипликативной по аргументу и аддитивной по значению:
f(ab) = f(a) + f(b).
Это функциональное уравнение решает логарифмическая функция, обратная показательной. Энтропия состояния сложной системы может быть выражена как ожидаемое значение для логарифма вероятности наблюдения состояния всех ее частей, или, по Больцману, как логарифм числа способов, которыми можно реализовать это состояние системы. При этом более вероятному состоянию соответствует большее значение энтропии, а равновесному — максимальное из возможных.
Число способов, которыми можно реализовать то или иное состояние, зависит от числа ограничений или условий, при которых это состояние может реализоваться. Чем их меньше, тем более вероятно состояние и тем выше значение его энтропии. Эти ограничения и условия имеют смысл информации о состоянии. Отсюда возникла идея о том, что энтропия отражает степень нашего незнания о системе: чем меньше нам о состоянии известно, тем больше его энтропия. Позже Клод Элвуд Шеннон (1916–2001) обобщил это понятие для любых систем, содержащих в себе информацию, в том числе распределений случайных величин. Вот что у него получилось. Для случайной величины X, определяемой функцией вероятности p(x), энтропия определяется следующим образом:
H ≡ −M [ln p(x)] = −Σp(x)ln p(x),
где суммирование производится по всем значениям x,