Часто ентропію S, як міру хаосу або невизначеності в системі, згадують поряд з інформацією I, як мірою визначеності в системі, хоч за змістом ці величини явно протилежні. Фізично ці величини різні, але математично дуже схожі. Зокрема найпростіший варіант формули Шеннона для визначення кількості інформації І , необхідної для точної ідентифікації окремого елемента з масиву ω однакових елементів (біт), нагадує формулу Больцмана для ентропії (Дж/К). Тоді суть ІІ начала ТД - прямування замкнених ТД систем в сторону зростання ентропії - найкоротше виражає жаргонний вираз фізиків "ентропія не дрімає!". Цей вираз бажано взяти на озброєння студентам в навчальному процесі.