O termo que você está procurando é
entropia . Entropia é uma medida da desordem ou aleatoriedade em um sistema. Quanto maior a entropia, mais desordenado é o sistema. Na termodinâmica, a entropia é definida como a mudança na energia térmica dividida pela temperatura. Na mecânica estatística, a entropia é definida como o logaritmo do número de microestados possíveis de um sistema.
A entropia é um conceito importante em muitos campos da ciência, incluindo física, química, biologia e teoria da informação. Na física, a entropia é usada para estudar o comportamento de sistemas termodinâmicos. Na química, a entropia é usada para estudar a espontaneidade das reações. Na biologia, a entropia é usada para estudar a evolução dos organismos. Na teoria da informação, a entropia é usada para estudar a quantidade de informação em uma mensagem.