Sikäli kuin viittaat "entropialla" informaatioteoreettiseen entropiaan, niin se on ekvivalentti todennäköisyyden kanssa. Elikkäs, kun entropia on kiinnitetty todennäköisyydet ovat yksikäsitteisiä (diskreetti case) ja sama toiseen suuntaan. Yleisemmässä mittateoriassa asiat lepäävät about samalla tavalla kaikissa käytännön tapauksissa (differentiaalientropia vs todennäköisyystiheys).
Todennäköisyysjakaumia ei synny. Todennäköisyysjakauma on eräs hyvin määritelty olio. Tyypillisesti ihmiset käyttävät niitä malleina tarkastelemistaan kohdealueista.
Entropia ei ole oikeastaan mitään muuta kuin eräs hajontamitta/epävarmuuden mitta muiden joukossa (varianssi, high density regionin halkaisija, etc....). Entropia on tosin sikäli mielenkiintoinen hajontamitta, että sillä on perustavaa laatua olevaa tekemistä maksimaalisen kompressoitavuuden kanssa.
Voi olla, että statistisen fysiikan kautta on löydettövissä mielenkiintoisia analogioita markkinadynaamikan suhteen, mutta kurssien ennustaminen ei edelleenkään onnistu.