Projekt Centrum Zastosowań Matematyki został zakończony w 2015 roku
Projekt Centrum Zastosowań Matematyki został zakończony w 2015 roku. W latach 2012-2015 zorganizowaliśmy 5 konferencji, 6 warsztatów tematycznych oraz 3 konkursy...
Przypuśćmy, że mamy dane dwa źródła danych ,
, które przesyłają informacje pochodzące ze zbioru danych
. Załóżmy, że kodujemy stratnie te informacje z tym samym maksymalnym błędem, ale przy użyciu dwóch różnych alfabetów kodowych, zdefiniowanych przy użyciu podziałów zbioru danych
i
odpowiednio.
Rozważmy nowe źródło danych , które wysyła sygnał wyprodukowany przez źródło
z prawdopodobieństwem
oraz przez źródło
z prawdopodobieństwem
. Prezentujemy algorytm, pozwalający skonstruować nowy alfabet
kodujący dane wysłane przez
z tym samym ustalonym maksymalnym błędem oraz entropią
(statystyczną długością kodu) spełniającą nierówność:
Przedstawiony powyżej rezultat uzyskujemy dzięki zastosowaniu nowej równoważnej definicji entropii – entropii ważonej. Entropia ważona, zamiast rozbicia przestrzeni danych na zbiory, wykorzystuje rozbicie miary probabilistycznej na miary podprobabilistyczne, co pozwala na łatwiejsze obliczanie entropii kombinacji miar. Z informatycznego punktu widzenia opisuje ona rodzaj stratnego kodowania niedeterministycznego – dany element może zostać raz zakodowany jednym symbolem, a innym razem innym symbolem, co wielu przypadkach okazuje się korzystniejsze niż standardowe kodowanie deterministyczne.