Projekt Centrum Zastosowań Matematyki został zakończony w 2015 roku
Projekt Centrum Zastosowań Matematyki został zakończony w 2015 roku. W latach 2012-2015 zorganizowaliśmy 5 konferencji, 6 warsztatów tematycznych oraz 3 konkursy...
Przypuśćmy, że mamy dane dwa źródła danych , , które przesyłają informacje pochodzące ze zbioru danych . Załóżmy, że kodujemy stratnie te informacje z tym samym maksymalnym błędem, ale przy użyciu dwóch różnych alfabetów kodowych, zdefiniowanych przy użyciu podziałów zbioru danych i odpowiednio.
Rozważmy nowe źródło danych , które wysyła sygnał wyprodukowany przez źródło z prawdopodobieństwem oraz przez źródło z prawdopodobieństwem . Prezentujemy algorytm, pozwalający skonstruować nowy alfabet kodujący dane wysłane przez z tym samym ustalonym maksymalnym błędem oraz entropią (statystyczną długością kodu) spełniającą nierówność:
Przedstawiony powyżej rezultat uzyskujemy dzięki zastosowaniu nowej równoważnej definicji entropii – entropii ważonej. Entropia ważona, zamiast rozbicia przestrzeni danych na zbiory, wykorzystuje rozbicie miary probabilistycznej na miary podprobabilistyczne, co pozwala na łatwiejsze obliczanie entropii kombinacji miar. Z informatycznego punktu widzenia opisuje ona rodzaj stratnego kodowania niedeterministycznego – dany element może zostać raz zakodowany jednym symbolem, a innym razem innym symbolem, co wielu przypadkach okazuje się korzystniejsze niż standardowe kodowanie deterministyczne.