Critères de décodage séquence
Contents
2.2. Critères de décodage séquence#
2.2.1. Décodage MAP/ML séquence#
Definition 2.8 (Décodage par maximum a posteriori séquence)
Definition 2.9 (Décodage par maximum de vraisemblance séquence)
Dans le cas où l’on considère l’ensemble des mots de codes équiprobable (\(p({\bf c})=1/2^K\)), les critères MAP et ML séquence sont équivalents. En pratique, le critère minimisé est équivalent à la minimisant d’un taux d’erreur trame (Frame Error Rate, FER) et non à la minimisaton d’un taux d’erreur binaire (Bit Error Rate, BER).
2.2.2. Exemples de canaux.#
On peut alors spécifier ces critères en fonction du canal considéré. Deux types de canaux rencontrés régulièrement sont le canal à erreur binaire symétrique (BSC) et le canal à bruit blanc additif Gaussien (AWGN).
Example 2.3 (Canal binaire symétrique (BSC))
::: center
{#fig:ch1_BSC
width=”60%”}
[]{#fig:ch1_BSC label=”fig:ch1_BSC”} :::
Pour ce canal représenté figure 2.1{reference-type=”ref” reference=”fig:ch1_BSC”}, le mot reçu est modélisé par le signal émis et une erreur binaire :
où \(e(n) \in\{0,1\}\) sont des v.a. i.i.d. binaires telles que \(p(e(n)=1)=p\), indépendantes de \(c(n)\). \(\oplus\) est l’addition modulo-2 (équivalent à l’opération OU-Exclusif/XOR).
Le canal étant sans mémoire, on a donc
ce qui équivaux à
soit
comme \(p \leq 0.5\), on a \(\log{\left(p/(1-p)\right)}<0\), d’où l résultat suivant:
Sur canal binaire symétrique (détection à décisions “dures” (hard decoding/decision)), le mot de code le plus probable est donc celui qui minimise la distance au sens de Hamming avec le mot reçu.
Example 2.4 (Canal additif blanc Gaussien à entrées binaires/antipodales)
Sur canal Gaussien, le modèle échantillonné est donné par
où \(x(n) \in \{+1,-1\}\) est la version modulée en BPSK des bits codés \(c(n) \in \{0,1\}\) tels que \(x(n)=\mathcal{M}(c(n))=1-2c(n)=(-1)^{c(n)}\), soit le mapping \(\{'0' \leftrightarrow '+1', '1' \leftrightarrow '-1'\}\). \({b(n)}_{n=0 \cdots N-1}\) est un processus aléatoire Gaussien où \(b(n)\) sont des v.a. Gaussiennes réelles i.i.d de densité de probabilité \(\mathcal{N}(0, \sigma_b^2)\).
Le canal étant sans mémoire, on a donc
ce qui équivaut à
En prenant le \(\log\), on obtient alors facilement,
où \(d_E({\bf y},{\bf c'})=\sum_n{(y_n-c_n')^2}\) représente la distance Euclidienne entre les deux séquences de bits codés émises. Donc sur canal AWGN, le mot de code le plus probable est celui qui est le plus proche de la séquence reçue au sens de la distance euclidienne.
On peut aller plus loin sur la simplification de l’expression précédente. En effet, en développant on obtient
Comme le premier et troisième (\(x_n^2=1\)) termes du membre de droite sont les mêmes pour tout mot de code, en prenant le \(\log\), on obtient alors facilement,
On interprète ici comme la recherche de l’intercorrélation maximale entre le signal reçu et le signal émis. On peut encore le réécrire en fonction de \(c(n)\) comme suit
On verra par la suite que l’on peut avoir également une interprétation dans le cadre d’un décodage “souple”.