Notions d’information souple
Contents
2.3. Notions d’information souple#
2.3.1. Définition et propriétés#
On définit la quantité suivante le log-rapport de probabilité ou log-likelihood (LLR) la quantité donnée par la définition suivante:
(Log-likelihood ratio)
Cette quantité est homogène à une information a posteriori. A partir de la relation précédente, on peut donner la relation suivante par simple application de la règle de Bayes
\(L_c(y_n)\) est ce que l’on le log-rapport de vraisemblance qui est associé à la règle de décision ML dans le cas d’absence d’information a priori sur le bit \(c_n\) où dans le cas d’une source binaire i.i.d.. Le test est alors donné par
\(|L_c(y_n)|\) représente la fiabilité de la décision associée au signe du LLR, qui donne lui la décision dure. \(L_a(c_n)\) est le LLR a priori associé au bit \(c_n\). Le test
correspond donc au test MAP. La détection souple associée est donc donnée par :
(Détection souple d’un bit (MAP bit))
On a les mêmes interprétations que pour \(L_c(y_n)\) quant au module et au signe.
(Canal AWGN)
Dans le cas du canal AWGN, on a
où \(x_n=1-2 c_n\) et \(b_n\) un processus Gaussien centré de variance \(\sigma_b^2\). Un calcul immédiat permet de d’avoir pour le cas d’une source binaire uniforme
L’application de la règle de décision ML/MAP dans ce cas donne
ce qui correspond à la règle de décision dure classique sur une modulation de type BPSK. On remarque que le LLR est une version pondérée de l’observation. Le facteur de pondération est proportionnel au rapport signal à bruit (exprimé en échelle linéaire). L’interprétation est la suivante: plus ce dernier est élevé, plus on donne de l’importance à ce que l’on observe, mais quand ce dernier tend vers \(0\), on donne peu de crédit à cette dernière.
En développant l’expression du LLR qui est une fonction de l’observation, on en déduit que, conditionnellement au bit émis, ce dernier est une variable aléatoire telle que
où
(Canal de Rayleigh)
Dans le cas du canal de Rayleigh parfaitement entrelacé et connaissance parfaite du canal, on a le modèle suivant
où \(x_n=1-2 c_n\), \(b_n\) un processus Gaussien centré de variance \(\sigma_b^2\) et \(\alpha \sim \mathcal{R}(1/\sqrt(2))\) (loi de Rayleigh normalisé, ie. \(\boldsymbol{\mathbb{E}}(\alpha^2)=1)\). Un calcul immédiat permet de d’avoir pour le cas d’une source binaire uniforme
On peut également noter que la connaissance du LLR permet de remonter facilement aux probabilité en remarquant que
On obtient alors les relations suivantes
Ces expressions nous donnent alors le terme générique de cette probabilité a postériori donnée en fonction de \(u_n\) par
L’expression en fonction de \(x_n=1-2.u_n\) s’obtient par multiplication au numérateur et dénominateur par \(e^{-\frac{L(u_n)}{2}}\)
2.3.2. Interprétation du point de vue de la théorie de l’estimation#
La quantité \(L(u_n)\) est souvent appelée information souple. En utilisant les expressions précédentes, elle peut être reliée à la quantité \(\hat{x}_n=\boldsymbol{\mathbb{E}}(X_n|Y_n=y_n)\), quelquefois dénommée soft bits, de la façon suivante:
On peut montrer que \(\hat{x}_n\) est la meilleure estimée non linaire au sens du MMSE, ie.
2.3.3. Interprétation dans le domaine de Fourier#
La transformée de Fourier d’une fonction \({f}\) définie sur \(\mathbb{Z}_2\) munie des opérations usuelles (addition, multiplication) définies sur le corps binaire est donnée par
L’application de cette transformation de Fourier à la fonction de \(\mathbb{Z}_2\) dans \(\mathbb{R}\) nous permet d’écrire
ce qui donne
On en déduit que l’estimée \(\hat{x_n}\) se base sur un critère fréquentiel de détection.
2.3.4. Estimation efficace de la capacité des canaux binaires#
Si on considère le modèle discret équivalent suivant
où \(x[n] \in\{-1,+1\}\) et \(b[n]\) suit une loi Gaussienne centrée de variance \(\sigma_b^2;\) la formule de la capacité gaussienne pour une entrée contrainte nous donne
En utilisant le fait que
on peut écrire
En introduisant l’expression du LLR (dont la dépendance explicite à l’observation est appuyée par la notation choisie dans cette section)
en utilisant le fait que \(p(x=+1 \mid y)+p(x=-1 \mid y)=1, \; \forall y,\) il vient
Ce qui permet d’écrire, l’expression générique en \(x\)
Par intégration de Monte-Carlo, on obtient alors un estimateur empirique non biaisé simple donné par
2.3.5. Estimation ML séquence basée sur les LLR.#
On également redériver le critère ML en fonction du LLR En supposant, le canal sans mémoire et en repartant de l’expression
et en utilisant le fait que
on peut alors par changement de variable redonner l’expression du critère ML de la façon suivante:
On remarque alors que pour chaque mot de code on réalise une corrélation entre le mot reçu (ou de manière équivalent la séquence de LLR associée) et un mot de code valide. Ainsi, la dernière expression permet de donner la structure brute d’un décodeur ML : on peut l’assimiler à un banc de corrélateurs dont chacune des \(2^K\) branche est la corrélation avec un mot de code possible. Pour la décision il suffit alors de sélectionner la branche dont la sortie est la plus grande. D’un point de vue complexité, l’approche brute force est de \(2^K N=2^{R\;N} N\) multiplications et \(2^{R\;N} (N-1)\) additions. On a donc une complexité exponentielle en la taille du mot de code. Pour chaque famille de code, on cherchera à utiiser la structure propre du code pour “casser” cette complexité.
On discute maintenant de quelques cas simples.
(Code à répétitions)
Pour un code de répétition de taille \(N\), de rendement \(R=1/N\), on a deux mots de codes le mot de codes \({\bf c_0}=[0 \cdots 0]\) et \({\bf c_1}=[1 \cdots 1]\), tous les deux dans \(\mathbb{F}_2^N\). Sélectionner le mot de code le plus probable revient à réaliser le test suivant
Ce test permet également de déterminer le bit d’information émis :
(Code de parité)
Pour un code de répétition de taille \(N\), de rendement \(R=(N-1)/N\), on a \(2^{N-1}\) mots de codes, tous dans \(\mathbb{F}_2^N\). Si on prend une approche “brute-force” non structurée, ie. purement énumérative, sélectionner le mot de code le plus probable revient à réaliser un “banc de filtre” ou “de corrélations” du vecteur des LLRs reçus avec l’ensemble des mots de codes possibles. Cela revient à un test à \(2^{N-1}\) hypothèses . On voit bien que sans prendre en compte la structure de ce code, l’énumération devient prohibitive quand \(N\) croit.