17 Information mutuelle

La récursivité est une propriété importante de l’entropie de Shannon qui permet d’envisager la diversité de façon multidimensionnelle, par exemple la diversité des espèces et des classes de diamètre des arbres d’une forêt (appelée diversité structurelle). La récursivité apporte des résultats nettement moins intéressants quand l’entropie HCDT est considérée.

Le nombre effectif d’habitats occupés par une espèce peut être interprété comme la taille de sa niche écologique : la mesure de la diversité des communautés peut apporter une information aussi intéressante que la diversité des espèces.

Plusieurs mesures de diversité ont été construite autour de l’information mutuelle. Elles sont présentées ici après leur propriété mathématique fondamentale : la récursivité de l’entropie.

17.1 Récursivité de l’entropie

17.1.1 Entropie de Shannon

L’entropie de Shannon (et ses multiples) sont les seules fonctions \(H\) telles que

\[\begin{equation} \tag{17.1} H\left(\{p_{s,i}\}\right)-H\left(\{p_i\}\right) = \sum_i{p_i H\left(\{\frac{p_{s,i}}{p_i}\}\right)} \end{equation}\] et \[\begin{equation} \tag{17.2} H\left(\{p_{s,i}\}\right)-H\left(\{p_s\}\right) = \sum_s{p_s H\left(\{\frac{p_{s,i}}{p_s}\}\right)}. \end{equation}\]

Cette propriété est appelée récursivité (Bacaro et al. 2014). Le premier terme de chaque équation est la différence entre l’entropie de la distribution complète (\(p_{s,i}\)), c’est-à-dire la diversité jointe de Gregorius qui sera appelée plutôt entropie jointe ici, et celle de la distribution marginale (l’entropie de la distribution des classes ou celle des espèces). Une démonstration rigoureuse est fournie par Baez, Fritz, et Leinster (2011) d’après Faddeev (1956), mais il s’agit d’un résultat assez répandu dans la littérature, sous des formes diverses(Aczél et Daróczy 1975; Rényi 1961; Bourguignon 1979). \(H(\{p_{s,i}\})-H(\{p_i\})-H(\{p_s\})\) est l’information mutuelle, vue en section 12.1.2.

Le terme de droite de l’équation (17.1) est l’entropie \(\alpha\) de l’ensemble des classes si on les pondère par \(p_i\) car \({p_{s,i}}/{p_i}=p_{s|i}\). Par ailleurs, \(H(\{p_s\})\) est l’entropie \(\gamma\). En combinant les équations (17.1) et (17.2), on voit que l’entropie \(\beta\) est l’opposée de l’information mutuelle. L’information mutuelle est nulle quand les distributions des lignes et des colonnes sont indépendantes (\(p_{s,i}=p_{s}p_{i}\)), autrement dit quand les distributions marginales \(\{p_s\}\) et \(\{p_i\}\) suffisent à décrire la méta-communauté : l’information contenue par chaque communauté se limite à son poids. L’écart à l’indépendance implique que les distributions de probabilités sont différentes dans les communautés, ce qui définit la diversité \(\beta\).

Si les colonnes sont les classes de diamètre par exemple, les informations fournies par la décomposition de la diversité sont nombreuses :

  • Les diversités des colonnes sont les classiques diversités spécifiques, par classe de diamètre (\(\alpha\)), globale (\(\gamma\)), et inter-classes (\(\beta\)) ;
  • La diversité des lignes renseigne sur l’homogénéité des diamètres de chaque espèce et globalement ;
  • La diversité jointe est le nombre effectif de catégories (espèces \(\times\) classes de diamètre) de la communauté.

17.1.2 Entropie HCDT

Baez, Fritz, et Leinster (2011) généralisent la récursivité à l’entropie HCDT et montrent que

\[\begin{equation} \tag{17.3} ^{q}\!H\left(\{p_{s,i}\}\right) - {^{q}\!H}\left(\{p_i\}\right) = \sum_i{{p_i^q} {^{q}\!H}\left(\{\frac{p_{s,i}}{p_i}\}\right)} \end{equation}\] et \[\begin{equation} \tag{17.4} ^{q}\!H\left(\{p_{s,i}\}\right) - {^{q}\!H}\left(\{p_s\}\right) = \sum_s{{p_s^q} {^{q}\!H}\left(\{\frac{p_{s,i}}{p_s}\}\right)}. \end{equation}\]

Ce résultat avait déjà été obtenu par Suyari (2004), corrigé par Ilić, Stanković, et Mulalić (2013). Par le même raisonnement que pour l’entropie de Shannon, on trouve donc que l’entropie entre les classes est l’opposée de l’information mutuelle calculée dans le cadre de l’entropie HCDT, à condition de définir les poids des classes égaux à \(p_i\) et l’entropie intraclasse comme la somme des entropies des classes pondérées par leur poids à la puissance \(q\).

17.1.3 Intérêt de l’information mutuelle

Si les individus sont classés dans une matrice selon deux critères, et non dans un simple vecteur d’espèces, l’entropie HCDT de la distribution appelée entropie jointe est calculée par \(^{q}\!H(\{p_{s,i}\})\).

L’entropie jointe peut être décomposée en la somme des entropies marginales et de l’information mutuelle. L’entropie intra-lignes (respectivement intra-colonnes) est définie comme la moyenne pondérée par le poids des lignes (resp. des colonnes) à la puissance \(q\) de l’entropie de chaque ligne (resp. colonne). Les lignes et les colonnes jouent un rôle interchangeable.

\[\begin{equation} \tag{17.5} ^q\!H_{\mathit{intra}} = \sum_i{p^q_{i}\,{^{q}\!H(\{p_{s,i}\})}}, \end{equation}\]

\[\begin{equation} \tag{17.6} ^q\!H_{\mathit{inter}} =-\left[^{q}\!H\left(\{p_{s,i}\}\right) - ^{q}\!H\left(\{p_{s}\}\right) - ^{q}\!H\left(\{p_{i}\}\right)\right] \end{equation}\]

et \[\begin{equation} \tag{17.7} ^q\!H_{\mathit{marginale}} = ^{q}\!H\left(\{p_{s}\}\right). \end{equation}\]

Le rôle symétrique des lignes et des colonnes signifie que la taille des communautés n’est pas un choix arbitraire d’échantillonnage : la distribution des poids des communautés est équivalente à celle des probabilités des espèces. De la même façon que l’ordre de la diversité, \(q\), donne plus ou moins d’importance aux espèces rares dans le calcul de la diversité intra et marginale, il donne plus ou moins d’importance aux communautés de petite taille dans le calcul des diversités intra et inter.

L’entropie ne peut être transformée en diversité que pour \(q=1\) (diversité de Shannon). Pour \(q \ne 1\), l’entropie intra-classes n’est pas une entropie \(\alpha\) (elle n’est pas égale à l’entropie de chacune des classes si toutes les classes sont identiques), le nombre effectif d’espèces correspondant n’est pas défini. L’information mutuelle de l’entropie HCDT n’a donc qu’un intérêt limité pour mesurer la diversité.

17.2 Taille de niche

Allan (1975) présente plusieurs décompositions de l’entropie jointe (de Shannon) fondées sur l’information mutuelle, dans une matrice en trois dimensions : microhabitats \(\times\) sites \(\times\) espèces.

Après Levins (1968), Colwell et Futuyma (1971) et Pielou (1972), Allan s’intéresse notamment à la taille de la niche (niche width) des espèces. Si les classes de la matrice espèces-classes (Table 16.1) sont des habitats distincts les uns des autres, la diversité des habitats occupés par une espèce est la taille de sa niche, et la diversité \(\gamma\) mesurée sur l’ensemble des habitats peut être comprise comme le chevauchement des niches (Pielou 1972). La taille de la niche peut être mesurée par l’entropie de Shannon, mais aussi le nombre de Hill d’ordre 2, qui est donc le nombre effectif d’habitats de Simpson (Levins 1968).

Cette approche est très similaire à celle des économistes qui utilisent l’indice de Theil comme mesure de concentration spatiale, en intégrant une signification écologique si les localisations possibles correspondent à des habitats différents : une espèce présente dans tous les habitats avec la même probabilité est aussi généraliste que possible.

Colwell et Futuyma (1971) traitent le problème posé par le fait que les habitats pris en compte dans l’échantillonnage ne sont pas totalement distincts. Si les habitats étaient tous identiques, la distribution des espèces serait proportionnelle à la taille de chaque habitat et l’information mutuelle serait nulle. Elle ne l’est pas, et sa valeur peut être décomposée en somme des contributions de chaque habitat. Ces contributions sont utilisées pour pondérer les habitats : un habitat original (contribuant plus à l’information mutuelle) a un poids plus grand. Pour revenir au cas simple dans lequel les habitats ont des poids égaux, les colonnes de la matrice sont dupliquées un nombre de fois proportionnel à leur poids, suffisamment grand pour les proportions des nombres de colonnes (forcément entiers) soient identiques ou très proches des poids.