3 Mesures neutres de la diversité \(\alpha\) ou \(\gamma\)
Les indices classiques de diversité sont ceux de Shannon et de Simpson, et la richesse spécifique. Ils peuvent être estimés à partir des données d’inventaire. L’estimation de la richesse est particulièrement difficile et fait l’objet d’une abondante littérature : les estimateurs non-paramétriques (Chao et Jackknife) sont les plus utilisés.
Les mesures classiques (Peet 1974) considèrent que chaque classe d’objets est différente de toutes les autres, sans que certaines soient plus ou moins semblables. Dans ce chapitre, les classes seront des espèces. Les mesures sont qualifiées de neutres (species-neutral) au sens où elles ne prennent en compte aucune caractéristique propre des espèces. La diversité neutre est souvent appelée diversité taxonomique (Devictor et al. 2010; Stegen et Hurlbert 2011), même si le terme peut prêter à confusion avec la diversité phylogénétique, quand la phylogénie se réduit à une taxonomie (Clarke et Warwick 2001; Ricotta et Avena 2003b).
Ce type de mesure n’a de sens qu’à l’intérieur d’un taxocène bien défini : sommer un nombre d’espèces d’insectes à un nombre d’espèces de mammifères a peu d’intérêt. Ces méthodes ne sont donc pas forcément les plus adaptées à la conservation : à grande échelle, des indicateurs de biodiversité (Balmford, Green, et Jenkins 2003) peuvent être plus pertinents. D’autre part, les communautés sont considérées comme limitées, avec un nombre d’espèces fini : la courbe d’accumulation des espèces atteint donc théoriquement une asymptote quand l’effort d’inventaire est suffisant. Cette approche est opposée à celle, traitée dans les chapitres 20 et suivants, qui considère que la diversité augmente indéfiniment avec la surface (Williamson, Gaston, et Lonsdale 2001), que ce soit par changement d’échelle (élargir l’inventaire ajoute de nouvelles communautés) ou, plus théoriquement, parce que les communautés réelles sont considérées comme un tirage aléatoire parmi une infinités d’espèces (Fisher, Corbet, et Williams 1943).
Les mesures présentées ici sont les plus utilisées : richesse, indices de Shannon et de Simpson, et l’indice de Hurlbert. Elles sont sujettes à des biais d’estimation (Mouillot et Leprêtre 1999), notamment (mais pas seulement) à cause des espèces non échantillonnées.
Au chapitre suivant, l’entropie HCDT permettra d’unifier ces mesures et les nombres de Hill, et de leur donner un sens intuitif.
3.1 Richesse spécifique
La richesse est tout simplement le nombre d’espèces présentes dans le taxocène considéré. C’est la mesure conceptuellement la plus simple mais pratiquement la plus délicate dans des systèmes très riches comme les forêts tropicales : même avec des efforts d’inventaire considérables, il n’est en général pas possible de relever toutes les espèces rares, ce qui implique de recourir à des modèles mathématiques pour en estimer le nombre.
On ne fait pas de supposition sur la forme de la SAD quand on utilise des méthodes d’estimation non paramétriques. Les estimateurs les plus connus sont ceux de Chao (1984) et le jackknife (Burnham et Overton 1979).
Une alternative consiste à inférer à partir des données les paramètres d’une SAD choisie, et particulièrement le nombre total d’espèces. Cette approche est bien moins répandue parce qu’elle suppose le bon choix du modèle et est beaucoup plus intensive en calcul. Il n’existe pas de meilleur estimateur universel (O’Hara 2005) et il peut être efficace d’utiliser plusieurs méthodes d’estimation de façon concurrente sur les mêmes données (Basset et al. 2012).
3.1.1 Techniques d’estimation non paramétrique
Dans le cadre d’un échantillonnage de \(n\) individus, on observe \(s^{n}_{\ne 0}\) espèces différentes parmi les \(S\) existantes. Chaque individu a une probabilité \(p_s\) d’appartenir à l’espèce \(s\).
On ne sait rien sur la loi des \(p_s\). On sait seulement, comme les individus sont tirés indépendamment les uns des autres, que l’espérance du nombre \(n_s\) d’individus de l’espèce \(s\) observé dans l’échantillon est \(np_s\). La probabilité de ne pas observer l’espèce est \((1-p_s)^n\).
Pour les espèces fréquentes, \(np_s\) est grand, et les espèces sont observées systématiquement. La difficulté est due aux espèces pour lesquelles \(np_s\), l’espérance du nombre d’observations, est petit. La probabilité de les observer est donnée par la loi binomiale : si \(np_s\) est proche de 0, la probabilité d’observer un individu est faible.
Les estimateurs non paramétriques cherchent à tirer le maximum d’information de la distribution des abondances \(n_s\) pour estimer le nombre d’espèces non observées. Une présentation détaillée du problème et des limites à sa résolution est fournie par Mao et Colwell (2005) qui concluent notamment que les estimateurs ne peuvent fournir qu’une borne inférieure de l’intervalle des possibles valeurs du nombre réel d’espèces.
3.1.1.1 Chao1 et Chao2
Chao (1984) estime le nombre d’espèces non observées à partir de celles observées 1 ou 2 fois.
Dans un échantillon de taille \(n\) résultant d’un tirage indépendant des individus, la probabilité que l’espèce \(s\) soit observée \(\nu\) fois est obtenue en écrivant la probabilité de tirer dans l’ordre \(\nu\) fois l’espèce \(s\) puis \(n-\nu\) fois une autre espèce, multiplié par le nombre de combinaisons possible pour prendre en compte l’ordre des tirages : \[\begin{equation} \tag{3.1} p^{n}_{s, \nu} = \binom{n}{\nu} {p_s^\nu \left( 1-p_s \right)^{n-\nu}}. \end{equation}\]
L’espérance du nombre d’espèces observées \(\nu\) fois, \({\mathbb E}(s^{n}_{\nu})\), est obtenue en sommant pour toutes les espèces la probabilité de les observer \(\nu\) fois : \[\begin{equation} \tag{3.2} {\mathbb E}\left( s^{n}_{\nu} \right) = \binom{n}{\nu} \sum_s{p_s^\nu \left( 1-p_s \right)^{n-\nu}}. \end{equation}\]
Le carré de la norme du vecteur en \(S\) dimensions dont les coordonnées sont \((1-p_s)^{n/2}\) est \[\sum_s{(1-p_s)^n},\] c’est-à-dire \({\mathbb E}(s^{n}_{0})\), l’espérance du nombre d’espèces non observées. Celui du vecteur de coordonnées \(p_s (1-p_s)^{n/2-1}\) est \[\sum_s{p_s^2(1-p_s)^{n-2}}=\frac{2}{n(n-1)}{\mathbb E}(s^{n}_{2}).\] Enfin, le produit scalaire des deux vecteurs vaut \[\sum_s{p_s(1-p_s)^{n-1}}=\frac{1}{n}{\mathbb E}(s^{n}_{1}).\]
L’inégalité de Cauchy-Schwarz (le produit scalaire est inférieur au produit des normes des vecteurs) peut être appliquée aux deux vecteurs (tous les termes sont au carré) : \[\begin{equation} \tag{3.3} \left[ \sum_s{(1-p_s)^n} \right] \left[ \sum_s{p_s^2(1-p_s)^{n-2}} \right] \ge \left[ \sum_s{p_s(1-p_s)^{n-1}} \right]^2, \end{equation}\]
d’où \[\begin{equation} \tag{3.4} {\mathbb E}(s^{n}_{0}) \ge \frac{n-1}{n}\frac{\left[ {\mathbb E}(s^{n}_{1}) \right]^2}{2 {\mathbb E}(s^{n}_{2})}. \end{equation}\]
L’estimateur est obtenu en remplaçant les espérances par les valeurs observées :
\[\begin{equation} \tag{3.5} {\hat{S}}_\mathit{Chao1} = s^{n}_{\ne 0} + \frac{\left(n-1 \right){\left(s^{n}_{1}\right)}^2}{2n{s^{n}_{2}}}, \end{equation}\]
où \(s^{n}_{\ne 0}\) est le nombre d’espèces différentes observé.
Il s’agit d’un estimateur minimum : l’espérance du nombre d’espèces est supérieure ou égale au nombre estimé.
Béguinot (2014) a montré que l’estimateur est sans biais si le nombre d’espèces non observées décroît exponentiellement avec la taille de l’échantillon : \[\begin{equation} \tag{3.6} s^{n}_{0} = S e^{-kn}, \end{equation}\] où \(k\) est un réel strictement positif. Cette relation est cohérente avec un échantillonnage poissonien dans lequel la densité des individus est constante : voir le chapitre 21.
Si aucune espèce n’est observée deux fois, l’estimateur est remplacé par \[\begin{equation} \tag{3.7} {\hat{S}}_\mathit{Chao1} = s^{n}_{\ne 0} + \frac{\left(n-1\right){s^{n}_{1}}\left(s^{n}_{1}-1\right)}{2n}. \end{equation}\]
Si \(n\) n’est pas trop petit, les approximations suivantes sont possibles :
\[\begin{equation} \tag{3.8} \hat{S}_\mathit{Chao1} = {s^{n}_{\ne 0}} + \frac{{\left(s^{n}_{1}\right)}^2}{2s^{n}_{2}}. \end{equation}\]
Si aucune espèce n’est observée deux fois, l’estimateur est remplacé (Chao 2004) par
\[\begin{equation} \tag{3.9} {\hat{S}}_\mathit{Chao1} = {s^{n}_{\ne 0}}+{s^{n}_{1}\left(s^{n}_{1}-1\right)}/{2}. \end{equation}\]
La variance de l’estimateur est connue, mais pas sa distribution :
\[\begin{equation} \tag{3.10} \operatorname{Var}{\left({\hat{S}}_\mathit{Chao1}\right)} = {s^{n}_{2}}\left[\frac{1}{2}{\left(\frac{s^{n}_{1}}{s^{n}_{2}}\right)}^2 + {\left(\frac{s^{n}_{1}}{s^{n}_{2}}\right)}^3 + \frac{1}{4}{\left(\frac{s^{n}_{1}}{s^{n}_{2}}\right)}^4\right]. \end{equation}\]
Si aucune espèce n’est observée deux fois :
\[\begin{equation} \tag{3.11} \operatorname{Var}{\left({\hat{S}}_\mathit{Chao1}\right)} = \frac{s^{n}_{1}\left(s^{n}_{1}-1\right)}{2} + \frac{s^{n}_{1}{\left(2s^{n}_{1} -1\right)}^2}{4} + \frac{{\left(s^{n}_{1}\right)}^4}{4s^{n}_{\ne 0}}. \end{equation}\]
Chao (1987) donne une approximation de l’intervalle de confiance à 95 % en assumant une distribution normale :
\[\begin{equation} \tag{3.12} s^{n}_{\ne 0}+\frac{{\hat{S}}_\mathit{Chao1}-{s^{n}_{\ne 0}}}{c}\le S\le {s^{n}_{\ne 0}}+\left({\hat{S}}_\mathit{Chao1}-{s^{n}_{\ne 0}}\right)c, \end{equation}\]
où
\[\begin{equation} \tag{3.13} c=e^{t^{n}_{1-{\alpha}/{2}}\sqrt{\ln\left(1+\frac{\operatorname{Var}\left({\hat{S}}_\mathit{Chao1}\right)}{{\left({\hat{S}}_\mathit{Chao1}-{s^{n}_{\ne 0}}\right)}^2}\right)}}. \end{equation}\]
Eren et al. (2012, eq. 8) calculent un intervalle de confiance qui est plus petit quand la valeur maximum théorique du nombre d’espèces est connue, ce qui est rarement le cas en écologie.
Chao (1987) propose un estimateur du nombre d’espèces appliqué aux données de présence-absence (un certain nombre de relevés contiennent seulement l’information de présence ou absence de chaque espèce), appelé Chao2. Il est identique à Chao1 mais \(n\) est le nombre de relevés, en général trop petit pour appliquer l’approximation de Chao1.
Chiu et al. (2014) améliorent l’estimateur en reprenant la démarche originale de Chao mais en utilisant un estimateur plus précis du taux de couverture, (2.9) au lieu de (2.4) :
\[\begin{equation} \tag{3.14} {\hat{S}}_\mathit{iChao1} = {\hat{S}}_\mathit{Chao1} + \frac{s^{n}_{3}}{4s^{n}_{4}}\, \max\left(s^{n}_{1}-\frac{s^{n}_{2}s^{n}_{3}}{2s^{n}_{4}};0\right). \end{equation}\]
Chao et al. (2017) étendent l’applicabilité de l’estimateur Chao2 à des données dans lesquelles les espèces sont notées uniquement comme singletons ou doubletons et plus, sans distinction entre doubletons et espèces plus fréquentes. Une relation entre le nombre de doubletons et les données disponibles est fournie ; sa résolution numérique (le code R nécessaire est disponible avec l’article) permet d’estimer \(s^{n}_{2}\) et de l’injecter dans l’estimateur Chao2.
3.1.1.2 L’estimateur ACE
Chao et Lee (1992) développent l’estimateur ACE (Abundance-based coverage estimator) à travers l’estimation du taux de couverture \(C\). L’estimateur ACE utilise toutes les valeurs de \(^{\nu }s\) correspondant aux espèces rares : concrètement, la valeur limite de \(\nu\) notée \(\kappa\) est fixée arbitrairement, généralement à 10.
L’estimateur prend en compte le coefficient de variation de la distribution des fréquences (\({\hat{p}}_s\)) : plus les probabilités sont hétérogènes, plus le nombre d’espèces non observées sera grand. Finalement :
\[\begin{equation} \tag{3.15} \hat{S}_{\mathit{ACE}} = s^{n}_{>\kappa} + \frac{s^{n}_{\le\kappa}}{\hat{C}_\mathit{rares}}+\frac{s^{n}_{1}}{{\hat{C}}_\mathit{rares}}{\hat{\gamma}}_\mathit{rares}. \end{equation}\]
\(s^{n}_{>\kappa}\) est le nombre d’espèces dites abondantes, observées plus de \(\kappa\) fois, \(s^{n}_{\le\kappa}\) le nombre d’espèces dites rares, observées \(\kappa\) fois ou moins. \(\hat{C}_\mathit{rares}\) est le taux de couverture ne prenant en compte que les espèces rares.
L’estimateur du coefficient de variation est
\[\begin{equation} \tag{3.16} \hat{\gamma}^{2}_\mathit{rares} = \max\left(\frac{s^{n}_{\le\kappa}\sum^{\kappa}_{\nu=1}{\nu\left(\nu-1\right){s^{n}_{\nu}}}}{\hat{C}_\mathit{rares}\left(\sum^{\kappa}_{\nu=1}{\nu s^{n}_{\nu}}\right)\left(\sum^{\kappa}_{\nu=1}{\nu s^{n}_{\nu}}-1\right)}-1; 0\right). \end{equation}\]
Lorsque l’hétérogénéité est très forte, un autre estimateur est plus performant :
\[\begin{equation} \tag{3.17} \tilde{\gamma}^{2}_\mathit{rares} = \max\left({\widehat{\gamma}}^2_\mathit{rares}\left(1+\frac{\left(1-{\hat{C}}_\mathit{rares}\right)\sum^{\kappa}_{\nu=1}{\nu\left(\nu -1\right){s^{n}_{\nu}}}}{{\hat{C}}_\mathit{rares}\left(\sum^{\kappa}_{\nu =1}{\nu s^{n}_{\nu}-1}\right)}\right); 0 \right). \end{equation}\]
Chao et Shen (2010) conseillent d’utiliser le deuxième estimateur dès que \({\widehat{\gamma}}^2_\mathit{rares}\) dépasse 0,8. L’estimateur ACE donne normalement une valeur plus grande que Chao1. Si ce n’est pas le cas, la limite des espèces rares \(\kappa\) doit être augmentée.
3.1.1.3 L’estimateur jackknife
La méthode jackknife a pour objectif de réduire le biais d’un estimateur en considérant des jeux de données dans lesquels on a supprimé un certain nombre d’observations (ce nombre est l’ordre de la méthode). Burnham et Overton (1978, 1979) ont utilisé cette technique pour obtenir des estimateurs du nombre d’espèces, appelés jackknife à l’ordre \(j\), prenant en compte les valeurs de \(s^{n}_{1}\) à \(s^{n}_{j}\). Les estimateurs du premier et du deuxième ordre sont les plus utilisés en pratique :
\[\begin{equation} \tag{3.18} \hat{S}_\mathit{J1} = {s^{n}_{\ne 0}} + \frac{\left(n-1\right){s^{n}_{1}}}{n}, \end{equation}\]
\[\begin{equation} \tag{3.19} \hat{S}_\mathit{J2} = {s^{n}_{\ne 0}} + \frac{\left(2n-3\right){s^{n}_{1}}}{n} - \frac{{\left(n-2\right)}^{2}s^{n}_{2}}{n\left(n-1\right)}. \end{equation}\]
Augmenter l’ordre du jackknife diminue le biais mais augmente la variance de l’estimateur.
Chao (1984) a montré que les estimateurs jackknife pouvaient être retrouvés par approximation de l’indice Chao1.
La variance du jackknife d’ordre 1 est (Heltshe et Forrester 1983) \[\begin{equation} \tag{3.20} \operatorname{Var}{\left( \hat{S}_\mathit{J1} \right)} = \frac{n-1}{n} \left( \sum_{j=1}^{n}{j^2 s^{n}_{j}} - \frac{\left( s^{n}_{\ne 0} \right)^2}{n} \right). \end{equation}\]
L’estimateur est construit à partir de l’hypothèse selon laquelle le nombre d’espèces non observées est de la forme \[s^{n}_{0} = \sum_{i=1}^{\infty}{\frac{a_i}{n^i}}.\]
Pour cette raison, Cormack (1989) affirme qu’il n’a pas de support théorique solide. L’espérance du nombre d’espèces non observées est (3.2) \(\sum_s{(1-p_s)^n}\), qui décroît beaucoup plus rapidement que \(\sum_{i}{{a_i}/{n^i}}\) : l’hypothèse est bien fausse. En revanche, pour une gamme de \(n\) fixée (de la taille de l’inventaire à une taille suffisante pour approcher la richesse asymptotique par exemple), il est toujours possible d’écrire le nombre d’espèces non observées sous la forme d’une série de puissances négatives de \(n\), comme dans l’illustration ci-dessous.
Une communauté log-normale, similaire à BCI (300 espèces, écart-type égal à 2) est simulée et un échantillon de 1000 individus est tiré.
library("entropart")
# Ecart-type
sdlog <- 2
# Nombre d'espèces
S <- 300
# Tirage des probabilités log-normales
Ps <- as.ProbaVector(rlnorm(S, 0, sdlog))
# Taille de l'échantillon
N <- 1000
# Tirage d'un échantillon
Ns <- rCommunity(1, size = N, NorP = Ps)
L’échantillon est présenté en figure 3.1.
Code de la figure 3.1 :
autoplot(Ns, Distribution = "lnorm")
Il est possible de vérifier que l’espérance du nombre d’espèces non observées correspond bien à la moyenne des observations.
# Espérance des espèces non vues
E0 <- (1 - Ps)^N
(f0 <- sum(E0))
## [1] 169.9725
# Tirage de 1000 échantillons, nombre moyen d'espèces
# observées
(Sn <- mean(colSums(rmultinom(1000, N, Ps) > 0)))
## [1] 129.987
# Vérification: nombre d'espèces observées en moyenne et
# non observées
Sn + f0
## [1] 299.9595
# Nombre total d'espèces dans la communauté
(S <- length(Ps))
## [1] 300
Le nombre d’espèces non observées peut être écrit sous la forme d’une série de puissances négatives de \(n\), comme le prévoit le jackknife, entre deux valeurs de \(n\) fixées.
# Echantillonnage de 500 à 5000 individus
n.seq <- 500:5000
# Calcul du nombre d'espèces non observées
Bias <- sapply(n.seq, function(n) sum((1 - Ps)^n))
Le nombre d’espèces non observées, qui est le biais de l’estimateur de la richesse, est présenté en figure 3.2.
Code de la figure 3.2 :
ggplot(data.frame(n=n.seq, Biais=Bias, lm1=predict(lm1),
lm2=predict(lm2), lm4=predict(lm4)), aes(x=n)) +
geom_line(aes(y=Biais), col="black", lty=1) +
geom_line(aes(y=lm1), col="red", lty=2) +
geom_line(aes(y=lm2), col="orange", lty=3) +
geom_line(aes(y=lm4), col="blue", lty=4) +
coord_cartesian(ylim = c(0, 250))
La courbe peut être approchée par une série de puissances négatives de \(n\) dont quelques termes sont présentés sur la figure.
# Ordre 1
lm1 <- lm(Bias ~ 0 +I(1/n.seq))
# Ordre 2
lm2 <- lm(Bias ~ 0 +I(1/n.seq) + I(1/n.seq^2))
# Ordre 4
summary(lm4 <- lm(Bias ~ 0 +I(1/n.seq) + I(1/n.seq^2)
+ I(1/n.seq^3) + I(1/n.seq^4)))
##
## Call:
## lm(formula = Bias ~ 0 + I(1/n.seq) + I(1/n.seq^2) + I(1/n.seq^3) +
## I(1/n.seq^4))
##
## Residuals:
## Min 1Q Median 3Q Max
## -8.8796 -3.2632 0.1727 3.8447 22.2823
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## I(1/n.seq) 5.662e+05 7.979e+02 709.5 <2e-16 ***
## I(1/n.seq^2) -8.026e+08 2.803e+06 -286.3 <2e-16 ***
## I(1/n.seq^3) 5.184e+11 2.821e+09 183.7 <2e-16 ***
## I(1/n.seq^4) -1.180e+14 8.461e+11 -139.5 <2e-16 ***
## ---
## Signif. codes:
## 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 3.972 on 4497 degrees of freedom
## Multiple R-squared: 0.9991, Adjusted R-squared: 0.9991
## F-statistic: 1.212e+06 on 4 and 4497 DF, p-value: < 2.2e-16
L’ajustement est possible pour des valeurs de \(n\) différentes mais les coefficients \(a_i\) sont alors différents : la forme du biais n’est valide que pour une gamme de valeurs de \(n\) fixée.
Béguinot (2016) apporte un autre argument important en faveur du jackknife. À condition que \(n\) soit suffisamment grand, l’estimateur du nombre d’espèces non observées est une fonction linéaire du nombre d’espèces observées \(\nu\) fois : \(s^{n}_{1}\) pour le jackknife 1, \(2 s^{n}_{1} - s^{n}_{2}\) pour le jackknife 2 et ainsi de suite pour les ordres suivants, contrairement à l’estimateur de Chao. Grâce à cette propriété, l’estimateur du jackknife est additif quand plusieurs groupes d’espèces disjoints sont pris en compte : l’estimation du nombre d’espèces de papillons et de scarabées inventoriées ensemble est égale à la somme des estimations des deux groupes inventoriés séparément. Ce n’est pas le cas pour l’estimateur de Chao.
L’estimateur du jackknife est très utilisé parce qu’il est efficace en pratique, notamment parce que son ordre peut être adapté aux données.
3.1.1.4 L’estimateur du bootstrap
L’estimateur du bootstrap (E. P. Smith et Belle 1984) est \[\begin{equation} \tag{3.21} \hat{S}_\mathit{b} = {s^{n}_{\ne 0}} + \sum_s{(1-p_s)^n}. \end{equation}\]
Il est peu utilisé parce que le jackknife est plus performant (Colwell et Coddington 1994).
3.1.1.5 Calcul
Ces estimateurs peuvent être calculés de façon relativement simple à l’aide du logiciel SPADE, dans sa version pour R (Chao et al. 2016). Le guide de l’utilisateur présente quelques estimateurs supplémentaires et des directives pour choisir. Il est conseillé d’utiliser Chao1 pour une estimation minimale, et ACE pour une estimation moins biaisée de la richesse.
Les intervalles de confiance de chaque estimateur sont calculés par bootstrap : même quand la variance d’un estimateur est connue, sa loi ne l’est généralement pas, et le calcul analytique de l’intervalle de confiance n’est pas possible.
Les estimateurs et leurs intervalles de confiance peuvent également être calculés avec le package vegan qui dispose pour cela de deux fonctions : specpool
et estimateR
.
specpool
est basé sur les incidences des espèces dans un ensemble de sites d’observation et donne une estimation unique de la richesse selon les méthodes Chao2, jackknife (ordre 1 et 2) et bootstrap.
L’écart-type de l’estimateur est également fourni par la fonction, sauf pour le jackknife d’ordre 2.
estimateR
est basé sur les abondances des espèces et retourne un estimateur de la richesse spécifique par site et non global comme specpool
.
3.1.1.6 Exemple
On utilise les données de Barro Colorado Island (BCI).
La parcelle a été divisée en carrés de 1 ha.
Le tableau d’entrée est un dataframe
contenant, pour chaque espèce d’arbres (\(\mathit{DBH}\ge\) 10 cm), ses effectifs par carré.
On charge le tableau de données :
On utilise la fonction estimateR
pour calculer la richesse des deux premiers carrés :
estimateR(BCI[1:2, ])
## 1 2
## S.obs 93.000000 84.000000
## S.chao1 117.473684 117.214286
## se.chao1 11.583785 15.918953
## S.ACE 122.848959 117.317307
## se.ACE 5.736054 5.571998
Le package SPECIES (Wang 2011) permet de calculer les estimateurs jackknife d’ordre supérieur à 2 et surtout choisit l’ordre qui fournit le meilleur compromis entre biais et variance.
Comparaison des fonctions sur l’ensemble du dispositif BCI (\(s^{n}_{\ne 0}=225\), \(s_{1}=19\)) :
specpool(BCI)
## Species chao chao.se jack1 jack1.se jack2
## All 225 236.3732 6.54361 245.58 5.650522 247.8722
## boot boot.se n
## All 235.6862 3.468888 50
library("SPECIES")
# Distribution du nombre d'espèces (vecteur:
# noms = nombre d'individus
# valeurs = nombres d'espèces ayant ce nombre d'individus)
Ns <- colSums(BCI)
# Mise au format requis (matrice:
# colonne 1 = nombre d'individus
# colonne 2 = nombres d'espèces ayant ce nombre d'individus)
# par la fonction AbdFreqCount dans entropart
jackknife(AbdFreqCount(Ns))
##
## Your specified order is larger than that determined by the test,
## Therefore the order from the test is used.
## $JackknifeOrder
## [1] 1
##
## $Nhat
## [1] 244
##
## $SE
## [1] 6.164414
##
## $CI
## lb ub
## [1,] 232 256
Comparaison avec la valeur de l’équation (3.18) :
# Nombre d'espèces par efffectif observé
DistNs <- tapply(Ns, Ns, length)
# Calcul direct de Jack1
sum(DistNs) + DistNs[1] * (sum(BCI) - 1)/sum(BCI)
## 1
## 243.9991
La valeur du jackknife 1 fournie par specpool
est fausse.
La fonction jackknife
de SPECIES donne le bon résultat, avec un intervalle de confiance calculé en supposant que la distribution est normale (\(\pm\) 1,96 écart-type au seuil de 95 %)
L’estimateur du bootstrap est calculable simplement :
## [1] 234.3517
3.1.1.7 Choix de l’estimateur
Des tests poussés ont été menés par Brose, Martinez, et Williams (2003) pour permettre le choix du meilleur estimateur de la richesse en fonction de la complétude de l’échantillonnage \(s^{n}_{\ne 0}/{S}\). Les auteurs appellent cette proportion couverture (coverage). Le terme completeness a été proposé par J. Beck et Schwanghart (2010) pour éviter la confusion avec le taux de couverture défini par Good (vu en section 2.3). La complétude est inférieure à la couverture : toutes les espèces ont le même poids alors que les espèces manquantes sont plus rares et pénalisent moins le taux de couverture.
Dans tous les cas, les estimateurs jackknife sont les meilleurs. L’arbre de décision est en figure 3.3 (Brose, Martinez, et Williams 2003, fig. 6). Le choix dépend principalement de la complétude (coverage sur la figure). Une première estimation est nécessaire par plusieurs estimateurs. Si les résultats sont cohérents, choisir un estimateur jackknife d’ordre d’autant plus faible que la complétude est grande. Au-delà de 96%, le nombre d’espèces observé est plus performant parce que les jackknifes surestiment \(S\). S’ils sont incohérents (intervalle des estimations supérieur à 50 % de leur moyenne), le critère majeur est l’équitabilité (voir section 5). Si elle est faible (de l’ordre de 0,5-0,6), les estimateurs jackknife 2 à 4 sont performants, l’ordre diminuant avec l’intensité d’échantillonnage (forte : 10%, faible : 0,5 % de la communauté). Pour une forte équitabilité (0,8-0,9), on préférera jackknife 1 ou 2.
Pour BCI, le nombre d’espèces estimé par jackknife 1 est 244. La complétude est \({225}/{244}=92\%\), dans le domaine de validité du jackknife 1 (74 % à 96 %) qui est donc le bon estimateur.
La parcelle 6 de Paracou nécessite l’estimateur jackknife 2 :
library("SpatDiv")
jackknife(AbdFreqCount(as.AbdVector(Paracou6)))
##
## Your specified order is larger than that determined by the test,
## Therefore the order from the test is used.
## $JackknifeOrder
## [1] 2
##
## $Nhat
## [1] 471
##
## $SE
## [1] 24.24871
##
## $CI
## lb ub
## [1,] 423 519
# Complétude
as.numeric(Richness(Paracou6, Correction = "None")/Richness(Paracou6,
Correction = "Jackknife"))
## [1] 0.7091295
Chiu et al. (2014), à partir d’autres simulations, préfèrent l’utilisation de l’estimateur iChao1. Quand l’échantillonnage est suffisant, les estimateurs de Chao ont l’avantage de posséder une base théorique solide et de fournir une borne inférieure du nombre d’espèces possible. Dans ce cas, les estimations du jackknife d’ordre 1 sont cohérentes avec celles de Chao. En revanche, quand l’échantillonnage est insuffisant, l’estimateur jackknife d’ordre supérieur à 1 permet de réduire le biais d’estimation, au prix d’une variance accrue (Marcon 2015).
Enfin, Beguinot (2015a, 2016) suggère d’utiliser en règle générale le jackknife 2 (mais ne traite pas les cas dans lesquels l’échantillonnage est trop faible pour justifier un ordre supérieur) tant que le nombre de singletons est supérieur à \(2-\sqrt(2) \approx 0,6\) fois le nombre de doubletons. Le ratio des singletons sur les doubletons diminue quand l’échantillonnage approche de l’exhaustivité. Quand le seuil de 0,6 est dépassé, la valeur de l’estimateur de Chao devient supérieur au jackknife 2 et doit être utilisé. Ce seuil est cohérent avec les règles de Brose, Martinez, et Williams (2003).
3.1.1.8 Prédiction de la richesse d’un nouvel échantillon
La prédiction du nombre d’espèces \(\hat{S'}\) découvert dans une nouvelle placette d’un habitat dans lequel on a déjà échantillonné est une question importante, par exemple pour évaluer le nombre d’espèces préservées dans le cadre d’une mise en réserve, ou évaluer le nombre d’espèces perdues en réduisant la surface d’une forêt.
T.-J. Shen, Chao, et Lin (2003) proposent un estimateur et le confrontent avec succès à des estimateurs antérieurs. On note \(\hat{S}^{n}_{0}\) l’estimateur du nombre d’espèces non observées dans le premier échantillon, et \(\hat{C}\) l’estimateur de son taux de couverture. L’estimateur du nombre d’espèces du nouvel échantillon de \(n'\) individus est
\[\begin{equation} \hat{S'} = \hat{S}^{n}_{0} \left[1-{\left(1-\frac{1-\hat{C}}{\hat{S}^{n}_{0}}\right)}^{n'}\right]. \end{equation}\]
\(\hat{S}^{n}_{0}\) est obtenu par la différence entre les nombres d’espèces estimé et observé : \(\hat{S}^{n}_{0}=\hat{S}-s^{n}_{\ne 0}\).
Exemple de BCI, suite : combien de nouvelles espèces seront découvertes en échantillonnant plus ?
# Espèces non observées
(NonObs <- jackknife(AbdFreqCount(Ns))$Nhat - length(Ns))
##
## Your specified order is larger than that determined by the test,
## Therefore the order from the test is used.
## [1] 19
# Taux de couverture
(C <- Coverage(Ns))
## ZhangHuang
## 0.9991146
Le taux de couverture de l’inventaire de BCI est très proche de 100%, donc peu de nouvelles espèces seront découvertes en augmentant l’effort d’échantillonnage. La courbe obtenue est en figure 3.4.
Le code R nécessaire pour réaliser la figure est :
# Nouvelles espèces en fonction du nombre de nouveaux individus
Sprime <- function(Nprime) NonObs * (1 - (1 - (1 - C)/NonObs)^Nprime)
ggplot(data.frame(x = c(1, 10000)), aes(x)) +
stat_function(fun = Sprime) +
labs(x = "n'", y = "S'")
La question de l’extrapolation de la richesse est traitée plus en détail dans les sections 4.6.8 et 21.2.
3.1.2 Inférence du nombre d’espèces à partir de la SAD
3.1.2.1 Distribution de Preston
Preston (1948) fournit dès l’introduction de son modèle log-normal une technique d’estimation du nombre total d’espèces par la célèbre méthode des octaves. Elle est disponible dans le package vegan :
veiledspec(colSums(BCI))
## Extrapolated Observed Veiled
## 235.40577 225.00000 10.40577
L’ajustement direct du modèle aux données, sans regroupement par octaves (Williamson et Gaston 2005), est également possible (figure 3.5) :
mod.ll <- prestondistr(colSums(BCI))
veiledspec(mod.ll)
## Extrapolated Observed Veiled
## 230.931018 225.000000 5.931018
Le code R nécessaire pour réaliser la figure est :
plot(mod.ll)
3.1.2.2 Maximum de vraisemblance d’une distribution de Fisher
Norris et Pollock (1998) supposent que la distribution des espèces suit le modèle de Fisher (voir chapitre 20) et infèrent le nombre d’espèces par maximum de vraisemblance non paramétrique (ils ne cherchent pas à inférer les paramètres de la loi de probabilité de \(p_s\) mais seulement à ajuster au mieux le modèle de Poisson aux valeurs de \({\hat{p}}_s\) observées).
Le calcul est possible avec la librairie SPECIES de R :
# Distribution du nombre d'espèces (vecteur: noms = nombre
# d'individus valeurs = nombres d'espèces ayant ce nombre
# d'individus)
Ns <- colSums(BCI)
# Mise au format requis (matrice: colonne 1 = nombre
# d'individus colonne 2 = nombres d'espèces ayant ce nombre
# d'individus)
DistNs.SPECIES <- AbdFreqCount(Ns)
# Regroupement de la queue de distribution: la longueur du
# vecteur est limitée à 25 pour alléger les calculs.
DistNs.SPECIES[25, 2] <- sum(DistNs.SPECIES[25:nrow(DistNs.SPECIES),
2])
DistNs.SPECIES <- DistNs.SPECIES[1:25, ]
unpmle(DistNs.SPECIES)
## Method: Unconditional NPMLE method by Norris and Pollock 1996, 1998,
## using algorithm by Wang and Lindsay 2005:
##
## MLE= 239
## Estimated Poisson mixture components:
## p= 1.10372 3.595437 10.60832
## pi= 0.402579 0.2525368 0.3448842
## $Nhat
## [1] 239
Le problème de cette méthode d’estimation est qu’elle diverge fréquemment. Les calculs n’aboutissent pas si la queue de distribution n’est pas regroupée (il existe 108 valeurs différentes de \(n_s\) dans l’exemple de BCI : aucune des fonctions de SPECIES ne fonctionne en l’état).
Wang et al. (2005) ont amélioré sa stabilité en pénalisant le calcul de la vraisemblance :
pnpmle(DistNs.SPECIES)
## Method: Penalized NPMLE method by Wang and Lindsay 2005.
##
## MLE= 243
## Estimated zero-truncated Poisson mixture components:
## p= 0.9033625 3.397048 10.59029
## pi= 0.2771211 0.3208847 0.4019942
## $Nhat
## [1] 243
Enfin, Wang (2010) perfectionne la technique d’estimation en supposant que les \(p_s\) suivent une loi gamma et en estimant aussi ses paramètres. La souplesse de la loi gamma permet d’ajuster le modèle à des lois diverses et l’estimateur de Wang est très performant.
Il est disponible dans SPECIES : fonction pcg
.
Son défaut est qu’il nécessite un très long temps de calcul (plusieurs heures selon les données).
# Calcul long
pcg(DistNs.SPECIES)
3.1.3 Inférence du nombre d’espèces à partir de courbes d’accumulation
Cette approche consiste à extrapoler la courbe d’accumulation observée.
Le modèle le plus connu est celui de Michaelis-Menten (Michaelis et Menten 1913) proposé par Clench (1979). En fonction de l’effort d’échantillonnage \(n\), évalué en temps (il s’agit de la collecte de papillons), le nombre d’espèces découvert augmente jusqu’à une asymptote égale au nombre d’espèces total :
\[\begin{equation} S^{n} = S\frac{n}{K+n}. \end{equation}\]
\(K\) est une constante, que Clench relie à la difficulté de collecte.
L’estimation empirique du modèle de Michaelis-Menten peut être faite avec R3. Les 50 carrés de BCI sont utilisés pour fabriquer une courbe d’accumulation :
data(BCI)
# Cumul du nombre d'arbres
nArbres <- cumsum(rowSums(BCI))
# Cumul de l'inventaire
Cumul <- apply(BCI, 2, cumsum)
# Nombre d'espèces cumulées
nEspeces <- apply(Cumul, 1, function(x) sum(x > 0))
Le modèle est ajusté par nlsfit
.
Des valeurs de départ doivent être fournies pour \(K\) et \(\hat{S}\).
\(K\) est la valeur de \(n\) correspondant à \(\hat{S}^{n} =\hat{S}/2\).
Une approximation suffisante est \(n/4\).
Pour \(\hat{S}\), le nombre total d’espèces inventoriées est un bon choix.
Le résultat se trouve en figure 3.7.
# Ajustement du modèle
(nlsfit <- nls(nEspeces ~ S * nArbres/(K + nArbres), data = list(nArbres,
nEspeces), start = list(K = max(nArbres)/4, S = max(nEspeces))))
## Nonlinear regression model
## model: nEspeces ~ S * nArbres/(K + nArbres)
## data: list(nArbres, nEspeces)
## K S
## 1251.0 232.8
## residual sum-of-squares: 3066
##
## Number of iterations to convergence: 6
## Achieved convergence tolerance: 7.861e-06
L’estimation précédente utilise la méthode des moindres carrés, qui suppose l’indépendance des résidus, hypothèses évidemment violée par une courbe d’accumulation (Colwell et Coddington 1994). L’estimation par le maximum de vraisemblance est plus convenable (Raaijmakers 1987). Elle utilise la totalité des points de la courbe d’accumulation. La courbe d’accumulation de BCI est présentée en figure 21.2. Ses données sont utilisées ici :
SAC <- specaccum(BCI, "random")
# Calculs intermédiaires
Yi <- SAC$richness
N <- length(Yi)
Xi <- Yi/(1:N)
Xbar <- mean(Xi)
Ybar <- mean(Yi)
Syy <- sum((Yi - Ybar)^2)
Sxx <- sum((Xi - Xbar)^2)
Sxy <- sum((Xi - Xbar) * (Yi - Ybar))
# Estimations
(Khat <- (Xbar * Syy - Ybar * Sxy)/(Ybar * Sxx - Xbar * Sxy))
## [1] 1.712278
(Shat <- Ybar + Khat * Xbar)
## [1] 223.6211
L’estimation précédente repose sur une approximation numérique. Le paramètre \(K\) peut être estimé plus précisément par résolution numérique de l’équation exacte du maximum de vraisemblance :
# Equation que Khat doit annuler
f <- function(Khat) Sxy + Khat * Sxx - (Syy + 2 * Khat * Sxy +
Khat * Khat * Sxx) * sum(Xi/(Yi + Khat * Xi)/N)
# Résolution numérique, l'intervalle de recherche doit être
# fourni
Solution <- uniroot(f, c(0, 1e+07))
(Khat <- Solution$root)
## [1] 1.712293
(Shat <- Ybar + Khat * Xbar)
## [1] 223.6213
Le nombre d’espèces estimé est 224, inférieur au nombre d’espèces observé.
Pour calculer l’intervalle de confiance, il est plus simple de passer par une transformation linéaire du modèle (Lineweaver et Burk 1934) :
\[\begin{equation} \tag{3.22} \left[\frac{1}{\hat{S}^{n}}\right] = \frac{K}{\hat{S}}\left[\frac{1}{n}\right]+\frac{1}{\hat{S}} \end{equation}\]
Le nombre d’espèces est estimé par l’inverse de l’ordonnée à l’origine du modèle.
y <- 1/nEspeces
x <- 1/nArbres
lm1 <- lm(y ~ x)
(S <- 1/lm1$coef[1])
## (Intercept)
## 217.002
## `geom_smooth()` using formula = 'y ~ x'
On voit assez clairement que le modèle (figure 3.6) s’ajuste mal quand il est représenté sous cette forme (Raaijmakers 1987).
Le code R nécessaire pour réaliser la figure est :
ggplot(data.frame(x, y), aes(x, y)) +
geom_point() +
stat_smooth(method = "lm", col = "red") +
labs(x = "1/n", y="1/S")
Le nombre d’espèces estimé est inférieur au nombre observé, qui ne se trouve même pas dans l’intervalle de confiance à 95%. Le modèle de Michaelis-Menten ne convient pas.
Soberón M. et Llorente B. (1993) développent un cadre théorique plus vaste qui permet d’ajuster la courbe d’accumulation à plusieurs modèles. Ces modèles sont efficaces empiriquement mais manquent de support théorique pour justifier leur forme. Le modèle le plus simple est exponentiel négatif. Si la probabilité de trouver une nouvelle espèce est proportionnelle au nombre d’espèces non encore découvertes, la courbe d’accumulation suit la relation
\[\begin{equation} \tag{3.23} S^{n} = S \left( 1 - e^{Kn} \right). \end{equation}\]
Les paramètres peuvent être estimés par la méthode des moindres carrés :
(nlsexp <- nls(nEspeces ~ S * (1 - exp(K * nArbres)), data = list(nArbres,
nEspeces), start = list(S = max(nEspeces), K = -1/1000)))
## Nonlinear regression model
## model: nEspeces ~ S * (1 - exp(K * nArbres))
## data: list(nArbres, nEspeces)
## S K
## 212.198081 -0.000494
## residual sum-of-squares: 10664
##
## Number of iterations to convergence: 13
## Achieved convergence tolerance: 8.047e-06
Ce modèle, proposé par Holdridge et al. (1971), sous-estime la richesse parce que la probabilité de découvrir une nouvelle espèce diminue plus vite que le nombre d’espèces restant à découvrir : les dernières espèces sont plus rares et donc plus difficiles à détecter.
Un modèle plus réaliste définit cette probabilité comme une fonction décroissante du nombre d’espèces manquantes. La fonction la plus simple est une exponentielle négative mais elle ne s’annule jamais et le nombre d’espèces n’a pas d’asymptote. Un paramètre supplémentaire pour obtenir l’asymptote est nécessaire et aboutir à la relation
\[\begin{equation} \tag{3.24} S^{n} = \frac{1}{z} \ln \left[ \frac{a}{c} - \frac{a-c}{c} e^{-czn} \right]. \end{equation}\]
Les paramètres à estimer sont \(z\), \(a\) et \(c\).
(nlslog <- nls(nEspeces ~ 1/z * log(a/c - (a - c)/c * exp(-c *
z * nArbres)), data = list(nArbres, nEspeces), start = list(z = 0.05,
a = 1, c = 0.001)))
## Nonlinear regression model
## model: nEspeces ~ 1/z * log(a/c - (a - c)/c * exp(-c * z * nArbres))
## data: list(nArbres, nEspeces)
## z a c
## 0.025139 0.755365 0.001114
## residual sum-of-squares: 446.1
##
## Number of iterations to convergence: 4
## Achieved convergence tolerance: 4.366e-06
## a
## 259.3128
L’estimation est cette fois supérieure à celle du jackknife (244 espèces).
La figure 3.7 présente les deux ajustements de modèle de Soberón et Llorente avec celui de Clench. L’estimation de la richesse par extrapolation est plus incertaine que par les méthodes non paramétriques. Elle est très peu utilisée.
Le code R nécessaire pour réaliser la figure est :
x <- seq(from = 0, to = max(nArbres), length = 255)
NewData <- list(nArbres = x)
ggplot(data.frame(x,
MM = predict(nlsfit, newdata = NewData),
Holdridge = predict(nlsexp, newdata = NewData),
Soberon = predict(nlslog, newdata = NewData)),
aes(x)) +
geom_point(aes(nArbres, nEspeces), data.frame(nArbres, nEspeces)) +
geom_line(aes(y = MM)) +
geom_line(aes(y = Holdridge), lty = 2) +
geom_line(aes(y = Soberon), lty = 3) +
labs(x = "Nombre d'arbres", y = "Nombre d'espèces")
3.1.4 Diversité générique
La détermination des genres est plus facile et fiable que celle des espèces, le biais d’échantillonnage moins sensible (le nombre de singletons diminue rapidement en regroupant les données), et les coûts d’inventaire sont généralement largement réduits (Balmford, Jayasuriya, et Green 1996). Le choix d’estimer la diversité de taxons de rang supérieur (genres ou même familles au lieu des espèces) est envisageable (P. H. Williams et Gaston 1994).
Empiriquement, la corrélation entre la richesse générique et la richesse spécifique (des angiospermes, des oiseaux et des mammifères) est bonne en forêt tropicale (Balmford, Green, et Murray 1996), suffisante pour comparer les communautés, même si la prédiction de la richesse spécifique à partir de la richesse générique est très imprécise.
Cartozo et al. (2008) ont montré que le nombre de taxons de niveau supérieur (genre par rapport aux espèces, ordres par rapport aux sous-ordres) est universellement proportionnel au nombre de taxons du niveau immédiatement inférieur à la puissance 0,61. Cette relation est validée à l’échelle mondiale pour les systèmes végétaux. La loi de puissance reste valide pour des assemblages aléatoires, c’est donc la conséquence de propriétés mathématiques (Caldarelli et al. 2002), mais la puissance de la relation est plus élevée (les communautés réelles sont plus agrégées du point de vue phylogénétique que sous l’hypothèse nulle d’un assemblage aléatoire) et varie entre les niveaux.
3.1.5 Combien y a-t-il d’espèces différentes sur Terre ?
La question de l’estimation du nombre total d’espèces génère une abondante littérature. Mora et al. (2011) en font une revue et proposent une méthode nouvelle.
Dans chaque règne, le nombre de taxons de niveaux supérieurs (phylums, classes, ordres, familles et même genres) est estimé par des modèles prolongeant jusqu’à leur asymptote les valeurs connues en fonction du temps. Cette méthode est applicable jusqu’au niveau du genre (figure 3.8, A à E). Le nombre de taxon de chaque niveau est lié à celui du niveau précédent, ce qui est représenté par la figure 3.8, G (Mora et al. 2011, fig. 1) sous la forme du relation linéaire entre le logarithme du logarithme du nombre de taxons et le rang (1 pour les phylums, 5 pour les genres). La droite est prolongée jusqu’au rang 6 pour obtenir le nombre d’espèces. Une façon alternative de décrire la méthode est de dire que le nombre de taxons du niveau \(n+1\) est égal à celui du niveau \(n\) à la puissance \(k\). La pente de la droite de la figure est \(\ln{k}\). Aucune justification de ce résultat majeur n’est donnée par les auteurs, si ce n’est leur vérification empirique.
Le nombre total d’espèces estimé est 8,7 millions, tous règnes confondus, dans la fourchette des estimations précédentes (de 3 à 100 millions), et nécessitant près de 500 ans d’inventaires au rythme actuel des découvertes (May 2011).
En se limitant aux arbres, l’estimation se monte à 16000 espèces pour l’Amazonie (ter Steege et al. 2013), de l’ordre de 5000 pour l’Afrique et entre 40000 et 53000 pour l’ensemble des tropiques (Slik et al. 2015) (donc pour l’ensemble de la planète, le nombre d’espèces non-tropicales étant négligeable). Ces estimations sont obtenues par extrapolation du modèle en log-séries (chapitre 20) et sont sujettes au paradoxe de Fisher : les espèces représentées par un très petit nombre d’individu dans le modèle, notamment les singletons, sont les plus nombreuses. Une discussion approfondie est donnée par Stephen P. Hubbell (2015) : les espèces récemment apparues au sens du modèle ne sont pas détectables avant plusieurs générations, créant un décalage entre le nombre d’espèces reconnues par la taxonomie et le modèle.
J. B. Wilson et al. (2012) compilent les relevés du nombre d’espèces de plantes vasculaires en fonction de la surface et retiennent uniquement les plus riches à chaque échelle spatiale (du millimètre carré à l’hectare). Ces relevés sont tous situés en forêt tropicale ou en prairie tempérée gérée (les perturbations régulières et modérées y favorisent la diversité, conformément à la théorie de la perturbation intermédiaire (Connell 1978)). La relation entre le nombre d’espèces et la surface est celle d’Arrhenius. Son extrapolation à la surface terrestre donne environ 220000 espèces, comparables à l’estimation de 275000 espèces rapportée par Mora et al.
3.2 Indice de Simpson
3.2.1 Définition
On note \(p_s\) la probabilité qu’un individu tiré au hasard appartienne à l’espèce \(s\). L’indice de E. H. Simpson (1949), ou Gini-Simpson, est
\[\begin{equation} \tag{3.25} E =1-\sum^{S}_{s=1}{p^2_s}. \end{equation}\]
Il peut être interprété comme la probabilité que deux individus tirés au hasard soient d’espèces différentes. Il est compris dans l’intervalle \(\left[0;1\right[\). Sa valeur diminue avec la régularité de la distribution : \(E=0\) si une seule espèce a une probabilité de 1, \(E=1-{1}/{S}\) si les \(S\) espèces ont la même probabilité \(p_s={1}/{S}\). La valeur 1 est atteinte pour un nombre infini d’espèces, de probabilités nulles.
Deux autres formes de l’indice sont utilisées. Tout d’abord, la probabilité que deux individus soient de la même espèce, souvent appelée indice de concentration de Simpson, qui est celui défini dans l’article original de Simpson :
\[\begin{equation} \tag{3.26} D =\sum^{S}_{s=1}{p^2_s}. \end{equation}\]
L’indice de Simpson est parfois considéré comme une mesure d’équitabilité (Olszewski 2004) mais il varie avec la richesse : cette approche est donc erronnée. Hurlbert (1971) l’a divisé par sa valeur maximale \(1-{1}/{S}\) pour obtenir une mesure d’équitabilité valide généralisée plus tard par Mendes et al. (2008), voir section 5.5.1. Le nombre d’espèces doit être estimé par les méthodes présentées plus haut, pour ne pas dépendre de la taille de l’échantillon.
L’estimateur du maximum de vraisemblance de l’indice est
\[\begin{equation} \tag{3.27} \hat{E} = 1-\sum^{s^{n}_{\ne 0}}_{s=1}{\hat{p}^2_s}. \end{equation}\]
Le calcul de l’indice de Simpson peut se faire avec la fonction diversity
disponible dans le package vegan de R ou avec la fonction Simpson
du package entropart :
data(BCI)
# as.ProbaVector() transforme les abondances en
# probabilités
Ps <- as.ProbaVector(colSums(BCI))
Simpson(Ps)
## None
## 0.9736755
Un historique de la définition de l’indice, de Gini (1912) à Simpson, inspiré par Turing, est fourni par Ellerman (2013).
3.2.2 Estimation
Définissons l’indicatrice \({{\mathbf 1}}_{sh}\) valant 1 si l’individu \(h\) appartient à l’espèce \(s\), 0 sinon. \({{\mathbf 1}}_{sh}\) suit une loi de Bernoulli d’espérance \(p_s\) et de variance \(p_s\left(1-p_s\right)\). \(E\) est la somme sur toutes les espèces de cette variance. Un estimateur non biaisé d’une variance à partir d’un échantillon est la somme des écarts quadratiques divisée par le nombre d’observation moins une. L’estimateur \(\hat{E}\) est légèrement biaisé parce qu’il est calculé à partir des \({\hat{p}}_s\), ce qui revient à diviser la somme des écarts par \(n\), et non \(n-1\). Un estimateur non biaisé est (Good 1953; Lande 1996)
\[\begin{equation} \tag{3.28} \tilde{E} = \left(\frac{n}{n-1}\right)\left(1-\sum^{s^{n}_{\ne 0}}_{s=1}{{\hat{p}}^2_s}\right). \end{equation}\]
La correction par \({n}/{\left(n-1\right)}\) tend rapidement vers 1 quand la taille de l’échantillon augmente : l’estimateur est très peu biaisé.
Le non-échantillonnage des espèces rares est pris en compte dans cette correction parce qu’elle considère que \(\tilde{E}\) est l’estimateur de variance d’un échantillon et non d’une population complètement connue. Il est négligeable : si \(p_s\) est petit, \(p^2_s\) est négligeable dans la somme.
Simpson a fourni un estimateur non biaisé de \(D\), à partir du calcul du nombre de paires d’individus tirés sans remise :
\[\begin{equation} \tag{3.29} \tilde{D} = \frac{\sum^{S}_{s=1}{n_s\left(n_s -1\right)}}{n\left(n-1\right)}. \end{equation}\]
L’argumentation est totalement différente, mais le résultat est le même : \(\tilde{E}=1-\tilde{D}\).
La fonction Simpson
de entropart accepte comme argument un vecteur d’abondances et propose par défaut la correction de Lande :
## Lande
## 0.9737209
3.3 Indice de Shannon
3.3.1 Définition
L’indice de Shannon (Shannon 1948; Shannon et Weaver 1963), aussi appelé indice de Shannon-Weaver ou Shannon-Wiener (Spellerberg et Feder 2003), ou simplement entropie est dérivé de la théorie de l’information :
\[\begin{equation} \tag{3.30} H = -\sum^S_{s=1}{p_s\ln{p_s}}. \end{equation}\]
Considérons une placette forestière contenant \(S\) espèces végétales différentes. La probabilité qu’une plante choisie au hasard appartienne à l’espèce \(s\) est notée \(p_s\). On prélève \(n\) plantes, et on enregistre la liste ordonnée des espèces des \(n\) plantes. Si \(n\) est suffisamment grand, le nombre de plantes de l’espèce \(s\) est \(np_s\). On note \(L\) le nombre de listes respectant ces conditions :
\[\begin{equation} \tag{3.31} L = \frac{n!}{\prod^S_{i=1}{\left({np}_s\right)!}}. \end{equation}\]
Ce résultat est obtenu en calculant le nombre de positions possibles dans la liste pour les individus de la première espèce : \(\binom{n}{np_1}\). Le nombre de positions pour la deuxième espèce est \(\binom{n-np_1}{np_2}\). Pour la \(S\)-ième espèce, le nombre est \(\binom{n-np_1-\dots -np_{s-1}}{np_i}\). Les produits de combinaisons se simplifient pour donner l’équation (3.31).
On peut maintenant écrire le logarithme de \(L\) : \[\ln{L}=\ln{n!}-\sum^S_{s=1}{\ln{np_s}!}.\] On utilise l’approximation de Stirling, \[\ln{n!}\approx n\ln{n}-n,\] pour obtenir après simplifications :
\[\begin{equation} \tag{3.32} \ln{L} = -n\sum^S_{s=1}{p_s \ln{p_s}}. \end{equation}\]
\(H=(\ln{L})/{n}\) est l’indice de Shannon. Ce résultat est connu sous le nom de formule de Brillouin (1962). À l’origine, Shannon a utilisé un logarithme de base 2 pour que \(H\) soit le nombre moyen de questions binaires (réponse oui ou non) nécessaire pour identifier l’espèce d’une plante (un caractère utilisé dans une chaîne dans le contexte du travail de Shannon). Les logarithmes naturels, de base 2 ou 10 ont été utilisés par la suite (Pielou 1966b).
La formule (3.32) est celle de l’indice de Theil (1967), présenté en détail par Conceição et Ferreira (2000), à l’origine utilisé pour mesurer les inégalités de revenu puis pour caractériser les structures spatiales en économie. L’indice est proportionnel au nombre de plantes choisies, on peut donc le diviser par \(n\) et on obtient l’indice de biodiversité de Shannon. Ces indices ont été définis en choisissant des lettres au hasard pour former des chaînes de caractères. Leur valeur est le nombre de chaînes de caractères différentes que l’on peut obtenir avec l’ensemble des lettres disponibles, c’est-à-dire la quantité d’information contenue dans l’ensemble des lettres. L’indice de Shannon donne une mesure de la biodiversité en tant que quantité d’information.
L’estimateur du maximum de vraisemblance de l’indice est
\[\begin{equation} \tag{3.33} \hat{H} = -\sum^{s^{n}_{\ne 0}}_{s=1}{\hat{p}_s \ln{\hat{p}_s}}. \end{equation}\]
Le calcul de l’indice de Shannon peut se faire avec la fonction diversity
disponible dans le package vegan de R ou avec la fonction Shannon
de entropart :
Ps <- as.ProbaVector(colSums(BCI))
Shannon(Ps)
## None
## 4.270409
La distribution de l’estimateur est connue (Hutcheson 1970) mais elle est inutile en pratique à cause du biais d’estimation.
Bulmer (1974) établit une relation entre l’indice de Shannon et l’indice \(\alpha\) de Fisher, à condition que la distribution de l’abondance des espèces soit log-normale :
\[\begin{equation} \tag{3.34} \hat{H} = \mathrm{\Psi}\left(\hat{\alpha}+1\right) - \mathrm{\Psi}\left(1\right). \end{equation}\]
\(\mathrm{\Psi}(\cdot)\) est la fonction digamma, et \(\hat{\alpha}\) est l’estimateur de l’indice de Fisher (20.4) :
digamma(fisher.alpha(colSums(BCI)) + 1) - digamma(1)
## [1] 4.148322
La sous-estimation est assez sévère sur cet exemple.
3.3.2 Estimation
Basharin (1959) a montré que l’estimateur de l’indice de Shannon était biaisé parce que des espèces ne sont pas échantillonnées. Si \(S\) est le nombre d’espèces réel et \(n\) le nombre d’individus échantillonnés, le biais est
\[\begin{equation} \tag{3.35} \mathbb{E}\left(\hat{H}\right)-H =-\frac{S-1}{2n} + O\left(n^{-2}\right). \end{equation}\]
\(O\left(n^{-2}\right)\) est un terme négligeable. La valeur estimée à partir des données est donc trop faible, d’autant plus que le nombre d’espèces total est grand mais d’autant moins que l’échantillonnage est important. Comme le nombre d’espèces \(S\) n’est pas observable, le biais réel est inconnu.
L’estimateur de Miller-Madow (Miller 1955) utilise l’information disponible, en sous-estimant le nombre d’espèces et donc l’entropie : \[\begin{equation} \tag{3.36} \tilde{H} = -\sum^{s^{n}_{\ne 0}}_{s=1}{\hat{p}_s \ln{\hat{p}_s}} + \frac{s^{n}_{\ne 0}-1}{2n}. \end{equation}\]
Chao et Shen (2003) établissent un estimateur moins biaisé à partir du taux de couverture de l’échantillonnage \(\hat{C}\) :
\[\begin{equation} \tag{3.37} \tilde{H} = -\sum_{s=1}^{s^{n}_{\ne 0}}{\frac{\hat{C}{\hat{p}}_s \ln\left(\hat{C}{\hat{p}}_s\right)}{1-\left(1-\hat{C}{\hat{p}}_s\right)^n}}. \end{equation}\]
Multiplier les fréquences observées par le taux de couverture permet d’obtenir un estimateur non biaisé des probabilités conditionnellement aux espèces non observées (Ashbridge et Goudie 2000).
Le terme au dénominateur est la correction de Horvitz et Thompson (1952) : chaque terme de la somme est divisé par la probabilité d’observer au moins une fois l’espèce correspondante. Il tend vers 1 quand la taille de l’échantillon augmente.
J. Beck et Schwanghart (2010) montrent que la correction du biais est efficace, même à des niveaux de complétude de l’échantillonnage (voir section 3.1.1.7) très faibles. Vu, Yu, et Kass (2007) étudient la vitesse de convergence de l’estimateur.
Z. Zhang (2012) définit l’indice de Simpson généralisé :
\[\begin{equation} \tag{3.38} \zeta_{u,v} = \sum^S_{s=1}{p^u_s{\left(1-p_s\right)}^v}, \end{equation}\]
où \(\zeta_{u,v}\) est la somme sur toutes les espèces de la probabilité de rencontrer \(u\) fois l’espèce dans un échantillon de taille \(u+v\). L’indice de Shannon peut s’exprimer en fonction de \(\zeta_{1,v}\) :
\[\begin{equation} \tag{3.39} H = \sum^{\infty}_{v=1}{\frac{1}{v} \zeta_{1,v}}. \end{equation}\]
Les premiers termes de la somme, jusqu’à \(v=n-1\) peuvent être estimés à partir des données, les suivants constituent le biais de l’estimateur, qui est caculé en pratique par
\[\begin{equation} \tag{3.40} H_z = \sum^{n-1}_{v=1}{\frac{1}{v}\left\{\frac{n^{v+1}\left[n-\left(v+1\right)\right]!}{n!}\sum^{s^{n}_{\ne 0}}_{s=1}{p_s\prod^{v-1}_{j=0}{\left(1-{\hat{p}}_s-\frac{j}{n}\right)}}\right\}}. \end{equation}\]
Z. Zhang (2013) montre que le biais de l’estimateur \(H_z\) est asymptotiquement normal et calcule sa variance. Z. Zhang et Grabchak (2013) améliorent l’estimateur en le complétant par un estimateur de son biais, mais les calculs deviennent excessivement complexes. Vinck et al. (2012) appliquent la même démarche avec un estimateur bayesien du biais, utilisant un prior aussi plat que possible pour la valeur de l’entropie (et non un prior plat sur les probabilités, qui tire l’estimateur vers l’entropie maximale). Cet estimateur nécessite de connaître le nombre d’espèces, ce qui empêche son utilisation sur des données d’écologie.
Pielou (1966a) a développé une autre méthode de correction de biais lorsque de nombreux relevés de petite taille sont disponibles. \(\ln{L}\) est calculé pour un relevé choisi aléatoirement puis les données du premier relevé sont ajoutées à celles d’un autre, puis un autre jusqu’à ce que \(H=(\ln{L})/{n}\) n’augmente plus : la diversité augmente dans un premier temps mais se stabilise quand l’effet des espèces ajoutées est compensé par celui de la diminution de l’équitabilité due aux espèces présentes dans tous les relevés. À partir de ce seuil, l’augmentation de \(\ln{L}\) par individu ajouté est calculée pour chaque relevé supplémentaire. Son espérance, estimée par sa moyenne calculée en ajoutant tous les relevés disponibles, est \(\tilde{H}\).
Chao, Wang, et Jost (2013) utilisent l’estimateur de la pente de la courbe de raréfaction, calculé précédemment (Chao et Jost 2012) pour estimer la richesse spécifique, pour fournir un estimateur extrêmement performant :
\[\begin{align} \tag{3.41} \tilde{H} = &-\sum_{s=1}^{s^{n}_{\ne 0}} {\frac{n_s}{n}\left(\mathrm{\Psi}\left(n\right) - \mathrm{\Psi}\left(n_s\right)\right)} \\ &-\frac{s_{1}}{n} {\left(1-A\right)}^{1-n} \left(-{\ln\left( A \right)}-\sum^{n-1}_{r=1}{\frac{1}{r}{\left( 1-A \right)}^r}\right), \end{align}\]
où \(\mathrm{\Psi}\left(\cdot\right)\) est la fonction digamma et \(A\) vaut :
- \(2s_{2}/{\left[\left(n-1\right) s_{1} +2s_{2}\right]}\) en présence de singletons et doubletons ;
- \(2/{\left[\left(n-1\right)\left(s_{1} -1\right)+2\right]}\) en présence de singletons seulement ;
- \(1\) en absence de singletons et doubletons.
Enfin, la littérature de physique statistique s’est abondamment intéressée à cette question (Bonachela, Hinrichsen, et Muñoz (2008) en font une revue). Le problème traité est la non-linéarité de l’indice de Shannon par rapport aux probabilités qui entraine un biais d’estimation. La fonction logarithme fournit un exemple simple : l’espérance de \(\ln(p_s)\) n’est pas le logarithme de l’espérance de \(p_s\) parce que la fonction \(\ln\) est concave. Chaque estimateur \({\hat{p}}_s\) fluctue autour de \(p_s\) mais vaut \(p_s\) en moyenne. À cause de la concavité, \(\ln({\hat{p}}_s)\) est en moyenne inférieur à \(\ln(p_s)\) : cette relation est connue sous le nom d’inégalité de Jensen (1906). L’indice de Shannon est concave (figure 3.9) donc son estimateur (3.30) est biaisé négativement, même sans prendre en considération les espèces non observées.
Code de la figure 2.1 :
ggplot(data.frame(x = c(0.0001, 1)), aes(x)) +
stat_function(fun = function(x) -x*log(x)) +
labs(x = "p", y = "H(p)")
Le biais peut être évalué par simulation : 10000 tirages sont réalisés dans une loi normale d’espérance \(p_s\) choisie et d’écart-type 0.01. Le biais est la différence entre \({-p}_s{\ln p_s}\) (connu) et la moyenne des 1000 valeurs de \(-\hat{p}_s{\ln{\hat{p}}_s}\) (la probabilité est estimée par sa réalisation à chaque tirage). La valeur du biais en fonction de \(p_s\) est en figure 3.10. Le biais de l’indice de Shannon est la somme des biais pour toutes les probabilités spécifiques de la communauté étudiée, et son calcul est toujours l’objet de recherches.
Code de la figure 3.10 :
Biais.p <- function (p) {
Ps <-rnorm(10000, p, 0.01)
p * log(p) - mean(Ps * log(Ps))
}
Biais <- function (Ps) {
# Applique Biais.p à chaque valeur de Ps
sapply(Ps, Biais.p)
}
ggplot(data.frame(x = c(0.05, 0.95)), aes(x)) +
stat_function(fun = Biais) +
geom_hline(yintercept = 0, lty = 2) +
labs(x = "p", y = "Biais")
Grassberger (1988) a fourni la correction de référence :
\[\begin{equation} \tag{3.42} \tilde{H} = -\sum^{s^{n}_{\ne 0}}_{s=1} {\frac{n_s}{n}\left(\ln\left(n\right)-\mathrm{\Psi}\left(n_s\right)-\frac{{\left(-1\right)}^{n_s}}{n_s+1}\right)}. \end{equation}\]
Grassberger (2003) l’a perfectionnée :
\[\begin{equation} \tag{3.43} \tilde{H} = -\sum^{s^{n}_{\ne 0}}_{s=1} {\frac{n_s}{n} \left(\mathrm{\Psi}\left(n\right)-\mathrm{\Psi}\left(n_s\right)-{\left(-1\right)}^{n_s}\int^1_0{\frac{t^{n_s-1}}{1+t}\mathop{dt}}\right)}. \end{equation}\]
Enfin, Schürmann (2004) l’a généralisée pour définir une famille de corrections dépendant d’un paramètre \(\xi\) :
\[\begin{equation} \tag{3.44} \tilde{H} = -\sum^{s^{n}_{\ne 0}}_{s=1} {\frac{n_s}{n} \left(\mathrm{\Psi}\left(n\right)-\mathrm{\Psi}\left(n_s\right)-{\left(-1\right)}^{n_s}\int^{\frac{1}{\xi}-1}_0{\frac{t^{n_s-1}}{1+t}\mathop{dt}}\right)}. \end{equation}\]
Le biais d’estimation diminue avec \(\xi\) mais l’erreur quadratique augmente. Schürmann suggère d’utiliser \(\xi=e^{-{1}/{2}}\) comme meilleur compromis.
La fonction Shannon
permet toutes ces corrections.
Elle accepte comme argument un vecteur d’abondances (et non de probabilités) :
## ChaoJost
## 4.276193
## Grassberger
## 4.276599
## Grassberger2003
## 4.276491
## Schurmann
## 4.276094
## ZhangHz
## 4.272529
D’autres estimateurs peu utilisés en écologie sont disponibles dans le package entropy (Hausser et Strimmer 2009). La contraction de Stein (James et Stein 1961) consiste à estimer la distribution des probabilités d’occurence des espèces par la pondération optimale entre un estimateur à faible biais et un estimateur à faible variance. L’estimateur \(\hat{p}_s\) est sans biais mais a une variance importante. L’estimateur \({1}/{S}\), si \(S\) est connu, est de variance nulle mais est très biaisé. Comme le nombre d’espèces est en général inconnu, il doit être estimé par une méthode quelconque, mais de préférence le surestimant plutôt que le sous-estimant. L’estimateur de James-Stein (shrinkage estimator) optimal est \[\begin{equation} \tag{3.45} \tilde{p}_s = \hat{\lambda}\frac{1}{\hat{S}} + \left( 1-\hat{\lambda} \right)\hat{p}_s, \end{equation}\]
où \[\begin{equation} \tag{3.46} \hat{\lambda} = \frac{1-\sum^{s^{n}_{\ne 0}}_{s=1}{\left( \hat{p}_s \right)^2}} {\left( n-1 \right) \sum^{s^{n}_{\ne 0}}_{s=1}{\left( \frac{1}{\hat{S}} - \hat{p}_s \right)^2}}. \end{equation}\]
L’entropie est ensuite simplement estimée par l’estimateur plug-in : \(\tilde{H} = -\sum^{s^{n}_{\ne 0}}_{s=1}{\tilde{p}_s \ln{\tilde{p}_s}}\). Le calcul sous R est le suivant :
library("entropy")
entropy.shrink(colSums(BCI))
## Estimating optimal shrinkage intensity lambda.freq (frequencies): 0.0021
## [1] 4.275689
## attr(,"lambda.freqs")
## [1] 0.002074043
Le principe même de l’estimation rapproche la distribution de l’équiprobabilité des espèces et donc augmente l’entropie. L’estimation précédente ignore les espèces non observées. Pour les inclure, le vecteur des abondance doit être allongé par autant de zéros que d’espèces estimées :
(S0 <- jackknife(AbdFreqCount(Ns))$Nhat - ncol(BCI))
##
## Your specified order is larger than that determined by the test,
## Therefore the order from the test is used.
## [1] 19
entropy.shrink(c(colSums(BCI), rep(0, S0)))
## Estimating optimal shrinkage intensity lambda.freq (frequencies): 0.002
## [1] 4.276543
## attr(,"lambda.freqs")
## [1] 0.002041748
Les fréquences sont estimées par la fonction freqs.shrink
.
Leur utilisation dans l’estimateur plug-in donne le même résultat :
PsJS <- freqs.shrink(c(colSums(BCI), rep(0, S0)))
## Estimating optimal shrinkage intensity lambda.freq (frequencies): 0.002
Shannon(as.ProbaVector(PsJS))
## None
## 4.276543
Appliqué à des données de biodiversité aquatique, l’estimateur de James-Stein obtient de meilleurs résultats que celui de Chao et Shen (D. Liu et al. 2016) quand l’échantillonnage est réduit.
3.4 Indice de Hurlbert
3.4.1 Définition
L’indice de Hurlbert (1971) est l’espérance du nombre d’espèces observées dans un échantillon de taille \(k\) choisie :
\[\begin{equation} \tag{3.47} _{k}S = \sum^S_{s=1}{\left[1-{\left(1-p_s\right)}^k\right]}. \end{equation}\]
Chaque terme de la somme est la probabilité d’observer au moins une fois l’espèce correspondante.
L’augmentation de la valeur de \(k\) permet de donner plus d’importance aux espèces rares.
L’indice peut être converti en nombre équivalent d’espèces (Dauby et Hardy 2012), c’est-à-dire le nombre d’espèces équiprobables nécessaire pour obtenir la même diversité, notés \(_{k}D\) à partir de la relation
\[\begin{equation} \tag{3.48} _{k}S = {_{k}D} \left[1-{\left(1-\frac{1}{_{k}D}\right)}^k\right]. \end{equation}\]
L’équation doit être résolue pour obtenir \(_{k}D\) à partir de la valeur de \(_{k}S\) estimée, numériquement pour \(k>3\).
Dans deux cas particuliers, les nombres équivalents d’espèces de Hurlbert sont identiques aux nombres de Hill : \(_{2}D ={^{2}\!D}\) et \(_{\infty}D={^{0}\!D}\).
Pour les autres ordres entiers de diversité, il existe une correspondance parfaite entre les deux mesures (Chao et al. 2014, Annexe S2) : la connaissance de l’une permet d’obtenir l’autre. Pour \(k>1\), on a (Leinster et Cobbold 2012)
\[\begin{equation} \tag{3.49} _{k}S = k + \sum_{q=2}^{k}{\binom{k}{q} (-1)^{q+1} (^{q}\!D)^{1-q}}. \end{equation}\]
On a vu que \(^{0}\!D\) égale \(_{\infty}D\), donc \(_{\infty}S={^{0}\!D}\) (3.48).
Inversement, pour \(q>1\) :
\[\begin{equation} \tag{3.50} (^{q}\!D)^{1-q} = q + \sum_{k=2}^{q}{\binom{q}{k} (-1)^{k+1} {_{k}S}}. \end{equation}\]
Pour \(q=1\), la relation est (Mao 2007) \[\begin{equation} \tag{3.51} ^{1}\!H = -1 + \sum_{k=2}^{\infty}{\frac{_{k}S}{k(k-1)}}. \end{equation}\]
3.4.2 Estimation
Hurlbert fournit un estimateur non biaisé de son indice (\(n\) est la taille de l’échantillon, \(n_s\) le nombre d’individus de l’espèce \(s\)) :
\[\begin{equation} \tag{3.52} _k{\tilde{S}} = \sum_{s=1}^{s^{n}_{\ne 0}}{\left[1-{\binom{n-n_s}{k}}/{\binom{n}{k}}\right]}. \end{equation}\]
Dauby et Hardy (2012) montrent que cet estimateur est très peu sensible à la taille de l’échantillon, et obtient de meilleurs résultats sur ce point que les estimateurs de Chao et Shen pour l’indice de Shannon ou du nombre d’espèces. W. Smith et Grassle (1977) ont calculé sa variance.
Le calcul de la diversité de Hurlbert est possible dans entropart :
# Indice de Hurlbert (probabilités)
Hurlbert(as.ProbaVector(colSums(BCI)), k = 2)
## Biased
## 1.973676
## Unbiased
## 1.973721
## Unbiased
## 38.05308