Suite

Échantillonnage aléatoire stratifié avec un grand jeu de données dans ArcGIS ?

Échantillonnage aléatoire stratifié avec un grand jeu de données dans ArcGIS ?


Je souhaite créer un échantillon aléatoire stratifié avec une carte de classification de la couverture terrestre. Le but de l'échantillon aléatoire stratifié est de produire une évaluation de l'exactitude. J'utilise ArcGIS 10.2 avec accès à Spatial Analyst et à tous les autres outils.

J'ai six types d'occupation du sol et je veux 300 points aléatoires pour trois des classes qui m'intéressent. Ma première étape a été de convertir mon raster en polygone. Le résultat me donne plus de 3 millions de polygones avec lesquels travailler.

J'ai essayé l'outil Dissoudre et créé des polygones en plusieurs parties, mais certaines de mes classes sont trop grandes, ce qui entraîne un message d'erreur "Topologie invalide (mémoire insuffisante).

J'ai essayé d'utiliser la fusion dans la barre d'outils de l'éditeur. Encore une fois, en raison de mon grand nombre de polygones dans certaines de mes classes, il se bloque et fait planter ArcMap.

Je voudrais faire l'échantillon aléatoire stratifié sur un raster, plutôt que de le convertir en forme de polygone. Est-ce possible?

Y a-t-il d'autres outils/programmes que je devrais utiliser qui pourraient m'aider à lutter contre mon problème d'ensemble de données volumineux ? J'ai constamment rencontré des problèmes parce que j'ai tout simplement trop de polygones par type de couverture terrestre.


Restez au format raster.

Si ArcGIS fournissait une fonction de centile zonale, vous pourriez le faire en quelques étapes simples. Comme ce n'est pas le cas, vous devez contourner cette limitation. Il y a plusieurs façons de procéder. Les idées clés sont :

  1. Déterminez la proportion de cellules dans chaque classe représentée par l'échantillon souhaité de 300.

  2. En seuillant une grille de valeurs aléatoires uniformes, vous pouvez identifier un peu plus que le nombre de points nécessaires dans chaque classe.

  3. Extrayez ces points, puis post-traitez-les en ne retenant que ceux ayant les valeurs aléatoires les plus faibles au sein de chaque classe.

Cette procédure permet d'obtenir un échantillon aléatoire simple sans remise, et indépendamment, de chaque classe de terre.


Voici quelques détails. Qu'il y ait N Des classes (m = 3 dans la question), chacune avec n(i) cellules (i = 1, 2,… , N). Supposons que vous ayez l'intention de sélectionner k(i) au hasard dans chaque groupe (k(i) = 300 pour les indices de classe i = 1, 2, 3 dans la question). Vous le ferez en générant une grille aléatoire uniforme et en la comparant à une grille de seuil [T]. Il a la valeur constante p(i) à chaque cellule de la classe je, avec p(i) quelque part (à choisir de manière appropriée) entre 0 et 1.

Le résultat de cette comparaison en classe je est un nombre aléatoire X(i) ayant une distribution binomiale(n(i), p(i)). Son espérance est donc m(i) = n(i)*p(i), qui doit être proche de k(i). Cependant, X(i) peut être aléatoirement inférieur à cela. Sa variance est v(i) = n(i)*p(i)*(1-p(i)). Pour être vraiment sûr que X(i) sera au moins k(i), nous avons besoin d'un très petit centile inférieur de la distribution de X(i) pour dépasser k(i). Vous pouvez déterminer quelle doit être la valeur résultante de p(i) au moyen d'une calculatrice statistique, mais une règle empirique efficace (pour un nombre modérément petit de classes N) est de s'assurer que k(i) est inférieur à plusieurs écarts types inférieurs à m(i). En laissant une valeur de départ raisonnable pour "plusieurs" être L, nous obtenons l'inégalité quadratique

k(i) <= m(i) - L*sqrt(n(i)*p(i)*(1-p(i)))

dont la solution approximative est

p(i) = (k(i)/n(i)) * (1 + z(i) + z(i)^2/2)

z(i) = L/carré(k(i)).

Dans la question, k(i) = 300 et il semble que les n(i) se comptent par millions. Prenant L = 3, disons, donne z(i) = 3 / sqrt(300), qui est d'environ 1/6 (et z(i)^2/2 est assez petit pour être négligé) Cela nous dit de demander 1/ 6 points de plus que la proportion souhaitée k(i)/n(i).

Avec ce (simple) calcul à l'écart,

  • Reclasser les classes de terres je dans les valeurs de la pi) vous avez calculé. Appelez la grille résultante [P].

  • Créez une grille aléatoire uniforme [R].

  • Définissez les valeurs de [R] sur null partout où [R] > [P].

Cette dernière grille aura un peu plus de X = k(1) + k(2) +… + k(N) (= 900 dans la question) cellules non nulles. À ce stade, utilisez votre méthode préférée (il y en a beaucoup qui fonctionneront) pour

  1. le combiner avec la grille de classe de terre et

  2. afficher tous les tuples (i, R(i), coordonnée x, coordonnée y) sous forme de fichier de formes de points.

Post-traiter le fichier de formes en ne conservant que les valeurs k(i) les plus basses pour chaque classe je: c'est l'échantillon désiré. Si vous êtes tellement malchanceux que vous n'obtenez pas assez de points dans une classe, répétez simplement l'ensemble du processus depuis le début. (Envisagez d'augmenter la valeur de L lorsque vous le faites.)


Alternativement, faire le travail dansRserait simple, car il offre des fonctions pour trouver directement les valeurs aléatoires k (i) les plus basses dans chaque classe, plutôt que d'avoir à suivre plusieurs étapes et à convertir les choses dans un format de fichier de formes de points. Le même workflow conceptuel est impliqué.


Il semble que tout ce dont vous avez vraiment besoin est une sélection aléatoire de cellules (pour le raster) ou d'entités (pour le vecteur), pour chaque classe. Lorsque j'ai dû le faire, j'ai divisé ma classification en rasters distincts pour chaque classe, puis j'ai converti en points, puis j'ai utilisé un générateur de nombres aléatoires et une requête de définition pour ne conserver que les entités avec des FID correspondants. Vous pouvez également utiliser quelque chose comme les outils de Hawth pour créer une sélection aléatoire sur votre fichier de points. Dans les deux cas, exportez simplement la sélection en tant qu'emplacements d'évaluation de la précision. J'ai fait exactement cette chose pour une très grande classification de la couverture terrestre pour ma thèse et cela a bien fonctionné.


Utilisation du système géoscientifique d'altimètre laser (GLAS) d'ICESat pour évaluer les perturbations forestières à grande échelle causées par l'ouragan Katrina

En 2005, l'ouragan Katrina a causé une perturbation importante des forêts américaines. Les estimations récentes des dommages causés par l'ouragan Katrina se sont principalement appuyées sur la télédétection optique et les données de terrain. Cet article est la première étude à grande échelle à utiliser des données lidar satellitaires pour quantifier les changements dans la structure de la forêt à partir de cet événement. Les données GLAS pour les années avant et après l'ouragan Katrina ont été comparées à la vitesse du vent, à la couverture forestière et aux données sur les dommages pour évaluer l'adéquation de l'échantillonnage des capteurs et pour estimer les changements de la hauteur moyenne de la canopée (MCH) dans toutes les zones qui ont subi des vents de force tropicale. et plus grand. On a constaté que des diminutions statistiquement significatives de MCH après Katrina augmentaient avec l'intensité du vent : tempête tropicale ∆MCH = − 0,5 m, catégorie 1 ∆MCH = − 2 m et catégorie 2 ∆MCH = − 4 m. Une forte relation a également été trouvée entre les changements dans la végétation non photosynthétique (∆NPV), une métrique précédemment démontrée comme étant liée aux dommages causés par les tempêtes, et la MCH post-tempête. Il a été démontré que la saison d'acquisition des données influence les calculs de MCH et de perte de MCH, mais n'a pas empêché la détection des principaux modèles de dommages à grande échelle. Les résultats de cette étude sont prometteurs pour l'utilisation du lidar spatial pour les évaluations à grande échelle des perturbations forestières et soulignent le besoin de données futures sur la structure de la végétation depuis l'espace.


Caractéristiques de la distribution spatiale des métaux lourds dans le sol des zones industrielles chimiques du charbon

La pollution des sols par les métaux lourds dans la zone industrielle chimique du charbon a attiré une attention croissante avec le développement rapide de l'industrie chimique du charbon. La distribution spatiale et la source des métaux lourds dans le sol des zones industrielles de la chimie du charbon devraient être étudiées pour aider à prévenir une nouvelle pollution par les métaux lourds dans les zones industrielles et réduire l'exposition aux métaux lourds des travailleurs d'usine.

Matériels et méthodes

Une usine chimique de charbon dans le nord-ouest de la Chine a été étudiée. Une méthode d'échantillonnage en échiquier a été utilisée pour recueillir 153 échantillons de sol. Un spectromètre de masse à plasma à couplage inductif (ICP-MS) et un analyseur de vapeur de mercure ont été utilisés pour quantifier cinq métaux lourds (Pb, Hg, Cd, Cr et As). Les distributions spatiales de ces cinq métaux lourds ont été simulées à l'aide de plusieurs méthodes statistiques et les cartes spatiales des cinq concentrations de métaux lourds ont été obtenues.

Résultats et discussion

Les concentrations moyennes des métaux lourds à l'exclusion du plomb étaient supérieures à leurs valeurs de fond respectives dans le sol dans la région autonome Hui du Ningxia (Ningxia). Les concentrations de Hg, Cd, Cr et As étaient respectivement de 4,00, 4,00, 1,50 et 1,08 fois leurs concentrations de fond. Contrairement à l'organigramme de production, le sol des deux côtés de la route nationale et du couloir de transport du charbon à l'usine présentait des concentrations de Pb et de Cd relativement élevées. La décharge de scories des résidus de gazéification avait la concentration de Cr la plus élevée en raison des vents dominants locaux. Les concentrations de Hg, de Cd et d'As dans la direction sous le vent des vents dominants provenant de la cheminée de l'unité de combustion du charbon étaient significativement élevées.

Conclusion

Dans cette étude, les distributions spatiales de cinq métaux lourds (Pb, Hg, Cd, Cr et As) dans le sol d'une usine chimique de charbon ont été obtenues. Les sources respectives de métaux lourds dans le sol ont été déterminées. La présente étude fournit une base théorique pour la prévention et le traitement de la pollution par les métaux lourds dans les usines chimiques du charbon.


Échantillonnage aléatoire stratifié avec un grand jeu de données dans ArcGIS ? - Systèmes d'information géographique

Abdellaali Tairi, Ahmed Elmouden, Lhoussaine Bouchaou et Mohammed Aboulouafa

La perte de sol est une grave menace environnementale dans de nombreuses régions du Maroc. La dégradation des sols fertiles dans les bassins versants de montagne influence négativement la productivité agricole. L'équation universelle révisée de perte de sol (RUSLE) et les techniques du système d'information géographique (SIG) ont été adoptées pour quantifier le taux annuel de perte de sol dans le bassin versant de la montagne Tifnout Askaoun de 1488 km² au sud du Maroc. La distribution spatiale du taux annuel d'érosion des sols a été obtenue en intégrant des variables géo-environnementales dans un SIG, notamment l'érosivité des précipitations (R), le facteur d'érodabilité des sols (K), la longueur et la durée de l'érosion des sols, l'inclinaison des pentes ( LS), le facteur de végétation et de gestion (C) et le facteur de soutien à la pratique (P). Le résultat montre que le bassin versant de Tifnout Askaoun a un taux de perte de sol annuel moyen de 49,60 tonnes/ha/an. Le résultat obtenu est en corrélation avec tous les facteurs de l'équation de RUSLE. Les cartes produites dans cette étude peuvent servir de base de données pour les futures interventions de lutte contre l'érosion dans le bassin versant de Tifnout Askaoun.

L'algorithme de régression additive prédit les concentrations de polluants atmosphériques avec une plus grande précision

En raison de l'augmentation du nombre de décès liés à la pollution de l'air, le développement de modèles de prédiction est devenu un objectif clé pour les chercheurs. Il ne fait aucun doute que les algorithmes d'apprentissage automatique basés sur un réseau de neurones artificiels et une machine à vecteurs de support (SVM), tels que le perceptron multicouche (MLP), la base radiale et la base linéaire, sont les outils d'exploration de données les plus fiables et les plus largement utilisés pour la modélisation de la pollution atmosphérique. Cependant, les techniques d'apprentissage d'ensemble, telles que la forêt aléatoire (RF), l'ensachage, la régression additive (AR) sont récemment apparues comme des outils d'apprentissage automatique efficaces. En vue de la modélisation de la prédiction, l'étude utilise des classificateurs indépendants, tels que RF, SVM, arbre de régression utilisant l'algorithme M5 (M5P) et la régression linéaire simple (SLR) au cours de la première phase. Compte tenu du concept de modélisation composite, au cours de la phase suivante, tous les classificateurs ont été combinés avec AR pour évaluer les performances de prédiction de chaque classificateur. L'étude utilise un ensemble de données d'émissions et météorologiques pour prédire la concentration atmosphérique de dioxyde d'azote (NO2). Les performances de prédiction de chaque modèle ont été évaluées en termes de coefficient de corrélation (R 2 ). Les performances du modèle ont été validées en comparant les résultats de classificateurs indépendants à ceux de classificateurs composites. Les résultats obtenus suggèrent que l'adoption de classificateurs indépendants dans la régression additive en tant que classificateurs de base améliore leur précision de prédiction et réduit les valeurs d'erreur.

Additifs antioxydants, esters méthyliques d'huile de gaulthérie, dichlorhydrate de N-diméthyl-p-phénylènediamine, Nphényl-p-phénylène ediamine, performances d'émission


Nous avons trouvé au moins 10 Liste de sites Web ci-dessous lors de la recherche avec créer arcmap de points aléatoires sur le moteur de recherche

Créer des points aléatoires—Aide ArcGIS for Desktop

  • Assigner Aléatoire valeurs à des points placés au hasard, d'abord générer des points aléatoires en utilisant cet outil
  • Deuxièmement, utilisez l'outil Ajouter un champ pour créer un nouveau champ numérique dans le points aléatoires Classe d'entités
  • Les types de champs suggérés sont les entiers longs ou les flottants.

Fonctionnement de la création de points aléatoires—ArcMap Documentation

  • Créer des points aléatoires au hasard place un nombre spécifié de points dans une fenêtre d'étendue ou à l'intérieur des entités d'un polygone, d'une ligne ou indiquer Classe d'entités
  • La première étape du traitement consiste à créer une Aléatoire flux de nombres à partir d'un nombre aléatoire générateur et semences.

Comment générer des points aléatoires dans ArcGIS Geographic

Gis.mtu.edu AD : 11 PENNSYLVANIE: 11 Rang MOZ : 24

  • Générer des points aléatoires dans ArcGIS A) Préparez une carte dans ArcMap. Ajoutez toutes les couches dont vous avez besoin, y compris une couche de polygones dans laquelle vous souhaitez générer des points aléatoires (par exemple, les limites des peuplements)
  • Si nécessaire, sélectionnez le polygone dans lequel vous souhaitez que les points soient contenus.

Créer des points aléatoires (gestion des données)—ArcGIS Pro

Pro.arcgis.com AD : 14 PENNSYLVANIE: 50 Rang MOZ : 67

  • Assigner Aléatoire valeurs à des points placés au hasard, d'abord générer des points aléatoires en utilisant cet outil
  • Deuxièmement, utilisez l'outil Ajouter un champ pour créer un nouveau champ numérique dans le points aléatoires Classe d'entités
  • Les types de champs suggérés sont les entiers longs ou les flottants.

Fonctionnement de la création de points aléatoires—Aide ArcGIS for Desktop

  • Créer des points aléatoires au hasard place un nombre spécifié de points dans une fenêtre d'étendue ou à l'intérieur des entités d'un polygone, d'une ligne ou indiquer Classe d'entités
  • La première étape du traitement consiste à créer une Aléatoire flux de nombres d'un nombre aléatoire générateur et semences.

ArcMap Create Random Points ne crée pas assez de po

  • J'utilise le 'Créer des points aléatoires' Outil de gestion des données et sélection de la couche (1 polygone) Je veux le points en tant que classe d'entités contraignantes
  • Le polygone s'adapterait facilement à environ 50 points de données espacés de 2 km chacun
  • j'ai mis le maximum points (nombre de points - long) à 20, espacement minimum à 2km, et exécutez la commande.

Exercice 1a : Création de nouveaux points—Aide ArcGIS for Desktop

  • Clique le Indiquer outil sur le Créer Fenêtre des fonctionnalités
  • À l'aide de l'imagerie aérienne, cliquez sur la carte pour placer un indiquer directement au-dessus du bâtiment du centre d'accueil au centre de l'affichage
  • Puisque tu es création de points, cliquer une fois sur la carte ajoute l'entité.

Comment générer des points aléatoires dans ArcGIS 10.5

Youtube.com AD : 15 PENNSYLVANIE: 6 Rang MOZ : 28

  • Une activité courante dans le domaine des ressources naturelles est l'évaluation des ressources, telles que la végétation, la faune ou le sol, dans une zone

Création de points aléatoires ArcGIS 10.4+

  • Dans ArcMap, les Créer des points aléatoires l'outil crée un nombre spécifié de point aléatoire fonctionnalités
  • Points aléatoires peut être généré dans une fenêtre d'étendue, à l'intérieur d'entités surfaciques, sur indiquer entités ou entités le long de la ligne
  • Pour plus d'informations sur création aléatoire valeurs dans une table attributaire, référence Calculs de champ : Création aléatoire Valeurs PM2082-17e

Vue d'ensemble du jeu d'outils Échantillonnage—ArcMap Documentation

  • Par exemple, le Créer des points aléatoires l'outil crée des points qui peuvent être utilisés comme emplacements d'échantillonnage dans l'étendue d'un jeu de données
  • Le produire Outil de tessellation crée un maillage de polygones triangulaires, carrés ou hexagonaux dans une étendue qui peut être utilisé pour agréger d'autres données.

Fonctionnement de la création de points aléatoires—ArcGIS Pro Documentation

Pro.arcgis.com AD : 14 PENNSYLVANIE: 50 Rang MOZ : 74

  • Créer des points aléatoires place au hasard un nombre spécifié de points dans une fenêtre d'étendue ou à l'intérieur des entités d'une classe d'entités surfaciques, linéaires ou ponctuelles
  • La première étape du traitement consiste à créer un flux de nombres aléatoires à partir d'un générateur de nombres aléatoires et d'une graine.

Générer des points aléatoires et extraire la valeur à l'aide d'Arcgis 10 3

Youtube.com AD : 15 PENNSYLVANIE: 6 Rang MOZ : 32

Dans cette vidéo, nous montrons comment générer des points aléatoires sur le jeu de données raster et extraire indiquer valeur à travers ArcGIS 10.3

Conseil rapide 12 - Création de points d'échantillonnage aléatoires dans un

  • j'ai mis en évidence le Créer des points aléatoires outil, que vous pouvez trouver sous Outils de gestion des données -> Classe d'entités dans la fenêtre ArcToolbox
  • Nous l'utiliserons pour créer un simple Aléatoire échantillonner dans le comté de Monterey et l'utiliser pour échantillonner l'utilisation des terres / la couverture terrestre dans le comté de Monterey
  • Ouverture du Créer des points aléatoires l'outil ouvre cette fenêtre.

Générer des points aléatoires dans un polygone avec

  • Il existe un moyen de contourner cela : 1- créer Utilisation de la couche tampon (-75 mètres) comme distance tampon, ce qui réduira vos polygones
  • 2- Créer Polygone d'étendue (un grand polygone), utilisez l'outil Dissoudre si tous les polygones se touchent ou utilisez la géométrie de délimitation minimale pour les polygones séparés
  • 3- Utilisation Créer des points aléatoires outil comme l'image suivante et dans le même ordre d'étapes :

Utilisation de la calculatrice de champs : créer des valeurs aléatoires

  • ArcMap a deux options pour créer au hasard valeurs dans la table attributaire
  • La première méthode utilise VB Script tandis que la deuxième méthode utilise les scripts Python
  • Dans la zone de texte Code de script VBA pré-logique, saisissez le texte suivant
  • Dim max, min max=20 min=5 x=(Int((max-min+1)*Rnd+min))

Vue d'ensemble du jeu d'outils d'échantillonnage—ArcGIS Pro Documentation

Pro.arcgis.com AD : 14 PENNSYLVANIE: 50 Rang MOZ : 79

  • Par exemple, l'outil Créer des points aléatoires crée des points qui peuvent être utilisés comme emplacements d'échantillonnage dans l'étendue d'un jeu de données
  • L'outil Générer la tessellation crée un maillage de polygones triangulaires, carrés ou hexagonaux dans une étendue qui peut être utilisée pour agréger d'autres données

Créer des points à partir d'une table—ArcGIS Pro Documentation

Pro.arcgis.com AD : 14 PENNSYLVANIE: 50 Rang MOZ : 80

  • Dans l'onglet Carte, dans le groupe Couche, cliquez sur Ajouter des données
  • Dans la boîte de dialogue Parcourir, dans la liste des liens rapides, sous Projet, cliquez sur Dossiers
  • Dans la fenêtre de droite, accédez à Create_points_from_a_table_1 > common data > userdata
  • Le dossier userdata contient un fichier.csv et un fichier texte avec des métadonnées.

Échantillonnage aléatoire stratifié dans ArcGIS

  • Comme @hornbydd l'a mentionné dans les commentaires, l'outil Sampling Design a la capacité de créer stratifié Aléatoire échantillons
  • Il existe une version pour ArcGIS 9 et 10
  • Cependant, vous auriez toujours besoin d'intersecter les deux ensembles de données comme @radouxju l'a mentionné et créer un nouveau domaine qui…

Créer un raster aléatoire (Spatial Analyst)—ArcGIS Pro

Pro.arcgis.com AD : 14 PENNSYLVANIE: 50 Rang MOZ : 82

  • Le Créer aléatoire L'outil Raster génère des valeurs pour chaque cellule du raster en sortie
  • Le raster en sortie de cet outil est toujours flottant indiquer
  • Les valeurs des cellules auront jusqu'à 7 chiffres de précision après la virgule indiquer
  • L'utilisation répétée de la même valeur de départ ou de la valeur par défaut ne produira pas le même raster.

Créer des points à partir d'une table dans ArcGIS Pro

Youtube.com AD : 15 PENNSYLVANIE: 6 Rang MOZ : 40

Voir le tutoriel étape par étape : https://pro.arcgis.com/en/pro-app/get-started/créer-points-from-a-table.htm Dans ce didacticiel, vous allez créer données spatiales de

Outils d'analyse Hawths pour ArcGIS

GÉNÉRER DES POINTS ALÉATOIRES OUTIL Entrée : au moins une couche de référence (couche raster ou polygone) Sortie : a indiquer couche de positionnement aléatoire points Fonctionnalités : pour les couches raster, permet à l'utilisateur d'empêcher le indiquer d'être placé dans une cellule NoData, et/ou utilise les valeurs de la couche raster comme poids de probabilité pour le placement du points aléatoires (voir la section Aide ci-dessous)


Validation de méthodes d'évaluation rapide pour déterminer les classes de durée d'écoulement dans le nord-ouest du Pacifique, États-Unis

Les décisions de la Cour suprême des États-Unis ont créé une incertitude concernant l'autorité de la Clean Water Act (CWA) des États-Unis sur certaines eaux et ont établi de nouvelles exigences en matière de données et d'analyses pour déterminer la compétence de la CWA. Ainsi, des méthodes d'évaluation rapide sont nécessaires pour différencier les cours d'eau éphémères, intermittents et pérennes. Nous rapportons la validation de plusieurs méthodes. La première (méthode provisoire) a été développée grâce au meilleur jugement professionnel (BPJ), une alternative (méthode révisée) résultant d'une analyse statistique. Nous avons testé la méthode provisoire sur 178 tronçons d'étude dans l'Oregon et construit la méthode révisée sur la base d'une analyse statistique des données de l'Oregon. Ensuite, nous avons évalué l'applicabilité régionale des méthodes sur 86 tronçons d'étude à travers une variété de paysages hydrologiques à Washington et en Idaho. Au cours de la deuxième phase, nous avons également comparé la méthode révisée avec une approche similaire (méthode combinée) basée sur des données de terrain combinées de l'Oregon, de Washington et de l'Idaho. Nous avons ensuite comparé les méthodes basées sur le terrain avec une approche basée sur le SIG (méthode SIG) qui utilisait l'ensemble de données hydrographiques nationales et un réseau de cours d'eau synthétique. Les évaluations de toutes les méthodes ont comparé les résultats avec les classes de durée de débit réelles. La méthode révisée a correctement déterminé la durée connue du débit d'eau dans 83,9 % du temps, contre une précision de 62,3 % de la méthode provisoire et une précision de 43,6 % pour l'approche basée sur le SIG. La méthode combinée n'a pas surpassé de manière significative la méthode révisée. L'analyse a montré que les indicateurs biologiques discriminent le plus précisément les classes de durée d'écoulement. Bien que le BPJ ait établi une hypothèse vérifiable, cette étude illustre l'importance des tests quantitatifs sur le terrain des méthodes d'évaluation rapide. Les résultats appuient une méthode cohérente applicable dans tout le nord-ouest du Pacifique.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Discussion

Richesse en espèces

L'analyse spatiale de la richesse des espèces et de l'endémisme basée sur des données d'observation et de spécimens est devenue une méthodologie populaire à l'échelle mondiale (par exemple, Myers et al., 2000 Croquant et al., 2001 Hijmans & Spooner, 2001 Hopper & Gioia, 2004 ). Ces méthodes se sont avérées utiles pour afficher la richesse des espèces et l'endémisme d'une manière plus systématique que cela n'a été possible dans le passé et offrent une opportunité d'examiner les travaux antérieurs et de comparer les modèles dans différents taxons (Williams & Gaston, 1998). Ils ont également été utilisés pour cartographier les centres d'endémisme et théoriser sur les influences probables sur leur développement (par exemple Manrique et al., 2003 ).

Bien que les tendances de la richesse en espèces d'anoures dans la présente étude soient similaires aux conclusions de chercheurs antérieurs ( Heyer & Liem, 1976 Watson, 1980 Tyler et al., 1981 Brook, 1983 Littlejohn et al., 1993 Roberts, 1993 ), cette étude a indiqué de nouveaux centres de richesse et repoussé les limites de ceux déjà connus. Les nouvelles découvertes incluent des zones localisées de richesse en espèces dans le Queensland entre Gympie et la région des tropiques humides, une zone de grande richesse en espèces dans le Golfe autour de McArthur River, et l'extension des zones de richesse en espèces dans le Top End en général. Une autre augmentation intéressante de la richesse en espèces se produit le long des rivières intérieures à l'ouest, au nord et au sud de Bourke. Nous attribuons la plupart de ces changements de Roberts (1993) à l'effort d'enquête majeur qui a été mis dans certaines régions d'Australie depuis le début des années 1990. L'apparition d'une zone de grande richesse en espèces dans le pays du Golfe reflète presque certainement l'absence antérieure d'une enquête complète dans cette région et nous suggérons que la richesse en espèces d'anoures est probablement beaucoup plus continue dans cette région que nos résultats ou les travaux des précédents les auteurs ont trouvé. Le résultat n'est pas inattendu, car cette région compte de nombreuses rivières permanentes ou semi-permanentes, des refuges sous forme de forêts tropicales et de bosquets de vignes, de fortes précipitations saisonnières et des régions de complexité topographique, compatibles avec les centres connus d'endémisme anoure ailleurs dans le nord de l'Australie. Encore une fois, dans la région de Bourke, en particulier le long du Paroo, la complexité environnementale sous la forme de la fréquence des rivières et des points d'eau permanents et semi-permanents par rapport aux régions environnantes peut être importante, bien que des travaux supplémentaires soient nécessaires pour le prouver.

Notre analyse n'a pas trouvé de zone de plus grande richesse en espèces le long de la côte ouest de l'Australie, au sud du Kimberley, comme suggéré par Roberts (1993) (Fig. 1b). Nous n'avons pas non plus trouvé de soutien pour l'identification de Victoria et de la Tasmanie en tant que centres tempérés frais de richesse en espèces, zones identifiées par Tyler et al. (1981) , Roberts (1993) et Tyler (1999) .

Nos résultats n'appuient pas non plus l'identification par Tyler (1999) d'une vaste région du sud-est de l'Australie comme une zone importante de richesse en espèces. La région importante du sud-est est une zone beaucoup plus petite couvrant la côte et l'escarpement de la Nouvelle-Galles du Sud au nord de Wollongong et exclut les Flinders Ranges, Victoria et la Tasmanie. Nous ne définissons pas non plus la zone de fortes précipitations du sud-ouest de l'Australie entre Bunbury et Albany comme une zone de grande richesse en espèces à l'échelle nationale comme cela a été suggéré par un certain nombre d'auteurs précédents (par exemple, Littlejohn et al., 1993 Roberts, 1993 Tyler, 1999 ). Ces différences sont entièrement dues aux méthodes et nous préconisons fortement l'utilisation de grilles à aires égales ou d'autres approches systématiques non subjectives plutôt que le dénombrement des espèces par région.

Sources d'erreur

Deux types d'erreurs relevées dans cette étude sont à considérer dans l'interprétation des résultats, notamment pour l'endémisme. Premièrement, pour les espèces considérées comme répandues dans la littérature mais avec peu de données d'observation (par exemple, certaines Cyclorana espèces), il y a une sous-estimation de l'aire de répartition des espèces, et donc une surpondération de l'espèce dans les calculs d'endémisme. Il est difficile de comptabiliser de telles espèces car nous restons incertains de leur véritable répartition et nous ne pouvons donc pas corriger les faux négatifs. Cibler ces zones avec des enquêtes est probablement le seul moyen de corriger ce biais, mais cela est extrêmement difficile en raison de problèmes de coût et d'accès.

Le deuxième type d'erreur concerne les espèces dont l'aire de répartition enregistrée est étroite. Étant donné que ces espèces contribuent largement aux scores d'endémisme pondérés, les enregistrements avec une localisation erronée créent des scores d'endémisme comparativement élevés aux mauvais endroits. Ce type d'erreur était évident dans de nombreux cas et pouvait être corrigé en excluant les enregistrements erronés. Un troisième type d'erreur (erreurs taxonomiques et de nommage), qui a été soigneusement exclu de la présente étude, a été présumé être aléatoire par Crisp et al. (2001) . Malgré ces problèmes, nous pensons que WE reste un bon indice pour les calculs d'endémisme.

Il existe, bien sûr, des méthodologies alternatives pour générer des cartes de distribution et des tailles d'aire de répartition pour les calculs d'endémisme, telles que l'utilisation de la modélisation spatiale prédictive ( Nix, 1986 Stockwell & Peters, 1999 ). La modélisation réduirait le problème d'une aire de répartition d'espèces sous-échantillonnée, décrite ci-dessus, mais est également susceptible de générer des erreurs - bien que différentes - dans les aires de répartition d'espèces prédites, en particulier pour les espèces représentées par seulement un petit nombre d'enregistrements.

Un quart des feuilles de carte ne contenait toujours aucun enregistrement dans notre base de données, bien que la plupart et probablement toutes les feuilles de carte contiennent des anoures. Dans la plupart des cas, les zones n'ont pas été étudiées, bien qu'il puisse encore y avoir des données d'enquête que nous n'avons pas saisies. Malgré cela, nous pensons que l'ANHAT a produit une caractérisation utilisable de la richesse en espèces et de l'endémisme des anoures en Australie. De plus, l'analyse a produit une carte des zones pour lesquelles nous n'avons pas de données d'observation (Fig. 6). Cela fournit un guide utile sur les endroits où des travaux de terrain supplémentaires (ou l'accès aux données existantes) seraient le plus bénéfiques pour notre compréhension des distributions des anoures.

Endémisme

Cet article fournit une première tentative d'analyse systématique à grande échelle de l'endémisme des anoures à travers le continent australien et fournit de nouvelles perspectives sur l'endémisme des anoures à l'échelle continentale.

Il existe peu de cartes publiées de l'endémisme dans la faune ou la flore australienne, ce qui rend les comparaisons avec d'autres groupes de taxons problématiques. Il y a un certain chevauchement avec les zones d'oiseaux endémiques identifiées par Stattersfield et al. (1998) , ce qui n'est guère surprenant étant donné les vastes zones qu'ils délimitent. Nos principaux centres d'endémisme sont globalement cohérents avec les centres d'endémisme végétal identifiés dans l'analyse nationale de Crisp et al. (2001) et Myers et al. (2000) et dans le Territoire du Nord par Woirnarski et al. (2006). Il n'y a pas de corrélation avec les centres d'endémisme identifiés par Hopper & Gioia (2004) dans la flore du sud-ouest de l'Australie. Il existe également de nombreuses zones documentées comme importantes pour les invertébrés endémiques et la flore endémique, telles que les plaines de sable au nord de Perth, les bosquets de vignes et les sources de monticules, qui n'ont aucune pertinence pour les grenouilles (par exemple, Horowitz, 1997, Harvey, 2002 Yeates et al., 2002 Hopper & Gioia, 2004 Stanisic & Ponder, 2004 ).

La limitation à supposer des modèles endémiques correspondants entre les taxons est illustrée efficacement par le seul hotspot australien identifié par Myers et al. (2000) dans le sud-ouest de l'Australie sur la base d'un endémisme élevé des plantes entrecoupé de menace. Une stratégie de conservation axée sur cette région à biodiversité florale inclurait les principaux centres d'endémisme des anoures dans le sud-ouest, mais conserverait moins de 10 % de la faune australienne des anoures, bien qu'incluant certaines espèces très restreintes et phylogénétiquement intéressantes.

Notre étude suggère que l'endémisme des anoures est dispersé dans des poches à travers le continent, avec un fort accent sur les côtes nord et est, et soutient fortement la région des Tropiques humides et le sud-ouest de l'Australie-Occidentale entre Bunbury-Augusta et Walpole en tant que centres principaux de l'endémisme de la grenouille en Australie. D'autres sont le plateau Mitchell dans le Kimberley, Cape York, Kakadu dans le Top End, le parc national Eungella près de Mackay, près de Gladstone et les zones entre Gympie et Coffs Harbour, y compris les chaînes Conondale et Border. La congruence de certains des principaux centres d'endémisme avec des centres de richesse en espèces est cohérente avec les conclusions d'autres travaux internationaux récents sur l'endémisme (par exemple, Myers et al., 2000 Croquant et al., 2001 Hijmans & Spooner, 2001 Hopper & Gioia, 2004 ). Collectivement, les centres définis contiennent plus de 80 % de la faune d'anoures d'Australie, individuellement, ils se situent en moyenne entre 10 % et 21 %. Cela reflète les conclusions d'autres études internationales, par ex. Hijmans & Spooner (2001) , que dans certains taxons, l'endémisme est dispersé à travers le paysage et alors qu'une seule zone ne contient pas un grand nombre d'endémiques, et donc un pourcentage élevé de biodiversité, un petit nombre de sites peuvent être sélectionnés qui ne . Les centres d'endémisme identifiés sont d'une grande importance pour la planification de la conservation en tant que régions définies qui contiennent collectivement à la fois un grand pourcentage de biodiversité des anoures et ont des espèces peu susceptibles d'être localisées dans de nombreuses autres zones.

Notre analyse systématique remet en question les hypothèses précédemment retenues sur la grande importance du sud-est de l'Australie en tant que centre d'endémisme (voir Littlejohn et al., 1993 Tyler, 1999 ). Nos données confirment la grande richesse en espèces de cette région, elles suggèrent qu'elle n'a au mieux qu'une importance modérée pour l'endémisme. En effet, les espèces endémiques du sud-est sont largement dispersées le long de la Great Dividing Range plutôt que regroupées comme elles le sont dans le sud-ouest et le nord-est de l'Australie. Alors que des études précédentes ont dénombré les espèces endémiques dans des régions prédéfinies de différentes tailles et ont traité les espèces du sud-est comme un seul groupe spatial, notre comparaison à superficie égale ne révèle pas un degré élevé d'endémisme.

La plupart des zones identifiées dans le nord et l'est de l'Australie sont caractérisées par des climats tropicaux ou subtropicaux, des précipitations élevées, une complexité topographique et souvent une complexité d'habitat avec un large éventail d'habitats allant des zones humides et des landes, en passant par les forêts sèches, les hautes forêts et les forêts tropicales. Nous considérons qu'il est hautement probable que ces zones représentent des refuges évolutifs majeurs à long terme. Au moins une de ces zones, les Tropiques humides, a été étudiée en détail pour l'herpétofaune ( Schneider et al., 1998 Moritz et al., 2005 ). Ces études phylogéographiques suggèrent que les vestiges de forêts tropicales humides dans les tropiques humides ont agi comme de multiples petits refuges pour les populations d'herpétofaune pendant l'aridification associée aux maximums glaciaires quaternaires et que cela explique une grande partie de l'endémisme et de la diversité phylogénétique observés. Nous émettons l'hypothèse que la complexité environnementale présentée par d'autres centres du nord et de l'est de l'Australie peut avoir agi d'une certaine manière et que des processus similaires ont été mis en œuvre.

En revanche, les centres du sud-ouest de l'Australie, Bunbury-Augusta et Walpole sont particulièrement différents. Ces deux zones se situent dans la zone de fortes précipitations d'un climat méditerranéen à la topographie modérée et, en comparaison avec l'est et le nord de l'Australie, présentent une faible complexité d'habitat. Clearly, different influences are playing a role in the south-west than in other parts of Australia. In situ speciation and subtle barriers such as edaphic features have been used to explain the local endemism exhibited by Geocrinia species in the south-west ( Wardell-Johnson & Roberts, 1996 ) and these species contribute much of the endemism exhibited in the south-west. Similar fine-scale environmental changes have been invoked to explain high endemism in other taxa such as the vascular plants ( Hopper & Gioia, 2004 ). It seems likely that the south-west represents an area of recent or active speciation and that anurans may be responding to fine-scale environmental changes in a fashion similar to other groups, such as vascular plants, although the resulting patterns vary.

The Monte Carlo randomization confirmed the significance of many of the centres of endemism identified in this study, and also highlighted a distinction in what is meant by endemism based on the explanation for the observed endemism score. We argue that areas where endemism passes this test (> 95%) are not an accidental consequence of independent, overlapping species ranges. These areas have an interesting biogeographic story to tell. In areas that fail the test, the presence of restricted range species is just as real and demands the same attention for conservation, even though the cause may be dismissed as random. It is thus useful to distinguish centres of endemism of both evolutionary and conservation significance, from those that are primarily important for conservation. A good example of the latter is the east coast between Gympie and Coffs Harbour where a number of areas rank highly for anuran endemism (WE > 40) but are far below significance by the randomization test.

Comparison of families

The two largest families have species adapted to live in nearly all parts of Australia, but display markedly different patterns of richness and endemism. Richness in the Hylidae is predominantly northern, and Myobatrachidae strongly orientated towards the central East Coast. The endemism patterns also differ. These patterns suggest a long history on the continent and this is supported by the nearest relatives of both these groups occurring in South America ( Frost et al., 2006 ). The results also show markedly different responses to presumably similar historical pressures. The localized endemism of the Myobatrachidae is arguably strongly rooted in its evolutionary history, whereas endemism in the Hylidae could be dismissed as a by-product of the patterns of richness. One interpretation is that the Myobtrachidae have a long evolutionary history centred on the Australian mainland, whereas the Hylidae have a more diverse northern dominated pattern resulting from more recent and multiple interactions between New Guinea and Australia. We believe that phylogenetic work currently underway for both groups will provide a better understanding of these relationships.

By contrast, the microhylids are restricted to northern Australia, possibly indicating recent arrival in Australia from New Guinea ( Tyler, 1999 ), or tropical niche conservatism ( Wiens & Donoghue, 2004 ).

Future priorities

The major centres of species richness and endemism that we have identified (Table 1) are of use in informing conservation priorities for the future. Collectively, these centres contain a large proportion of Australia's anuran biodiversity and are of great conservation significance for aiding our evolutionary understanding of the Anura. While a number of centres occur in regions well represented in conservation reserves, a number do not. Even within regions that are well conserved, the threat posed by exotic species and diseases does not guarantee anuran conservation.

Our results suggest that the major field survey effort of the past 10 years has made a substantial contribution to an understanding of anuran distributions in Australia. Given this, we can expect that future detailed surveys of poorly surveyed areas will change further the observed patterns of richness and endemism. Clearly, further survey work is needed across inland Australia. Because of the access and timing issues, such work is expensive however, two areas, the inland rivers of the Bourke region and the rivers of the Gulf Country in the vicinity of the Macarthur River, merit further investigation. Both regions appear to be conservation significance for anuran richness and survey work is the principal means of testing this.

The availability of spatial data and the phylogenetic work currently being completed offers the opportunity to further explore the significance of endemic centres using phylogenetic diversity-endemism calculations ( Faith et al., 2004 ) and other methodologies to resolve more finely conservation priorities.

Looking beyond the Anura, there is an opportunity with the increasing digitization and availability of specimen data to extend the systematic analysis of endemism to document and compare the patterns of endemism in Australia's vertebrates.


Scottish Marine and Freshwater Science Volume 3 Number 7: Scallop Abundance in the Lamlash Bay No Take Zone - A Baseline Study

Lamlash Bay, in the Firth of Clyde, was declared Scotland‟s first No Take Zone (NTZ) in 2008. This report presents the results of photographic surveys undertaken by Marine Scotland Science in July 2009 and November 2010 during the first phase of a study

Scallop Abundance in the Lamlash Bay No Take Zone: A Baseline Study

The camera drop frame prior to its deployment from the aft deck of FRV Alba na Mara.

introduction

Of current fishing practice, meta-analyses studying a wide range of towed bottom-fishing gears suggest that scallop dredging is responsible for some of the most damaging effects to the benthic habitat (Collie et al., 2000 Kaiser et al., 2006). Small-scale studies provide empirical evidence that scallop dredging results in the destruction and removal of many non‑target, infaunal and epifaunal species as well as the physical disturbance of the sediment (Eleftheriou and Robertson, 1992 Thrush et al., 1995 Kaiser et al., 1996 Currie and Parry, 1996 Hall-Spencer and Moore, 2000 Hinz et al., 2011). Set alongside this pattern of disturbance, scallop stocks in some of the main fishing areas in Scottish waters have declined over the last decade (Howell et al., 2006 Keltz and Bailey, 2010). As a result, fishery managers, marine planners and conservation organisations are giving greater consideration to spatial closures in the management of the scallop fishery.

Scallop Stocks

The Firth of Clyde

The dredge fishery for P. maximus in Scotland began in the early 1930s as a seasonal fishery prosecuted by small inshore vessels in the Clyde. The fishery developed rapidly during the late 1960s and early 1970s, expanding through the rest of Scotland and is now a year round activity. The commercial fishery for P. maximus in the Clyde began in the 1960s and landings have fluctuated since then, declining to under 20 tonnes in 1990 and increasing to over 500 tonnes in 2010 (Dobby et al., in press). P. maximus stocks in the Clyde are not assessed by MSS due to insufficient age composition data and no survey data available for this area.

Methods of Capture

The most prevalent method of catching P. maximus in Scotland is by dredge. The dredges used are normally of the 'Newhaven' type and are fitted with a spring-loaded tooth bar that allows the dredge to pass over hard ground ( Figure 2). The spring loaded action of the toothed bar allows the teeth to flex backwards, preventing the dredge from snagging on harder ground, and also improves the catch efficiency of the dredge (Kaiser et al., 1996). The size of the teeth, their spacing, and the diameter of the mesh rings used to make up the collecting bag all combine to affect the size of animals caught up in the dredge (Eleftheriou and Robertson, 1992). Although accounting for only 5% of landings (Keltz and Bailey, 2010), P. maximus is also fished by commercial-divers working from small vessels in areas of shallow water (typically under 40 m). This fishery tends to take place in rockier areas away from the dredge fishery and generally targets only larger individuals. Caught using towed fishing gear, A. opercularis are taken using either skid dredges (a modified Newhaven dredge) or modified otter trawls (Mason, 1983).

Conserving Stocks

Spatial Management Measures

Scallop fishing removes individuals from the stock and causes physical damage, at times fatal, to scallops lying in the path of the dredges (Beukers-Stewart et al., 2001 Stokesbury et al., 2011). Furthermore, the action of the passing dredge tends to remove larger individuals from the seabed and, since larger individuals in a given stock tend to be older (Chapman et al., 1977), dredging also serves to truncate the age structures of local populations in areas which are fished (Beukers-Stewart et al., 2005). This can have implications for reproductive output as smaller, younger individuals produce fewer larvae (Mason, 1983). Since scallop dredging has a homogenising effect on the seabed (Jenkins et al., 2001), it may also affect recruitment indirectly through the removal of suitable structures necessary for the attachment of scallop spat (Mason, 1983 Kamenos et al., 2004). Such effects should however be considered in the context of wider environmental influences on recruitment and the marked year on year variations in recruitment that are typically observed for scallops stocks (Beukers-Stewart et al., 2005).

There is however evidence that scallop stocks benefit from spatial management, at least within the boundaries of the protected areas. Enhanced stock numbers of P. maximus have been recorded in the Isle of Man in a 2 km 2 area that has been closed to scallop dredging since 1989 (Beukers-Stewart et al., 2005). Four years after the closure of the Georges Bank on the eastern seaboard of Canada to towed gears in 1994, surveys reported the highest densities and largest individuals of the sea scallop, Placopecten magellanicus, ever recorded in the area (Murawski et al., 2000 Stokesbury, 2002). On the other hand, even in the absence of fishing, mass mortality events have been documented within MPA boundaries. Stokesbury et al. (2007) found that larger, and possibly older, P. magellanicus experienced high rates of mortality (35%) between 2004 and 2005 in a closed area in the Great South Channel, USA .

The cessation of fishing activity in Lamlash Bay provides an excellent opportunity to investigate the recovery of scallop stocks within a recently established marine protected area. It also provides a unique opportunity to examine the ecological consequences of using spatial closures as a fishery management tool.

Aims of the Study

The Drop Frame Camera System

Photographic Surveys

Four 1.85 m 2 quadrat images of the seabed were obtained at each station. Time, depth, latitude and longitude were also recorded. A shipboard video monitoring system ensured that the camera operator avoided taking images from overlapping quadrats. By accounting for edge effects (see Krebs, 1989 Stokesbury, 2002), the sampled area within each quadrat could be increased. Dans le cas d P. maximus, the sampled area was 2 m 2 . This was calculated by adding 56.5 mm - the average half, shell height of P. maximus taken from market sampling data (Marine Scotland Science data, 2011) - to each edge of the quadrat. Using four such quadrats yielded a surveyed area of 8 m 2 at each station. The effective area sampled for the smaller A. opercularis was 1.94 m 2 , based on an average half shell height of 34.3 mm (Marine Scotland Science data, 2011).

All images were analysed post-survey. The number of scallops of each species ( P. maximus and A. opercularis) present in each quadrat and the substrate type were recorded. Since the photographic technique used made it difficult to identify very small individuals to species, only 'adults' were counted. Pecten maximus and A. opercularis individuals with estimated shell heights of > 80 mm and >40 mm, respectively, were classified as adults. Although drop camera frames have been used to estimate scallop shell heights previously ( e.g. Stokesbury et al. 2004), errors in size data collected from visual survey methods increase the frequency and size of the largest and smallest individuals, potentially biasing growth, mortality, and biomass estimates (Jacobson et al., 2010). Due to the relatively small numbers of scallops encountered during the survey, and the fact that a high degree of precision is likely to be required to discern between years, no estimates of size were used in this study.

Sediments were classified on the basis of observation as: (1) mud or mud/sand, (2) sand, (3) sand/gravel (4) gravel (5) gravel/boulders. To simplify classification, shell debris were classed as gravel when amongst gravel beds.

Analyses statistiques

1. Camera Survey Technique

In total, 2,440 quadrat images of the seabed in and around Lamlash Bay were obtained during the two surveys, and of these 1,944 quadrats were used in subsequent statistical analyses. Poor water clarity caused by a seasonal bloom of plankton was apparent in images collected from the summer survey of 2009. This problem was mitigated by the use of image-processing techniques. An example of the quadrat images collected during these surveys is given in Figure 5.

2. Identification of Survey Areas

Two reference areas were identified during the preliminary survey in 2009. These were adjacent to the NTZ , one within the bay and one outside, lay to the west and east of its boundaries, and were in waters of a similar depth (15-35 m). A map of substrate type derived from 2009 survey data and the area boundaries are shown in Figure 6. Following a post-survey analysis of the 2009 image data, prior to the 2010 survey, the boundaries of both reference areas were redrawn to encompass only those areas providing suitable habitat for scallops. Substrate types observed in the survey quadrats in the both 2009 and 2010 surveys are shown in ( Figure 7).

3. Baseline estimates of Mean Density

A. opercularis

4. Assessing changes in stock abundance from 2009 to 2010


Species Distribution Models of Freshwater Stream Fishes in Maryland and Their Implications for Management

Species distribution models (SDMs) are often used in conservation planning, but their utility can be improved by assessing the relationships between environmental and species response variables. We constructed SDMs for 30 stream fishes of Maryland, USA, using watershed attributes as environmental variables and presence/absence as species responses. SDMs showed substantial agreement between observed and predicted values for 17 species. Most important variables were natural attributes (e.g., ecoregion, watershed area, latitude/longitude) land cover (e.g., %impervious, %row crop) was important for three species. Focused analyses on four representative species (central stoneroller, creek chub, largemouth bass, and white sucker) showed the probability of presence of each species increased non-linearly with watershed area. For these species, SDMs built to predict absent, low, and high densities were similar to presence/absence predictions but provided probable locations of high densities (e.g., probability of high-density creek chub decreased rapidly with watershed area). We applied SDMs to predict suitability of watersheds within the study area for each species. Maps of suitability and the environmental and species response relationships can help develop better management plans.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


1. Introduction

The assessment of landslide susceptibility has been acknowledged as an effective tool to understand landslide processes and predict areas prone to landsliding. Digital elevation models (DEMs) are among the most important data products commonly used in both physically-based and data-driven landslide models because several process-related terrain attributes such as the local slope angle and the upslope contributing area can be derived from them (van Westen et al. 2008 ).

In recent years the availability of medium to high resolution DEMs has grown at a rapid pace. DEMs such as ASTER GDEM and SRTM DEM provide a quasi-global representation of the Earth’s surface at a medium spatial resolution (30–90 m). The TanDEM-X DEM (for scientific uses) and WorldDEM (for commercial uses) are the newest additions with global coverage and a spatial resolution of 12 m, which is expected to set a new standard in global DEM quality (Wessel et al. 2018 ). While more detailed DEMs promise to depict terrain features more accurately, the added value of TanDEM-X DEMs for landslide susceptibility modelling has not been assessed so far.

Several studies investigate the effects of spatial resolution of a DEM on geomorphometric analyses (Chow and Hodgson 2009 Grohmann 2015 ). These studies conclude that terrain attributes derived from coarser DEMs are less accurate, highlighting the critical importance of DEM resolution. This led to the assumption that the outcomes of landslide susceptibility models might be influenced by unrealistic representations of DEM derivatives. A review of recent publications reveals a large number of papers dealing with the evaluation of the effects of spatial resolution on the accuracy of landslide susceptibility models (Lee et al. 2004 Claessens et al. 2005 Tian et al. 2008 Mora et al. 2014 Chang et al. 2016 ). Overall, these studies indicate that more detailed DEMs (10–30 m spatial resolution) produce better susceptibility models in terms of predictive performance compared to their coarser counterparts (30–150 m). Moreover, it has been suggested that the optimal resolution depends on the location of the investigated area and the landslide characteristics. However, these studies only consider DEMs obtained from one source, which were then resampled to various resolutions for comparison.

While the effects of spatial resolution are well studied and understood only limited research has been completed to date on how the source of a DEM can influence the accuracy of landslide susceptibility models. Mahalingam and Olsen ( 2016 ) extracted landslide conditioning factors using ASTER, Light Detection and Ranging (LiDAR) and national elevation data and compared their suitability for producing reliable landslide susceptibility models for two sample areas in Oregon. The results showed that the DEM derived from LiDAR data throughout yielded higher predictive accuracy compared to the other DEMs. A nearly similar study was conducted by Pradhan and Sameen ( 2017 ). Their comparison of the LiDAR sensor with the ASTER sensor showed that the collection of detailed ground information using the LiDAR sensor provided better landslide susceptibility models (based on AUROC) in a tropical mountainous region in the west of Malaysia. While the above mentioned studies only compared elevation data obtained through ASTER or LiDAR, literature review only reveals one paper that compared the suitability of various freely available global DEMs for their usage in landslide susceptibility modelling.

The objective of this study is to investigate the performance improvements that can be achieved in the context of landslide susceptibility modelling by different globally available digital elevation models (DEMs) using different state-of-the-art statistical and machine-learning models. In this study we apply Generalized Linear Models (GLM), Generalized Additive Models (GAM), Random Forests (RF) and Support Vector Machines (SVM) to predict landslide susceptibility based on predictor sets derived from a TanDEM-X DEM an ASTER GDEM, a SRTM DEM and a DEM interpolated from contour lines.

The general idea of selecting the used modelling techniques is that GLM is the most popular susceptibility model, due to its easy interpretability (Reichenbach et al. 2018 ). GAMs provide a general framework for extending the linear model structure of the GLM and have been proven to be useful in landslide susceptibility modelling (Goetz et al. 2011 , 2015 ). The GAM allows for a non-linear relationship between each feature and the response, while maintaining interpretability of model coefficients. The RF model has been repeatedly reported as being one of the most promising methods for modelling landslide susceptibility in terms of predictive performance (Goetz et al. 2015 Dou et al. 2019 ). SVM though delivers a unique solution for complex problems with its kernel tricks, but the kernel-specific parameter selection is a complex and computationally intensive process.


Potential Movement Corridors and High Road-Kill Likelihood do not Spatially Coincide for Felids in Brazil: Implications for Road Mitigation

The negative effects of roads on wildlife populations are a growing concern. Movement corridors and road-kill data are typically used to prioritize road segments for mitigation measures. Some research suggests that locations where animals move across roads following corridors coincide with locations where they are often killed by vehicles. Other research indicates that corridors and road-kill rarely occur in the same locations. We compared movement corridor and road mortality models as means of prioritizing road segments for mitigation for five species of felids in Brazil: tiger cats (Leopardus tigrinus et Léopard guttulus were analyzed together), ocelot (Leopardus pardalis), jaguarundi (Herpailurus yagouaroundi), and puma (Puma concolor). We used occurrence data for each species and applied circuit theory to identify potential movement corridors crossed by roads. We used road-kill records for each species and applied maximum entropy to determine where mortality was most likely to occur on roads. Our findings suggest that movement corridors and high road mortality are not spatially associated. We suggest that differences in the behavioral state of the individuals in the species occurrence and road-kill data may explain these results. We recommend that the road segments for which the results from the two methods agree (

5300 km for all studied species combined at 95th percentile) should be high-priority candidates for mitigation together with road segments identified by at least one method in areas where felids occur in low population densities or are threatened by isolation effects.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Voir la vidéo: ArcGIS - Editor - Explode Multipart Feature - Convert selected multipart feature to singlepart