Suite

Comment calculer automatiquement la pente de la rivière pour de nombreuses rivières dans ArcMap ?

Comment calculer automatiquement la pente de la rivière pour de nombreuses rivières dans ArcMap ?


Je travaille avec ArcMap 10.2 et je suis assez nouveau dans ce domaine… Ce que je veux faire, c'est calculer la pente de la rivière pour beaucoup de rivières à partir d'un MNT… Je sais qu'il existe un moyen de le faire manuellement en passant par excel … mais je me demandais s'il y avait un moyen automatique de le faire… peut-être aussi en utilisant d'autres programmes… J'ai tout le territoire de la Suisse à analyser…


Si vous débutez en hydrologie/arc, je vous suggère d'utiliser arc hydro (pour 10.2, essayez le téléchargement et la documentation). Cela vous donnera une pente moyenne et 10-85 en utilisant Watershed Processing - Flow Path Parameters - Flow Path Parameters from 2D Line.

elrobis a raison de dire que vous devrez peut-être échantillonner la pente plus souvent en fonction de : (1) comment les rivières ont été définies (pensez à la longueur, bien qu'elle soit généralement basée sur l'accumulation) (2) changement de pente dans la zone (3) comment vous êtes en utilisant vos résultats. Cependant, si tel est le cas, vous pouvez utiliser la même méthode de détermination de la pente mais sur des segments/définitions de rivière plus fins.


&ldquoRiver&rdquo détection dans le texte

Sur le stackexchange TeX, nous avons discuté de la façon de détecter les "rivières" dans les paragraphes de cette question.

Dans ce contexte, les rivières sont des bandes d'espace blanc qui résultent d'un alignement accidentel d'espaces intermots dans le texte. Étant donné que cela peut être assez distrayant pour un lecteur, les mauvaises rivières sont considérées comme un symptôme d'une mauvaise typographie. Un exemple de texte avec des rivières est celui-ci, où il y a deux rivières qui coulent en diagonale.

Il y a intérêt à détecter ces rivières automatiquement, afin qu'elles puissent être évitées (probablement par une édition manuelle du texte). Raphink fait des progrès au niveau TeX (qui ne connaît que les positions des glyphes et les cadres de délimitation), mais je suis convaincu que le meilleur moyen de détecter les rivières est de traiter les images (puisque les formes de glyphes sont très importantes et ne sont pas disponibles pour TeX) . J'ai essayé différentes manières d'extraire les rivières de l'image ci-dessus, mais mon idée simple d'appliquer une petite quantité de flou ellipsoïdal ne semble pas être assez bonne. j'ai aussi essayé quelques Radon Filtrage basé sur les transformations Hough, mais je n'y suis allé nulle part non plus. Les rivières sont très visibles pour les circuits de détection de caractéristiques de l'œil humain/de la rétine/du cerveau et d'une manière ou d'une autre, je pense que cela pourrait se traduire par une sorte d'opération de filtrage, mais je ne suis pas en mesure de le faire fonctionner. Des idées?

Pour être précis, je recherche une opération qui détectera les 2 rivières de l'image ci-dessus, mais n'aura pas trop d'autres détections de faux positifs.

ÉDITER: endolith m'a demandé pourquoi je poursuivais une approche basée sur le traitement d'images étant donné que dans TeX, nous avons accès aux positions des glyphes, aux espacements, etc., et il pourrait être beaucoup plus rapide et plus fiable d'utiliser un algorithme qui examine le texte réel. Ma raison de faire les choses dans l'autre sens est que le façonner des glyphes peut affecter la visibilité d'une rivière, et au niveau du texte, il est très difficile de considérer cette forme (qui dépend de la police, de la ligature, etc.). Pour un exemple de la façon dont la forme des glyphes peut être importante, considérons les deux exemples suivants, où la différence entre eux est que j'ai remplacé quelques glyphes par d'autres de presque la même largeur, de sorte qu'une analyse basée sur le texte considérerait eux aussi bons/mauvais. Notez, cependant, que les rivières dans le premier exemple sont bien pires que dans le second.


Comment le débit est mesuré

Comment savoir combien d'eau coule dans une rivière ? Pouvons-nous simplement mesurer à quelle hauteur l'eau est montée/descendue ? La hauteur de la surface de l'eau s'appelle le niveau du cours d'eau ou la hauteur de la jauge. Cependant, l'USGS dispose de moyens plus précis pour déterminer la quantité d'eau qui coule dans une rivière. Continuez à lire pour en savoir plus.

Introduction au Streamgaging USGS

L'U.S. Geological Survey (USGS) a commencé sa première mesure en 1889 sur la rivière Rio Grande au Nouveau-Mexique pour aider à déterminer s'il y avait suffisamment d'eau à des fins d'irrigation pour encourager le nouveau développement et l'expansion vers l'ouest. L'USGS exploite plus de 8 200 indicateurs de débit continu qui fournissent des informations sur le débit pour une grande variété d'utilisations, notamment la prévision des inondations, la gestion et l'attribution de l'eau, la conception technique, la recherche, l'exploitation des écluses et des barrages, ainsi que la sécurité et le plaisir des loisirs.

Comment le débit est mesuré

Alors que vous vous amusez assis sur la rive paisible d'une rivière locale, une question que vous pouvez vous poser est "Combien d'eau coule dans cette rivière ?" Vous êtes au bon endroit pour une réponse. L'USGS mesure le débit de milliers de rivières et de ruisseaux depuis de nombreuses décennies et en lisant cet ensemble de pages Web, vous pouvez découvrir comment fonctionne l'ensemble du processus de mesure du débit.

Souvent, pendant une grosse tempête de pluie, vous pouvez entendre une annonce à la radio comme « Peachtree Creek devrait culminer plus tard dans la journée à 14,5 pieds ». Les 14,5 pieds auxquels l'annonceur fait référence sont la scène du flux. L'étape du cours d'eau est importante dans la mesure où elle peut être utilisée (après un processus complexe décrit ci-dessous) pour calculer le débit ou la quantité d'eau qui s'écoule dans le cours à tout instant.

L'étage du cours d'eau (également appelé hauteur d'étage ou de jauge) est la hauteur de la surface de l'eau, en pieds, au-dessus d'une altitude établie où l'étage est nul. Le niveau zéro est arbitraire, mais est souvent proche du lit du cours d'eau. Vous pouvez avoir une idée de ce qu'est l'étape du flux en regardant un photo d'une jauge commune du personnel, qui est utilisé pour faire une lecture visuelle de l'étape du flux. La jauge est marquée par intervalles de 1/100e et 1/10e de pied.

Le Streamgaging comporte généralement 3 étapes :

1. Étape de mesure du flux—obtention d'un enregistrement continu du stade—la hauteur de la surface de l'eau à un endroit le long d'un ruisseau ou d'une rivière
2. La mesure du débit— obtenir des mesures périodiques du débit (la quantité d'eau passant à un endroit le long d'un cours d'eau)
3. La relation étage-débit—définir la relation naturelle mais souvent changeante entre le niveau et le débit en utilisant la relation niveau-débit pour convertir le niveau mesuré en continu en estimations du débit ou du débit

Étape de mesure du flux

La plupart des jauges de niveau de l'U.S. Geological Survey (USGS) mesurent l'étage et consistent en une structure dans laquelle sont logés les instruments utilisés pour mesurer, stocker et transmettre les informations sur l'étage du cours d'eau. Le stade, parfois appelé hauteur de jauge, peut être mesuré à l'aide de diverses méthodes. Une approche courante consiste à utiliser un puits de tranquillisation au bord de la rivière ou attaché à un pilier de pont. L'eau de la rivière entre et sort du puits de tranquillisation par des tuyaux sous-marins permettant à la surface de l'eau dans le puits de tranquillisation d'être à la même altitude que la surface de l'eau dans la rivière. Le niveau est ensuite mesuré à l'intérieur du puits de tranquillisation à l'aide d'un flotteur ou d'un capteur de pression, optique ou acoustique. La valeur d'étape mesurée est stockée dans un enregistreur de données électronique à intervalle régulier, généralement toutes les 15 minutes.

Sur certains sites de jaugeage, un puits de tranquillisation n'est pas réalisable ou n'est pas rentable à installer. Comme alternative, l'étape peut être déterminée en mesurant la pression requise pour maintenir un petit flux de gaz à travers un tube et barboter à un endroit fixe sous l'eau dans le courant. La pression mesurée est directement liée à la hauteur d'eau au-dessus de la sortie du tube dans le cours d'eau. Au fur et à mesure que la profondeur de l'eau au-dessus de la sortie du tube augmente, plus de pression est nécessaire pour pousser les bulles de gaz à travers le tube.

Les Streamgages exploités par l'USGS fournissent des mesures de niveau qui sont précises à 0,01 pied ou 0,2 pour cent du niveau le plus proche, selon la valeur la plus élevée. Le niveau à un niveau doit être mesuré par rapport à une élévation de référence constante, connue sous le nom de référence. Parfois, les structures fluviatiles sont endommagées par les inondations ou peuvent s'affaisser avec le temps. Pour maintenir la précision et s'assurer que le niveau est mesuré au-dessus d'une élévation de référence constante, les élévations des structures de jaugeage et la mesure de niveau associée sont régulièrement relevées par rapport à des repères d'élévation permanents à proximité du jaugeage.

Bien que le stade soit une information précieuse à certaines fins, la plupart des utilisateurs de données de jaugeage s'intéressent au débit ou au débit, c'est-à-dire la quantité d'eau s'écoulant dans le ruisseau ou la rivière, généralement exprimée en pieds cubes par seconde ou en gallons par jour. Cependant, il n'est pas pratique pour un débitmètre de mesurer en continu le débit. Heureusement, il existe une forte relation entre le niveau de la rivière et le débit et, par conséquent, un enregistrement continu du débit de la rivière peut être déterminé à partir de l'enregistrement continu du niveau. La détermination du débit à partir d'un étage nécessite de définir la relation étage-débit en mesurant le débit à un large éventail d'étages fluviaux.

La mesure du débit

Le débit est le volume d'eau descendant un ruisseau ou une rivière par unité de temps, généralement exprimé en pieds cubes par seconde ou en gallons par jour. En général, le débit d'une rivière est calculé en multipliant la surface d'eau dans une section transversale de canal par la vitesse moyenne de l'eau dans cette section transversale :

débit = aire x vitesse

L'USGS utilise de nombreuses méthodes et types d'équipements pour mesurer la vitesse et la section transversale, y compris le courantomètre suivant et le profileur de courant Doppler acoustique.

Schéma de la section transversale du canal avec sous-sections.

La méthode la plus couramment utilisée par l'USGS pour mesurer la vitesse est avec un courantomètre. Cependant, une variété d'équipements de pointe peuvent également être utilisés pour détecter le niveau et mesurer le débit. Dans la méthode la plus simple, un moulinet tourne avec le débit de la rivière ou du ruisseau. Le courantomètre est utilisé pour mesurer la vitesse de l'eau à des points prédéterminés (sous-sections) le long d'une ligne marquée, d'un téléphérique suspendu ou d'un pont traversant une rivière ou un ruisseau. La profondeur de l'eau est également mesurée en chaque point. Ces mesures de vitesse et de profondeur sont utilisées pour calculer le volume total d'eau s'écoulant au-delà de la ligne pendant un intervalle de temps spécifique. Habituellement, une rivière ou un ruisseau sera mesuré à 25 à 30 emplacements régulièrement espacés de l'autre côté de la rivière ou du ruisseau.

Compteur actuel

Une méthode utilisée depuis des décennies par l'USGS pour mesurer la décharge est la méthode du courantomètre mécanique. Dans cette méthode, la section transversale du chenal du cours d'eau est divisée en de nombreuses sous-sections verticales. Dans chaque sous-section, la superficie est obtenue en mesurant la largeur et la profondeur de la sous-section, et la vitesse de l'eau est déterminée à l'aide d'un moulinet. Le débit dans chaque sous-section est calculé en multipliant la superficie de la sous-section par la vitesse mesurée. Le débit total est ensuite calculé en additionnant le débit de chaque sous-section.

De nombreux types d'équipements et de méthodes sont utilisés par le personnel de l'USGS pour effectuer des mesures de courantomètre en raison de la large gamme de conditions de cours d'eau à travers les États-Unis. La largeur de la sous-section est généralement mesurée à l'aide d'un câble, d'un ruban d'acier ou d'un équipement similaire. La profondeur de la sous-section est mesurée à l'aide d'une canne à gué, si les conditions le permettent, ou en suspendant un poids de sondage à un système de câble et d'enrouleur calibré sur un pont, un téléphérique ou un bateau ou à travers un trou foré dans la glace.

Développé au début des années 1900 et modifié plusieurs fois avant 1930. Acheté à la W. & L. E. Gurley Company, Troy, New York.
ID de l'objet : USGS-000458

Crédit : Justin Bongard, U.S. Geological Survey. Domaine public.

La vitesse de l'écoulement peut être mesurée à l'aide d'un moulinet. Le courantomètre le plus couramment utilisé par l'USGS est le courantomètre Price AA. Le moulinet Price AA a une roue de six coupelles métalliques qui tournent autour d'un axe vertical. Un signal électronique est transmis par le compteur à chaque tour permettant de compter et de chronométrer les tours. Parce que la vitesse à laquelle les coupelles tournent est directement liée à la vitesse de l'eau, les révolutions chronométrées sont utilisées pour déterminer la vitesse de l'eau. Le compteur Price AA est conçu pour être fixé à une canne à gué pour mesurer en eaux peu profondes ou pour être monté juste au-dessus d'un poids suspendu à un système de câble et d'enrouleur pour mesurer en eau rapide ou profonde. En eau peu profonde, le moulinet Pygmy Price peut être utilisé. Il s'agit d'une version à l'échelle des deux cinquièmes du compteur Price AA et est conçu pour être attaché à une canne à gué. Un troisième moulinet mécanique, également une variante du moulinet Price AA, est utilisé pour mesurer la vitesse de l'eau sous la glace. Ses dimensions lui permettent de passer facilement à travers un petit trou dans la glace, et il possède une roue de rotor en polymère qui empêche l'adhérence de la glace et de la neige fondante.

Profileur de courant Doppler acoustique

Les techniciens en hydrologie de l'US Geological Survey utilisent un profileur de courant acoustique Doppler pour mesurer le débit de la rivière Boise dans le parc commémoratif des anciens combattants de Boise dans le cadre d'une étude du bilan massique du phosphore.

Crédit : Tim Merrick, USGS. Domaine public

Ces dernières années, les progrès technologiques ont permis à l'USGS d'effectuer des mesures de décharge à l'aide d'un profileur de courant Doppler acoustique (ADCP). Un ADCP utilise les principes de l'effet Doppler pour mesurer la vitesse de l'eau. L'effet Doppler est le phénomène que nous expérimentons lorsque nous croisons une voiture ou un train qui klaxonne. Lorsque la voiture ou le train passe, le son du klaxon semble baisser en fréquence.

L'ADCP utilise l'effet Doppler pour déterminer la vitesse de l'eau en envoyant une impulsion sonore dans l'eau et en mesurant le changement de fréquence de cette impulsion sonore réfléchie vers l'ADCP par les sédiments ou d'autres particules transportées dans l'eau. Le changement de fréquence, ou décalage Doppler, qui est mesuré par l'ADCP est traduit en vitesse de l'eau. Le son est transmis dans l'eau depuis un transducteur jusqu'au fond de la rivière et reçoit des signaux de retour sur toute la profondeur. L'ADCP utilise également l'acoustique pour mesurer la profondeur de l'eau en mesurant le temps de trajet d'une impulsion sonore pour atteindre le fond de la rivière à l'arrière de l'ADCP.

Pour effectuer une mesure de débit, l'ADCP est monté sur un bateau ou dans une petite embarcation (schéma ci-dessus) avec ses faisceaux acoustiques dirigés dans l'eau depuis la surface de l'eau. L'ADCP est ensuite guidé à travers la surface de la rivière pour obtenir des mesures de vitesse et de profondeur à travers le canal. La capacité de suivi du fond de la rivière des faisceaux acoustiques ADCP ou d'un système de positionnement global (GPS) est utilisée pour suivre la progression de l'ADCP à travers le canal et fournir des mesures de la largeur du canal. En utilisant les mesures de profondeur et de largeur pour calculer la surface et les mesures de vitesse, le débit est calculé par l'ADCP en utilisant débit = surface x vitesse, similaire à la méthode conventionnelle du courantomètre. Des vélocimètres acoustiques ont également été développés pour effectuer des mesures de gué (photo de gauche).

L'ADCP s'est avéré bénéfique pour le streaming de plusieurs manières. L'utilisation d'ADCP a réduit le temps nécessaire pour effectuer une mesure de décharge. L'ADCP permet d'effectuer des mesures de débit dans certaines conditions d'inondation qui n'étaient pas possibles auparavant. Enfin, l'ADCP fournit un profil détaillé de la vitesse et de la direction de l'eau pour la majorité d'une section transversale au lieu de simplement à des emplacements ponctuels avec un courantomètre mécanique, ce qui améliore la précision de la mesure du débit.

La relation étage-débit

Les débitmètres mesurent en continu le niveau, comme indiqué dans la section "Mesure du niveau". Cet enregistrement continu du niveau est traduit en débit de la rivière en appliquant la relation niveau-débit (également appelée évaluation). Les relations niveau-débit sont développées pour les débitmètres en mesurant physiquement le débit de la rivière avec un courantomètre mécanique ou ADCP à un large éventail d'étapes pour chaque mesure de débit, il y a une mesure correspondante de l'étape. L'USGS effectue des mesures de débit à la plupart des jauges toutes les 6 à 8 semaines, en veillant à ce que la gamme de Les niveaux et les débits au niveau du débit sont mesurés régulièrement. Un effort particulier est fait pour mesurer les niveaux et les débits extrêmement élevés et bas, car ces mesures sont moins fréquentes. La relation niveau-débit dépend de la forme, de la taille, de la pente et de la rugosité du canal à le streamgage et est différent pour chaque streamgage.

Exemple de relation étape-décharge de l'USGS.

L'enregistrement continu du niveau est converti en débit en appliquant une courbe d'évaluation mathématique. Une courbe de tarage (fig. 3) est une représentation graphique de la relation entre le niveau et le débit pour une rivière ou un cours d'eau donné. Les ordinateurs de l'USGS utilisent ces courbes d'évaluation spécifiques au site pour convertir les données de niveau d'eau en informations sur le débit de la rivière.

Le développement d'une relation hauteur-débit précise nécessite de nombreuses mesures de débit à toutes les plages de hauteur et de débit. De plus, ces relations doivent être continuellement vérifiées par rapport aux mesures de débit en cours, car les canaux des cours d'eau changent constamment. Les changements dans les canaux des cours d'eau sont souvent causés par l'érosion ou le dépôt de matériaux du lit du cours d'eau, la croissance saisonnière de la végétation, les débris ou la glace. De nouvelles mesures de débit tracées sur un graphique de relation étage-débit existant le montreraient, et la cote pourrait être ajustée pour permettre d'estimer le débit correct pour l'étage mesuré.

Conversion des informations d'étape en informations de flux

La plupart des jaugeurs de l'USGS transmettent les données d'étage par satellite aux ordinateurs de l'USGS où les données d'étage sont utilisées pour estimer le débit à l'aide de la relation étage-débit développée (notation). Les informations sur le stade sont régulièrement examinées et vérifiées pour s'assurer que le débit calculé est exact. En outre, l'USGS a mis en place des processus de contrôle de la qualité pour s'assurer que les informations sur les débits signalées dans tout le pays ont une qualité comparable et sont obtenues et analysées à l'aide de méthodes cohérentes.

La plupart des informations sur les niveaux et les débits produites par l'USGS sont disponibles en ligne en temps quasi réel via le Web du Système national d'information sur l'eau (SNIE). En plus des données de jaugeage en temps réel, le site Web du NWIS permet également d'accéder aux débits quotidiens et aux débits annuels maximum pour la période d'enregistrement pour tous les jaugeurs actifs et abandonnés exploités par l'USGS.

Résumé du flux

Le Streamgaging implique l'obtention d'un enregistrement continu du niveau, la réalisation de mesures de débit périodiques, l'établissement et le maintien d'une relation entre le niveau et le débit, et l'application de la relation niveau-débit à l'enregistrement du niveau pour obtenir un enregistrement continu du débit. L'USGS a fourni à la nation des informations cohérentes et fiables sur le débit des cours d'eau depuis plus de 115 ans. Les informations sur le débit de l'USGS sont essentielles pour soutenir la gestion de l'eau, la gestion des risques, la recherche environnementale et la conception des infrastructures.


DIVA-SIG

DIVA-GIS est un programme informatique gratuit pour la cartographie et l'analyse de données géographiques (un système d'information géographique (SIG). Avec DIVA-GIS, vous pouvez faire des cartes du monde, ou d'une très petite zone, en utilisant, par exemple, les frontières des États, rivières, une image satellite, et les emplacements des sites où une espèce animale a été observée. données spatiales gratuites pour le monde entier que vous pouvez utiliser dans DIVA-GIS ou d'autres programmes.

Vous pouvez Télécharger le programme et lire la documentation.

DIVA-GIS est particulièrement utile pour cartographier et analyser les données de biodiversité, telles que la distribution des espèces ou d'autres « distributions ponctuelles ». Il lit et écrit des formats de données standard tels que les fichiers de formes ESRI, donc l'interopérabilité n'est pas un problème. DIVA-GIS fonctionne uniquement sous Windows.

Vous pouvez utiliser le programme pour analyser des données, par exemple en créant des cartes quadrillées (raster) de la distribution de la diversité biologique, pour trouver des zones qui ont des niveaux de diversité élevés, faibles ou complémentaires. Et vous pouvez également cartographier et interroger les données climatiques. Vous pouvez prédire la distribution des espèces à l'aide des modèles BIOCLIM ou DOMAIN.


Méthodes

Inventaire des glissements de terrain

Les cartes d'inventaire des glissements de terrain montrent les emplacements et également les caractéristiques des glissements de terrain qui se sont déplacés dans le passé, bien qu'ils ne montrent généralement pas le ou les mécanismes qui les ont déclenchés. Par conséquent, les cartes d'inventaire fournissent des informations utiles sur la distribution spatiale des emplacements des glissements de terrain existants et le potentiel de futurs glissements de terrain 40 . La cartographie des glissements de terrain est difficile dans les environnements montagneux tropicaux car la croissance de la végétation dense masque les glissements de terrain peu après qu'ils se produisent 9 .

Parfois, la mise en œuvre de mesures d'atténuation est retardée en raison d'une carte d'inventaire des glissements de terrain insuffisante et fiable qui entrave l'évaluation des dangers et des risques de glissement de terrain. L'utilisation de données de télédétection telles que le radar, les images satellites optiques et l'interprétation de photographies aériennes sont des méthodes principales pour obtenir des informations importantes et rentables sur l'emplacement des glissements de terrain 14 . Les informations sur les glissements de terrain tirées des images de télédétection sont particulièrement associées à la morphologie, la flore et les conditions hydrologiques de la région 6 .

Plusieurs types de données de télédétection peuvent être utilisés pour détecter les caractéristiques des glissements de terrain, par exemple, les produits de télédétection stéréo qui révèlent à leur tour les caractéristiques morphodynamiques réelles des glissements de terrain 41 . Dans cette étude, des rapports publiés, des enquêtes sur le terrain, l'interprétation de photographies aériennes numériques (DAP) (échelle de 10 000 à 1:50 000) sur une période de 25 ans, l'imagerie satellite WorldView1 de mars 2011, les données AIRSAR de novembre 2004 ont été utilisées pour extraction de la carte d'inventaire des glissements de terrain.

Ces images numériques en noir et blanc avec une résolution de 0,54 m de pixel ont été prises entre 1981 et 2006 et ont été acquises à partir des archives du Malaysian Surveying and Mapping Department. Les données satellitaires WorldView-1, qui ont une résolution de 0,46 mètre pour la bande panchromatique, ont été utilisées pour la détection des glissements de terrain survenus et la validation de la carte d'inventaire des glissements de terrain obtenue à partir des données AIRSAR dans la zone d'étude. Les données AIRSAR ont été collectées sur la zone d'étude en novembre 2004, lors de la campagne PacRim1. Cet ensemble de données doit être comparé aux caractéristiques des glissements de terrain générées à partir de photographies aériennes et d'images satellite WorldView-1 qui sont également générées dans le système de référence UTM. Plusieurs enquêtes sur le terrain et points de contrôle au sol (GCP) ont été effectués en utilisant un système de positionnement global (GPS) pour la collecte d'informations cartographiques sur les emplacements des glissements de terrain (voir la figure 2) et en générant des modèles stéréo à partir de données de photographie aérienne numérique.

Photographies de terrain de glissements de terrain récemment survenus et de types de glissements de terrain qui ont été prises à partir d'enquêtes sur le terrain par le premier auteur (H. SH) (a) un éboulement de translation peu profond, (b) un glissement de débris de translation peu profond au bord de la route, (c) et () éboulements profonds. La flèche représente la direction du mouvement.

Pour identifier les glissements de terrain dans la zone d'étude, trois techniques ont été utilisées. La première technique consistait à comparer directement en superposant des images vectorielles de glissements de terrain sur les MNT et les images raster AIRSAR. La deuxième technique consistait à classer les images à l'aide du logiciel ENVI 4.8. Il s'agit de séparer les glissements de terrain des autres types d'occupation du sol dans la zone environnante. La dernière technique consiste à séparer les glissements de terrain des autres types d'occupation du sol dans la zone environnante en utilisant une segmentation suivie d'une classification. Cette technique a été réalisée à l'aide d'un logiciel appelé « eCognition ». Dans le logiciel eCognition, les pixels sont segmentés en objet image, de sorte que le processus de classification des images dans ce logiciel est basé sur les objets image plutôt que sur la classification basée sur les pixels qui était auparavant effectuée dans le logiciel ENVI 4.8 42 .

Les données utilisées dans la segmentation étaient 1) des images des bandes C, L et P (longueurs d'onde) avec sept polarisations (Chh, Lhh, Lvv, Lhv, Phh, Pvv et Phv) et 2) une image de pente. Dans la segmentation, les informations sur le groupe de pixels à l'intérieur des limites du glissement de terrain ont été utilisées. Les informations comprennent : 1) les valeurs spectrales des bandes C, L et P et 2) la pente moyenne de la zone. Ces valeurs spectrales peuvent représenter des signatures spectrales de glissements de terrain. Dans les processus de segmentation utilisant le logiciel eCognition, les trois bandes avec sept polarisations et une image de pente ont été combinées pour identifier les glissements de terrain dans les images. Si un glissement de terrain existant peut être identifié, il peut être utilisé dans l'image segmentée comme exemple de polygone. En utilisant des techniques de classification, tous les autres polygones qui ont la même caractéristique de luminosité des pixels et de pente moyenne seront mis en évidence comme similaires 42 .

En outre, l'efficacité et la qualité des données SAR et des images satellites optiques doivent être examinées à l'aide d'une méthode appropriée. La méthode de l'erreur quadratique moyenne (RMSE) a été utilisée pour la précision du résultat obtenu 43,44. A chaque point de contrôle au sol, l'efficacité des données SAR et des images satellites optiques est calculée sur la base de la formule 43 :

vous est résiduel dans le X axe v est résiduel dans le oui axe.

Le RMSE total est alors dérivé comme (Eq. 2) :

m est le nombre de GCP vous est résiduel dans le X axe v est résiduel dans le oui axe.

Le RMSE total a été calculé pour chaque zone, SAR et images satellites optiques sur la base de la méthode de rééchantillonnage du plus proche voisin 45 .

Construction d'une base de données spatiale

La collecte de données est l'étape principale de la cartographie de la susceptibilité aux glissements de terrain au cours de laquelle les facteurs de conditionnement pertinents des glissements de terrain sont extraits pour construire une base de données spatiale. Ces processus sont ensuite évalués en utilisant la relation entre le glissement de terrain et les facteurs causatifs du glissement de terrain, puis la vérification des résultats 25 . Il n'y a pas de directives universelles concernant la sélection des facteurs dans la cartographie de la susceptibilité aux glissements de terrain. Un paramètre peut être un facteur de contrôle important pour l'occurrence des glissements de terrain dans une certaine zone mais pas dans une autre. La sélection des facteurs causaux doit donc tenir compte de la nature de la zone d'étude et de la disponibilité des données. Collectivement, dix paramètres de pente, aspect, sol, lithologie, NDVI, couverture terrestre, distance à la route, distance au drainage, précipitations et distance à la faille ont été utilisés pour construire une base de données spatiale en utilisant le SIG, les données SAR et le traitement des images satellites optiques. La base de données se compose de jeux de données spatiales de type vectoriel dérivés du progiciel Arc GIS 9.3.

Dans la première étape, un modèle numérique d'élévation (MNE) de la zone de recherche a été produit à partir du modèle de réseau irrégulier triangulé (TIN) à l'aide d'AIRSAR DEM avec une taille de pixel de 10 m. Les paramètres de pente et d'aspect de pente ont été obtenus à partir du MNT AIRSAR généré avec une taille de pixel de 10 m. De plus, la distance au drainage a été calculée à l'aide du DEM AIRSAR. Les lignes de faille et la lithologie ont été dérivées d'une carte géologique à l'échelle 1:63 300 du Département des minéraux et des géosciences de Malaisie. De plus, les linéaments ont été dérivés des cartes structurelles et des photos aériennes. La distance par rapport à la route a été calculée à l'aide de la carte topographique à l'échelle 1:25 000. Une zone tampon de 50 m est choisie comme distance de la route dans la zone d'étude qui est déterminée en fonction des glissements de terrain survenus jusqu'à la proximité de la route. Les types de sols ont été acquis à partir d'une carte des sols à l'échelle 1:25 000. Dans cette recherche, la couverture terrestre a été extraite de l'image satellite SPOT 5 du 21 mars 2010 qui a été calibrée en utilisant des points de contrôle au sol (GCP) obtenus lors de travaux sur le terrain. La méthode de classification de supervision en utilisant le logiciel ENVI 4.8 a été utilisée pour développer une caractérisation statistique de la réflectance pour chaque classe d'information de la carte d'occupation du sol.

De plus, les données SPOT 5 ont d'abord été classées en huit principaux types d'occupation du sol à l'aide d'une classification à maximum de vraisemblance (MLC) supervisée, à savoir l'herbe, la forêt primaire, l'hévéa, la coupe, la forêt secondaire, les agglomérations, la zone agricole et le plan d'eau. Le levé de terrain a également été utilisé pour justifier la précision de la carte d'occupation du sol selon l'ordre de résolution spatiale SPOT 5 (

Malgré un pré-traitement des images (géo-référencement et ortho-rectification, géo-rectification) sur les images SPOT 5, 21 points de contrôle au sol (GCP) obtenus lors des visites de terrain ont été utilisés pour une amélioration supplémentaire de la précision des images satellites. De plus, l'image satellite SPOT 5 a été utilisée pour l'extraction de la carte de l'indice de végétation par différence normalisée (NDVI). La valeur NDVI a été calculée à l'aide de la formule NDVI = (IR − R)/(IR + R), où IR et Red sont le proche infrarouge (NIR) et les bandes rouges, qui vont de 0,7 à 1 lm et 0,6 à 0,7 lm de le spectre électromagnétique. La valeur NDVI, qui indique la présence et l'intensité de la végétation dans la zone d'étude, a été classée en dix classes.

Les données sur les précipitations ont été préparées en utilisant les 30 dernières années (1981-2011) de données historiques sur les précipitations. Dans notre méthodologie, nous avons utilisé des précipitations à long terme pour une période de 30 ans. Une carte de contour des précipitations annuelles moyennes est tracée à partir des mesures de données pluviométriques quotidiennes. De plus, la méthode de Krigeage utilisant Arc GIS 9.3 a été utilisée pour l'interpolation spatiale sur les cartes de contour. L'organigramme pour la cartographie de la susceptibilité aux glissements de terrain et les données spatiales sont présentés à la figure 3. Tous les facteurs liés aux glissements de terrain ont été convertis en une grille raster (cellules de 10 × 10 m) qui comprenait 1 725 lignes sur 5 621 colonnes pour l'application des trois SIG différents. basées sur des approches statistiques, y compris le processus de hiérarchie analytique (AHP), la combinaison linéaire pondérée (WLC) et l'évaluation spatiale multicritères (SMCE).

Différentes étapes de préparation de la carte pour la cartographie de la susceptibilité aux glissements de terrain.

Modèles de cartographie de la susceptibilité aux glissements de terrain

L'analyse de la sensibilité aux glissements de terrain a été mise en œuvre à l'aide du processus de hiérarchie analytique (AHP), des méthodes de combinaison linéaire pondérée (WLC) et d'évaluation spatiale multicritères (SMCE) dans une partie des Cameron Highlands, en Malaisie, à l'aide de modèles statistiques basés sur SIG et de données de télédétection. De plus, la crédibilité des cartes a été validée à l'aide des méthodes R-Index et ROC.

Processus de hiérarchie analytique (AHP) dans les analyses de sensibilité aux glissements de terrain

L'AHP développé par Saaty 17 est un outil flexible d'analyse de problèmes complexes axés sur la sélection de sites, l'urbanisme et l'analyse de la susceptibilité aux glissements de terrain 21 . L'AHP qui est une approche décisionnelle multicritères et multi-objectifs permet la participation active des décideurs à savoir les managers pour parvenir à un accord de manière rationnelle 46 .

Ces facteurs sont classés dans un ordre hiérarchique et des valeurs numériques à des jugements subjectifs basés sur l'importance relative de chaque facteur. Par la suite, ces facteurs sont synthétisés et chaque facteur est attribué selon leur importance 47 . En dehors de cela, une matrice de comparaison réciproque par paire est établie pour utiliser AHP. Chaque couche basée sur une échelle de notation à 9 points correspond aux entrées de la matrice développée par Saaty 48 (voir tableau 1).

Généralement, la spécification des valeurs des facteurs les uns par rapport aux autres est liée à la sélection du décideur. Néanmoins, dans cette recherche, tant la détermination des options de décision que la comparaison des paramètres étaient basées sur la comparaison des cartes d'inventaire des glissements de terrain 18 . Le poids de chaque facteur du facteur de pondération matriciel a été multiplié par sa classe de poids. Le résultat de la carte de susceptibilité est déterminé par des facteurs à forte représentation locale. These representations can be based on different parameters including natural (lithology, distance to faults, etc.), man-made (roads and other engineering structures), causal (slope, aspect, lithology, etc.) and triggering (precipitation, seismicity, etc.) 18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35,36,37,38,39,40,41,42,43,44,45,46,47,48,49 . The selection of the ten causal factors in this study is based on these mentioned four criteria and also data accessibility. In AHP approach, consistency ratio (CR) Eq. (3), is utilized to show the probability that the judgments matrix was randomly created 48 .

IR is the average of the resulting consistency index depending on the order of the matrix given by Saaty 48 and CI is the consistency index and can be expressed as Eq. (4)

where λmax is the largest or principal eigen value of the matrix and can be easily calculated from the matrix and m is the order of the matrix.

If the CR values were greater than 0.1, the AHP model was automatically rejected. The acquisitive weights were employed by using a weighted linear sum procedure. Furthermore, the acquisitive weights were employed to calculate the landslide susceptibility models 50 .

Weighted linear combination (WLC) in landslide susceptibility analysis

Weighted linear combination (WLC) is a hybrid between qualitative and quantitative methods 21 . WLC is based on the qualitative map combination approach (heuristic analysis). This technique is a popular method that is customized in many GIS and is applicable for the flexible combination of maps. Thus the tables of scores and the map weights can be adjusted based on the expert’s judgement in the domain. First, this method requires the standardization of the classes in each factor to a common numeric range. Each factor rating was based on the relative importance of each class according to field observations and existing literature, indicating the conditions as highly susceptible to slope failure 51 .

Primary-level weights and secondary-level weights are two types of parameters weights used 15 . The primary-level weights are rule-based whereby the ratings given to each class of a parameter is based on certain criteria. In this research, this criterion can be described as landslide density. In WLC method, the landslide density is a ratio between the area of landslide pixels situated inside a category of a specific factor divided by the total area of that category. The obtained result of this criterion is converted into percentage. The secondary-level (factor weights) determine the degree of exchange of one parameter versus another parameter based on opinion-based scores 21 . Both the parameters weights are combined to estimate landslide susceptibility and classify areas in relative susceptibility categories 21,22,23,24,25,26,27,28,29,30,31,32,33,34,35,36,37,38,39,40,41,42,43,44,45,46,47,48,49,50,51,52 .

Susceptibilité S (je, j) in each pixel (je, j) can be expressed as the combination of the product of primary and secondary level weights Eqs. (5 and 6) 52 :

is the primary-level weight of parameter k et oui is the secondary-level weight of parameter k.

The weights of ‘proportional importance’ to each attribute map layer are directly affected by the decision-maker. A total score is then obtained for each alternative. This is done by multiplying the weight allocated to each attribute by the scaled value and summing the outputs of all attributes. In this method, highest overall score can be selected from the overall scores calculated for all of the alternatives 53 . The final steps for creating the landslide susceptibility map using WLC method is the combination of all weighted layers into individual maps. Then, landslide susceptibility zones were generated based on classification of the scores of these maps 21 . The WLC method can be performed using any GIS system that has overlay techniques.

Spatial multi-criteria evaluation (SMCE) in landslide susceptibility analysis

Spatial multi-criteria evaluation (SMCE) application helps and allows users to perform multi-criteria assessment in a spatial approach. In SMCE, the alternatives are locations in the form of points, lines, areas and grid cells. Therefore, criteria could occur in the form of maps 54 . Thus, SMCE is an applied science-based method that combines spatial analysis using GIS and multi-criteria evaluation (MCE) to transform spatial and non-spatial input which generates output decision 55 . Spatial multi criteria evaluation is considered as a procedure that includes the input layers, which are the spatial representation of the criteria. They are a ‘criteria tree’ that can be standardised, grouped and weighted. In addition, the input layers (resultant decision), need to be standardised from their original values to the value range of 0–1. Furthermore, the indicators have cartographic representations (natural and administrative polygons and pixel based raster maps) and different measurement scales (nominal, ordinal, interval and ratio) 23 .

The output of SMCE is one or more ‘composite index map(s), which indicates the extent to which criteria are met or not in different areas and thereby supports decision making 56 . The multi-criteria evaluation of AHP method has been used as the theoretical background of SMCE method. There are several phases in conducting the SMCE, such as problem tree analysis, standardization, weighting and map generation. Once all the criteria and related maps or attribute tables are entered in the criteria tree, the criteria have to be standardized. The values in the various input maps have different meanings and are probably showed in different units of measurement such as percentages, meters, distance in meters, land cover classes, etc. 24 . In order to standardize input maps in SMCE environment, one of the standardization methods such as numerical, Boolean and qualitative methods can be used.

The first step for standardizing map values is to convert the actual map values to a range between 0 and 1 by using a set of equations. The next step is the determination of each indicator for intermediate or overall objectives. Finally, the landslide conditioning factors are weighted by means of direct, pairwise and rank ordering comparison and the output is a composite index map 23 .


Background & Summary

Understanding the impact of climate change on water resource across different regions is highly dependent on hydrological model and data 1 . More accurate global river networks and catchment/sub-catchment boundaries are critical to more accurate water cycle simulation, water resource and risk assessments 2 . With the undeniable impacts of climate change and human activities, the processes and fluxes of terrestrial water cycle have undergone tremendous changes, which has had significant impacts on extreme hydrological events such as droughts and floods 3,4 , and induced a series of eco-environmental effects 5 , endangering the sustainable development of social economy and ecological environment 6 . It can be seen that the construction of a complete set of global river networks and corresponding water resources zones (WRZ) has been highly valued by the international communities, government departments and academia. Meanwhile, it has become a hot issue in current research on hydrology, water resources and climate change.

At present, scholars and institutions around the world have developed numerous hydrological spatial databases at national, continental and global scales. For example, Seaber et al. constructed the hydrological unit maps of the United States in 1987, which was adopted and affirmed by the Federal Government of the United States and the United States Geological Survey (USGS) 7 . In 1996, the Global River Network and Watershed Boundary Data Set (HRDRO 1 K), derived from the USGS’ 30 arc-second digital elevation model of the world (GTOPO30, about 1 km), has been produced by the EROS Data Center of the United States Geological Survey and the United Nations Environmental Program/Global Resources Information Database (UNEP/GRID) 8 . From 2006 to 2008, the World Wildlife Fund (WWF), the USGS, the International Centre for Tropical Agriculture (CIAT), the Nature Conservancy (TNC) and Kassel University in Germany have produced a global hydrological data and maps-based (HydroSHEDS) at multiple scales, from the 90-meter resolution data (SRTM) 9 . The “stream burning” method was employed to modify the surface elevation where only the large rivers and lakes located 10 . Based on the HydroSHEDS data and hydraulic geometry equations, Andreadis in 2013 developed a simple near-global database of bankfull widths and depths of rivers 11 . And Bernhard Lehner integrated and enhanced the HydroSHEDS with a new river network routing model (HydroROUT) 12 . In 2017, the USGS has developed a new global high-resolution hydrologic derivative database, entitled Hydrologic Derivatives for Modeling and Analysis (HDMA) 13 , based on HydroSHEDS, GMTED2010 (Global Multi-resolution Terrain Elevation Data 2010) and SRTM (Shuttle Radar Topography Mission) data.

Although a large number of river network data have been published, there are still some shortcomings in river accuracy, coding methods and so on. Firstly, the above river network and basin boundary are not accurate enough without sufficient manual verification. The main reason is that it is difficult to automatically obtain the correct digital river by using the original surface DEM data and GIS software, especially in inland and plain areas, due to the low spatial or vertical resolution of DEM and the lack of auxiliary data. Secondly, the codes of river network and its corresponding basin in these above datasets are different, or their stem-branch topology relationship is not clear, which hinders the use of data in hydrology and water resources research 14 . For example, Pfafstetter coding system is widely used as the river basin division method around the world currently 15,16 , which divides the hydrological units step-by-step from large to small and from coarse to fine. However, the Pfafstetter coding system does encode topologies using a numeric coding system but not fully refers to the tree structure of river network, which is not conducive to the subsequent calculation of river network relations when less than 9 division is applied 17,18,19 . Under these circumstances, the aim of this paper is to propose a series of methods for generating and coding a global high-precision river networks and corresponding WRZ at level 1 to 4.

This study describes the database entitled “A data set of global river networks and corresponding water resources zones divisions”, the SRTM DEM and the ASTER GDEM V2 data used to produce the river network and corresponding WRZ, based on our new method. The raster data were produced at 3-arcsecond resolution for most areas, except the Greenland and Antarctica. The derived streams and catchments are globally seamless and have been coded following our new coding system.


Study location and materials used

This research work was attempted in the fourth (4th) largest catchment of Papua New Guinea. The Markham catchment is located in the eastern part of main island. Most of the area falls under Morobe province and small portion in the north and north-east of the study area comes under Madang and Eastern highland province, respectively (Fig. 1). The study area includes a geographical area extending from 145°58′27.39″E to 147°02′22.01″E and 5°51′19.41″ S to 7°31′21.93″S. Markham river is originated from Finisterre range (5°51′36.31″S and 146°13′22.40″E) in the north and gets emptied into Huon Gulf (6°44′20″S 146°58′05″) in the east after 180 km of chequered path (Fig. 1). Erap and Watut are two major tributary rivers of Markham. Upper catchment area of Markham is dominated by dense forests, rugged topography and steep slopes. Lack of proper soil conservation and management measure are exacerbated by commercial logging, mining and small scale mining on the river for alluvial gold extraction. The study area is characterised with tropical hot and humid climate with an average rainfall of 4200 mm. Markham carries flows from the 12,450 km 2 catchment with huge mobile bed load ranging from fine silt to cobbles (Tilley et al. 2006).

Location map with details of slope and sub catchments of the study area

For this research three different satellite images during 1992 to 2009 were collected from earth explorer (http://www.earthexplorer.usgs.gov) to generate normalised differential vegetation index (NDVI) data base for different year (1992, 2001 and 2009). Digital elevation model (DEM) in 30 m spatial resolution was collected from Advanced Space Thermal Emission Radiometer (ASTER) mission to produce slope map of the study area. All other collateral information that were used in this study are given in Table 1. For RUSLE model different factors like rainfall erosivity factor (R), vegetation cover factor (C), soil erodibility factor (K), slope length & steepness factor (LS) and existing soil conversion measures factor (P) were used as a mandatory input parameters, which were developed using ArcGIS spatial analyst tool from rainfall, elevation and soil data base. On the other hand rate minimum and maximum of erosion in 30 degree slope area, NDVI, and slope data base were used to calculate rate of soil erosion through E30 maquette.


Introduction

Soil erosion is an adverse hydro-geologic phenomena consisting of detachment and transportation of surface soil particles from its initial location to the nearby location for subsequent accumulation. Water plays the key role in the detachment, transportation, and deposition phase of soil erosion processes. The soil erosion process gets accelerated by considerable human activities across many places of the globe (Gabriels and Cornelis 2009). Moreover, poor land-use practices also lead to considerable increase in the soil erosion (Arnáez et al. 2015).

Globally, a number of soil loss assessment models have been developed by several researchers, but each model has its inherent limitations based on the input availability, scale of application, and involved degree of complexity (Chandramohan et al. 2015). Hence, no single soil loss prediction model can dispense any solid outcomes for assessing the soil erosion in a regional scale application. Many complex phenomena influencing the soil erosion process were hypothesized through simplified assumptions in order to smoothen the erosion modeling process. In the literature, a number of statistical/metric (empirical), conceptual (semi-empirical), and physical process-based (deterministic) models are existing those quantify the soil erosion process is filed to regional-scale applications (Nearing et al. 2005). However, the global applications are mostly confined to the use of empirical models due to extensive data requirements and lack of expertise of the modeler. The empirical universal soil loss equation (USLE) (Wischmeier and Smith 1965) is the most conventional soil erosion model, developed based on extensive experimental data in the USA condition. The USLE model mainly accounts for the soil loss process in the form of sheet erosion followed by rill erosion occurred over an agricultural watershed. Upon gradual advancement in the soil erosion modeling, the modified universal soil loss equation (MUSLE) proposed by Williams and Berndt (1977) addressed the underlying limitations involved in USLE, i.e., non-accountability of gully erosion process and inability to compute the sediment deposition. For estimation of sediment yield, USLE solely depends on the rainfall process but MUSLE predicts the same by incorporating the effect of runoff in the form of a peak runoff factor which is a consequence of antecedent moisture condition in a locality. Further, the revised universal soil loss equation (RUSLE) is extensively adopted for soil erosion risk assessment because of its flexibility in field-scale applications and serves as a conventional tool for conservational policy implementation (Kouli et al. 2009 Chen et al. 2011 Rawat et al. 2016 Mahala 2018).

The RUSLE estimates the average annual soil erosion over land surface by simple multiplication approach of several input factors, viz., rainfall erosivity factor (R), soil erodibility factor (K), slope length and steepness, combinely known as topographic factor (LS), cover management factor (C), and conservation practice factor (P) (Renard et al. 1997). Further, from the management perspective, the sediment yield has more practical implications than the potential soil erosion in a locality. In past studies, the sediment yield was estimated for the catchment using USLE or RUSLE in conjunction with an empirical parameter called sediment delivery ratio (SDR) (Boomer et al. 2008 Alatorre et al. 2010). This factor determines the transferability of sediments from the hill slopes into the nearby streams responsible for the erosion process. The selected study region, i.e., Brahmani River basin is a highly industrialized basin, wherein extensive earthworks resulting in significant alteration to the natural soil regolith causing higher soil erosion. Moreover, the occurrence of frequent floods due to anthropogenic changes in the upstream of the Brahmani River induces profound soil detachment in the floodplain thereby moderates both detachment and transport process of soil erosion. The climate of a region corresponds to the long-term (≥ 30 years) average weather condition of a region. It accounts for acutely complex internal mechanisms associated with individual meteorological variables which are highly dynamic in nature. As defined by the intergovernmental panel on climate change (IPCC), the climate change points to an alternation in the existing climatic condition of a locality which can be detected (e.g., by some statistical means) by analyzing the change in the variability of individual climate variables that may persist for a prolonged period (IPCC 4th Assessment Report, Climate change 2007). Certainly, some of the associated factors of RUSLE model tend to alter its behavior in a climate change context hence, a significant variation will be observed in the soil erosion magnitude in the future time scales. This leads to the potential failure of the proposed policy (in baseline scenario) in the future time scales, and subsequently, the future time scales of the concerned location may experience landslide and flood havocs with very high periodicity. Ignoring these adverse consequences, a few past studies have quantified the climate change impact over catchment-scale soil erosion process with a lot of simplified assumptions.

From this extensive review, the following research gaps have been identified: (i) lack of studies in combining the RUSLE and geographical information system (GIS) approach to estimate the soil erosion potential in catchment-scale applications, (ii) a spatially distributed SDR estimation approach has not been adopted in soil erosion hazard studies, (iii) the past soil erosion modeling studies were carried out at a coarse spatial resolution which may lead to erroneous modeling outcomes, and (iv) no past studies quantified the soil erosion hazard under a climatic change context. Considering the above bottlenecks, this study tries to address the following research questions: (i) Will the GIS-RUSLE based soil erosion estimation approach provide a true insight about the catchment-scale erosion process? (ii) How useful will be the finer-scale (30 m) erosion modeling while implementing the conservation practices in critical areas? (iii) Does the SDR-based erosion assessment approach has an edge over the conventional RUSLE technique? (iv) What kind of variability in the soil erosion process could be expected in a changing future climatic scenario? Keeping these research questions in mind, the specific objectives of this study are (i) to develop an integrated GIS-based RUSLE approach to quantify the existing soil erosion potential in the Brahmani River basin, (ii) to estimate the actual soil loss (sediment yield) by a spatially distributed SDR approach over the basin, (iii) assessing the climate change impact on the soil erosion process using suitable general circulation model (GCM) for multiple future time scales.


Development of flood alert application in Mushim stream watershed Korea

Korea repeatedly experiences flash floods and droughts that cause traumatic environmental conditions with huge economic impact. Recently due to climate change, the frequency and magnitude of natural disasters associated with extreme hydrologic events increased rapidly in Korea. Floods caused the greatest damage among all natural disasters. To prevent this damage it is important to inform people about ongoing and upcoming flash flood events to avoid the loss of life and property. In this study hardware and software based smart technology is used to develop an early flood warning system for Mushim stream watershed to send to end users early flood warning messages about potentially impacted areas. Hydrologic Engineering Center's Hydrologic Modeling System (HEC-HMS) is the core of flood alert application provides the forecast with sufficient lead time and decides the threshold conditions of runoff/stage. Short range weather forecasts from Korea Meteorological Administration (KMA) at every three hours interval, are stored in hydro-meteorological database and fed in HEC-HMS for identification of flood risks. Server-Client based program used to visualize the real time flood condition and to deliver the early warning message. The findings of this study are expected to be used as basic data required for designing of flood mitigation measures at Mushim stream watershed to cope with the flash flood events in future. The flood hazard maps thus developed will be useful to policy-makers and responsible authorities, as well as to local residents in finding suitable measures for reducing flood risk in the study area.


Extension of a GIS procedure for calculating the RUSLE equation LS factor

The Universal Soil Loss Equation (USLE) and revised USLE (RUSLE) are often used to estimate soil erosion at regional landscape scales, however a major limitation is the difficulty in extracting the LS factor. The geographic information system-based (GIS-based) methods which have been developed for estimating the LS factor for USLE and RUSLE also have limitations. The unit contributing area-based estimation method (UCA) converts slope length to unit contributing area for considering two-dimensional topography, however is not able to predict the different zones of soil erosion and deposition. The flowpath and cumulative cell length-based method (FCL) overcomes this disadvantage but does not consider channel networks and flow convergence in two-dimensional topography. The purpose of this research was to overcome these limitations and extend the FCL method through inclusion of channel networks and convergence flow. We developed LS-TOOL in Microsoft's.NET environment using C♯ with a user-friendly interface. Comparing the LS factor calculated with the three methodologies (UCA, FCL and LS-TOOL), LS-TOOL delivers encouraging results. In particular, LS-TOOL uses breaks in slope identified from the DEM to locate soil erosion and deposition zones, channel networks and convergence flow areas. Comparing slope length and LS factor values generated using LS-TOOL with manual methods, LS-TOOL corresponds more closely with the reality of the Xiannangou catchment than results using UCA or FCL. The LS-TOOL algorithm can automatically calculate slope length, slope steepness, L factor, S factor, and LS factors, providing the results as ASCII files which can be easily used in some GIS software. This study is an important step forward in conducting more accurate large area erosion evaluation.

Points forts

► We presented an improved algorithm that can automatically calculate LS factors. ► Using slope steepness and channel networks breaks in calculating slope length. ► Calculate L factor under consideration of convergence flow. ► Our method corresponds more closely with the reality of the example catchment. ► We developed LS-TOOL application using C♯ with a user-friendly interface.


Voir la vidéo: ArcGIS Pro Remove Dynamic Text Citation