مدل سازی WofE با ArcGIS برای ارزیابی حساسیت به زمین لغزش


مدل سازی WofE با ArcGIS برای ارزیابی حساسیت به زمین لغزش

تم پاسخ را دوباره محاسبه کنید و استقلال مشروط را امتحان کنید.

۱۷) مرحله ۱۴ را با چهار موضوع شواهد تکرار کنید : slope_c and dist_faults_c.,  soils_r, rocks_r . نتایج به‌عنوان   W_pprb1, W_Conf1 and W_Std1  ذخیره می‌شوند.

۱۸) مرحله ۱۵ را با  W_pprb1 به عنوان رستر پس از احتمال و  W_Std1 را به عنوان رستر std پس از احتمال تکرار کنید. فایل آزمایشی CI خروجی را به عنوان  AC_ModelName1 ذخیره کنید.

۱۹) AC_ModelName1 را باز کنید. اکنون نسبت CI  ۹۵/۰ است که نزدیک به ۱ است. مقدار آزمون Agterberg-Cheng 68/0 و بسیار کمتر از ۶۴۵/۱ است. بنابراین شواهد در سطح معنی داری ۰۵/۰ مستقل شرطی هستند. احتمال پسین در  W_pprb1 از نظر آماری قابل اعتماد است. هر چه مقادیر احتمال در این نقشه بزرگتر باشد، حساسیت به زمین لغزش بیشتر است.

تهیه نقشه حساسیت به زمین لغزش

۲۰) در منوی اصلی، روی Geoprocessing > Results کلیک کنید. در پنجره Results :

الف) Current Session و سپس CalculateResponse را باز کنید.

ب) روی Messages در پنجره Results کلیک راست کرده و View را انتخاب کنید. در پنجره Messages pop-up احتمال قبلی را جستجو کنید که باید ۰۰۰۵۵/۰  باشد. مقدار احتمال قبلی را یادداشت کنید، سپس پنجره پیام ها را ببندید.

۲۱)  ArcToolBox را باز کنید. به ابزار Spatial Analyst Tools > Map Algebra بروید و روی Raster Calculator دوبار کلیک کنید.

۲۲) در گفتگوی Raster Calculator عبارت زیر را وارد کنید :/ ۰/۰۰۰۵۵  “W_pprb1”  .

۲۳) در محاوره Raster Calculator، مسیر زیر را به عنوان رستر خروجی وارد کنید.

C:\Databases\GIS4EnvSci\VirtualCatchment\Results\prob_ratio

روی OK کلیک کنید. لایه prob_ratio ایجاد شده و به فهرست مطالب اضافه می شود.

۲۴) گفتگوی  Raster Calculatorرا شروع کنید، و عبارت زیر را برای محاسبه احتمالات پسین دانشجویی وارد کنید “W_pprb1” / “W_Std1” .

۲۵) در محاوره Raster Calculator، مسیر زیر را به عنوان رستر خروجی وارد کنید.

C:\Databases\GIS4EnvSci\VirtualCatchment\Results\stud_post

روی OK کلیک کنید. لایه stud_post ایجاد شده و به فهرست مطالب اضافه می شود.

۲۶) گفتگوی Raster Calculator را شروع کنید و عبارت زیر را وارد کنید :

Con((“stud_post” <= 1.5), 4, Con  ((“prob_ratio” < 1), 3, Con((“prob_ratio” <= 5) & (“prob_ratio” >= 1), 2, 1))).

در اینجا، ۱ نشان دهنده حساسیت بالا، ۲ حساسیت متوسط، ۳ حساسیت کم و ۴ نامشخص است.

۲۷) در محاوره Raster Calculator، مسیر زیر  را به عنوان رستر خروجی وارد کنید.

C:\Databases\GIS4EnvSci\VirtualCatchment\Results\likelihood

روی OK کلیک کنید. همانطور که در شکل ۹-۱۷ نشان داده شده است، احتمال لایه ایجاد شده و به فهرست مطالب اضافه می شود.

شبکه های عصبی مصنوعی

شبکه‌های عصبی مصنوعی (ANNs) الگوریتم‌های رایانه‌ای هستند که برای شبیه‌سازی سیستم‌های عصبی بیولوژیکی توسعه یافته‌اند (گرائوپ، ۲۰۱۳). شبکه‌های عصبی مصنوعی نیز مانند انسان ها با مثال یاد می گیرند. ANN برای برنامه خاص از طریق فرآیند یادگیری پیکربندی شده است. با توجه به توانایی قابل توجه آن در استخراج معنا از داده های پیچیده یا مبهم، از ANN برای استخراج الگوها و تشخیص روندهایی استفاده می شود که بسیار پیچیده هستند تا مورد توجه انسان یا سایر تکنیک های رایانه ای قرار نگیرند. شبکه عصبی آموزش دیده می تواند به عنوان “متخصص” در نوع اطلاعاتی که برای تجزیه و تحلیل داده شده است تصور شود. سپس می توان از این متخصص برای ارائه پیش بینی با توجه به شرایط جدید و پاسخ به سوالات “اگر بشود” استفاده کرد.

شکل ۹-۱۷ نقشه حساسیت زمین لغزش به دست آمده توسط WofE

ANN اطلاعات را به روشی مشابه سیستم عصبی بیولوژیکی پردازش می کند. اجزای سازنده سیستم های عصبی بیولوژیکی، نورون ها هستند. نورون از بدن سلولی، آکسون و دندریت ها تشکیل شده است. نورون از طریق آکسون خود با دندریت نورون دیگر متصل می شود. نقطه اتصال بین نورون ها سیناپس نامیده می شود. اساساً نورون سیگنال هایی از محیط دریافت می کند. هنگامی که سیگنال ها به آکسون نورون منتقل می شود یعنی نورون شلیک می شود، سلول تمام ورودی ها را جمع می کند که ممکن است بر اساس قدرت اتصال یا فرکانس سیگنال های ورودی متفاوت باشد، مجموع ورودی را پردازش می کند، سپس خروجی تولید می کند. سیگنال به همه نورون های متصل انتشار می یابد. نورون مصنوعی مدل محاسباتی ساده شده از نورون بیولوژیکی است که عملکردهای اساسی فوق را انجام می دهد.

در نورون مصنوعی، بدن سلول با عملکرد فعال سازی یا انتقال مدل می شود (شکل ۹-۱۸). نورون مصنوعی یک یا چند ورودی دریافت می کند (نشان دهنده سیگنال های دریافت شده از طریق دندریت هایی است که توسط وزن های مثبت یا منفی مرتبط با هر دندریت برانگیخته شده یا مهار می شوند)، مجموع وزنی ورودی ها را محاسبه کرده و مجموع را به تابع فعال سازی منتقل می کند. تابع فعال سازی یک تابع غیر خطی است و خروجی آن نشان دهنده آکسون است که از طریق سیناپس به عنوان ورودی به نورون دیگر انتشار می یابد. تابع فعال‌سازی می‌تواند باینری، سیگموئید، مماس هذلولی یا اشکال دیگر باشد (گرائوپ، ۲۰۱۳).

فرض کنید  سیگنال ورودی خالص و θ مقدار آستانه باشد که به آن بایاس نیز گفته می شود. تابع فعال‌سازی سیگنال ورودی خالص و بایاس را دریافت می‌کند و خروجی (یا قدرت شلیک) نورون را تعیین می‌کند. تابع فعال سازی باینری یا مرحله ای به صورت بیان می شود :

شکل ۹-۱۸  نورون مصنوعی

که در آن γ۱ و γ۲ ثابت هستند. معمولاً خروجی دوتایی تولید می شود که برای آن γ۱ = ۱ و γ۲ = ۰ است. یا خروجی دوقطبی در جایی که γ۱ = ۱ و γ۲ = -۱ استفاده می شود. تابع سیگموئید به صورت زیر نوشته می شود :

جایی که β یک ثابت است. یک تابع مماس هذلولی به شکل زیر است:

ANN  شبکه لایه ای است که از تعداد زیادی نورون مصنوعی بسیار متصل به هم (یعنی عناصر پردازشی) تشکیل شده است که به طور موازی برای حل مشکل خاصی کار می کنند. معمولاً از لایه ورودی، یک یا چند لایه پنهان و یک لایه خروجی (شکل ۹-۱۹) هر لایه از تعدادی نورون مصنوعی تشکیل شده است که گره نیز نامیده می شود. نورونهای مصنوعی در یک لایه با وزن به نورونهای مصنوعی در لایه بعدی متصل می شوند. این در اصل مدلی است که نگاشت غیر خطی بین بردار ورودی و بردار خروجی را نشان می دهد. از آنجایی که خروجی یک نورون یا گره مصنوعی تابعی از مجموع ورودی‌های گره است که توسط یک تابع فعال‌سازی غیرخطی اصلاح شده است، ANN بسیاری از توابع فعال‌سازی غیرخطی ساده را که توسط گره‌های تشکیل‌دهنده شبکه استفاده می‌شوند، روی هم قرار می‌دهد. آن را به تقریب توابع بسیار غیر خطی، در نتیجه معرفی رفتار غیر خطی پیچیده به شبکه است. این توابع را می توان برای تعمیم دقیق داده های جدید آموزش داد. ویژگی انطباقی با تنظیم وزنه هایی که گره ها را در مرحله آموزش به هم متصل می کند در شبکه تعبیه شده است. پس از مرحله آموزش، پارامترهای ANN ثابت می شوند و سیستم برای حل مشکل در دست استقرار می یابد. بنابراین، ANN سیستم تطبیقی ​​و غیر خطی است که یاد می گیرد عملکردی را از داده ها انجام دهد.

انواع مختلفی از ANN وجود دارد، از جمله ANN های عملکرد چند مرحله ای، تکراری، زمانی، احتمالی، فازی و شعاعی (هایکین، ۱۹۹۹). همانطور که در شکل ۹-۱۹ نشان داده شده است، محبوب ترین شبکه عصبی چندلایه پیشخور است. از آن به عنوان شبکه پرسپترون چندلایه نیز یاد می شود. در این نوع ANN ، خروجی گره با وزن اتصال کوچک شده و به عنوان ورودی گره های لایه بعدی به جلو هدایت می شود. یعنی جریان اطلاعات از گره های لایه ورودی شروع می شود، سپس در امتداد پیوندهای وزن دار به گره های لایه های پنهان برای پردازش حرکت می کند. لایه ورودی هیچ نقش محاسباتی ایفا نمی کند، اما ورودی های شبکه را فراهم می کند. وزن اتصال معمولاً از طریق تمرین تعیین می شود. هر گره شامل تابع فعال سازی است که اطلاعات تمام گره های لایه قبل را ترکیب می کند. لایه خروجی تابع پیچیده از نتایج حاصل از تحولات شبکه داخلی است.

شکل ۹-۱۹ ANN با لایه مخفی

شبکه های پرسپترون چند لایه ای قادر به یادگیری از طریق آموزش هستند. آموزش شامل استفاده از مجموعه ای از داده های آموزشی با روشی سیستماتیک گام به گام برای بهینه سازی معیار عملکرد یا پیروی از برخی محدودیت های ضمنی داخلی است که معمولاً از آن به عنوان قاعده یادگیری یاد می شود. داده های آموزشی باید معرف کل مجموعه داده باشد. شبکه عصبی با مجموعه ای از وزن های اتصال اولیه شروع می شود. در طول آموزش، شبکه بارها با داده های آموزشی تغذیه می شود (مجموعه ای از جفت الگوهای ورودی – خروجی که از طریق نمونه گیری به دست می آیند) و وزن اتصال در شبکه تا زمانی که قانون یادگیری برآورده نشود، اصلاح می شود. معیار عملکرد می تواند مقدار آستانه سیگنال خطا باشد که به عنوان تفاوت بین خروجی مطلوب و واقعی برای بردار ورودی معین تعریف می شود. آموزش با استفاده از اندازه سیگنال خطا تعیین می کند که چقدر وزن اتصال باید تنظیم شود تا خطای کلی کاهش یابد. فرایند آموزش توسط الگوریتم یادگیری، مانند انتشار مجدد (روملارت و همکاران، ۱۹۸۶) و الگوریتم های گرادیان مزدوج مقیاس شده (هاگان و همکاران، ۱۹۹۶) انجام می شود. شبکه پرسپترون چندلایه ای پس از آموزش با داده های آموزشی نماینده، توانایی تعمیم کافی را به دست می آورد و می تواند برای داده های جدید اعمال شود.

شبکه‌های عصبی تابع پایه شعاعی (RBFNN) شبکه‌های عصبی پیش‌خور هستند که از یک لایه ورودی، یک لایه پنهان و یک لایه خروجی تشکیل شده‌اند، اما گره‌های پنهان مجموعه‌ای از توابع پایه شعاعی را به جای توابع فعال‌سازی اجرا می‌کنند و گره‌های خروجی جمع‌بندی خطی را اجرا می‌کنند. مانند یک شبکه پرسپترون چند لایه عمل می کند. تابع پایه شعاعی برای نقطه داده x تابعی است که مقدار آن فقط به فاصله از نقطه داده دیگر c که مرکز نامیده می شود بستگی دارد، به طوری که :

که در آن  نشان دهنده هنجار اقلیدسی و معمولاً فاصله اقلیدسی است. تابع پایه شعاعی  تک متغیره و معمولاً پیوسته است. نام “شعاعی” نشان می دهد که تمام نقاط داده با فاصله مساوی از c مقدار یکسانی تولید می کنند. انواع مختلفی از توابع پایه شعاعی را می توان استفاده کرد، اما رایج ترین آنها تابع گاوسی است که به صورت زیر بیان می شود :

در اینجا σ شعاع اطراف مرکز است ( اسپرد نیز نامیده می شود) که هر نورون به آن پاسخ می دهد. هر نورون مرکز متفاوتی دارد و ممکن است شعاع متفاوتی داشته باشد.

فرض کنید X بردار ورودی m بعدی و Y بردار خروجی n بعدی باشد. X = [x1، x2، . . .، xm] و Y = [y1، y2، . . .، yn]، که m تعداد گره های ورودی و n تعداد گره های خروجی است. تعداد گره های پنهان را k تنظیم کنید. مقدار خروجی jامین گره خروجی تولید شده توسط یک RBFNN به صورت زیر داده می شود:

بگذارید X بردار ورودی m-بعدی و Y بردار خروجی n بعدی باشد. و  که m تعداد گره های ورودی و n تعداد گره های خروجی است. تعداد گره های پنهان را به عنوان k تنظیم کنید. مقدار خروجی jامین گره خروجی تولید شده توسط RBFNN به صورت زیر داده می شود  :

جایی که λij وزن ارتباط بین یک گره مخفی با گره خروجی jth است (شکل  ۹-۲۰ a). در اینجا X را می توان به عنوان یک نقطه داده با ویژگی های m یا متغیرها در نظر گرفت. این مقادیر را برای هر یک از سلول های عصبی در لایه پنهان تغذیه می کند. هر گره یا نورون پنهان از یک تابع پایه شعاعی تشکیل شده است که بر روی نقطه ای با ابعاد به اندازه بردار ورودی متمرکز شده است. هنگامی که بردار X مقادیر ورودی از لایه ورودی ارائه می شود، گره پنهان فاصله اقلیدسی مورد آزمایش را از مرکز گره محاسبه می کند، سپس با استفاده از شعاع تابع پایه شعاعی را به این فاصله اعمال می کند. سپس مقدار حاصله در وزنی که به گره اختصاص داده می شود ضرب می شود و به لایه جمع منتقل می شود که مقادیر وزنی را جمع می کند و این مبلغ را به عنوان خروجی شبکه ارائه می دهد. تعداد بهینه گره های پنهان، مراکز و گسترش هر تابع پایه شعاعی توسط فرآیند آموزش تعیین می شود. RBFNN ها قادر به مدل سازی نقشه های پیچیده هستند،

RBFNN ها قادر به مدل سازی نگاشت های پیچیده هستند، در حالی که شبکه های پرسپترون فقط می توانند با استفاده از چندین لایه واسطه مدل کنند.

به عنوان توسعه RBFNN، شبکه های پیوند عملکردی مبتنی بر شعاعی (RBFLNs) سریع تر یاد می گیرند و در عملکرد دقیق تر هستند. RBFNN یک مدل غیر خطی است، در حالی که RBFLN مدل خطی اضافی را در خود جای داده است (لونی، ۲۰۰۲). همانطور که در شکل ۹-۲۰ b نشان داده شده است، RBFNN پیوندهایی را اضافه می کند که مستقیماً گره های ورودی را به گره های خروجی متصل می کند، و این پیوندها مجموعه دیگری از وزن {wij} دارند. با پیوندها و وزن های جدید، معادله ۹-۳۳ به صورت زیر اصلاح می شود :

وقتی {wij} روی صفر تنظیم شود، RBFLN به RBFNN تبدیل می شود. بنابراین، RBFLN تعمیمی از RBFNN، مدل کامل تری از نقشه برداری غیر خطی عمومی است.

شکل ۹-۲۰ (الف) RBFNN و (ب) RBFLN

ANN ها زمانی کاربرد دارند که بین متغیرهای مستقل (خروجی ها) و متغیرهای وابسته (ورودی ها) رابطه وجود داشته باشد. آنها قادرند بدون هیچ پیش فرضی در مورد توزیع آماری داده ها، از مجموعه داده معین رابطه را بیاموزند. علاوه بر این، ANN ها تبدیل غیر خطی از داده های ورودی را برای تقریبی داده های خروجی انجام می دهند، از داده های آموزشی یاد می گیرند و توانایی تعمیم فراتر از داده های آموزشی را نشان می دهند. قابلیت یادگیری از داده‌ها و مدل‌سازی روابط غیرخطی، ANN را برای طبقه‌بندی الگو (یعنی طبقه‌بندی داده‌ها به کلاس‌های گسسته از پیش تعیین‌شده) و مدل‌سازی پیش‌بینی مناسب می‌کند. ژو، ۲۰۱۴ مروری بر برنامه های کاربردی ANN در زمین و علوم محیطی ارائه داد. کادر ۹-۶ نمونه ای از ارزیابی حساسیت به زمین لغزش را نشان می دهد. با استفاده از RBFLN در ArcGIS با داده های مشابه و برخی نتایج از مثال کادر ۹-۵ نشان می دهد.

برگرفته از کتاب کاربرد GISدر محیط زیست

ترجمه:سعید جوی زاده،شهناز تیموری،فاطمه حسین پور فرزانه

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

خانهدربارهتماسارتباط با ما