کلید واژه ها:
همجوشی ; ویدئو نظارت ؛ اطلاعات جغرافیایی سه بعدی ؛ نقشه برداری ; جسم متحرک ؛ DSM
۱٫ مقدمه
۲٫ کارهای مرتبط
۲٫۱٫ کالیبراسیون دوربین
۲٫۲٫ ژئوفضایی سازی ویدیویی
۲٫۳٫ تشخیص و ردیابی شی
۲٫۴٫ ادغام فیلم های نظارتی و اطلاعات جغرافیایی
۳٫ چارچوب اطلاعات جغرافیایی سه بعدی و اجسام متحرک
-
کالیبراسیون دوربین هدف کالیبراسیون دوربین به دست آوردن پارامترهای درونی و بیرونی است که می تواند مدل دوربین را تعیین کند.
-
استخراج اجسام متحرک آشکارسازهای اشیاء و ردیابها میتوانند اطلاعات اجسام متحرک را در یک ویدیو استخراج کنند که در مورد موقعیتهای مکانی-زمانی در یک تصویر است. این موقعیت ها خیلی دقیق نیستند و حاوی خطا هستند. آنها نیاز به اصلاح اعوجاج دارند.
-
مدل نقشه برداری در فرآیند تصویربرداری دوربین، اطلاعات عمق از بین می رود. برای بازیابی موقعیت جسم در فضا، به اطلاعات زمین که توسط یک مدل جغرافیایی سه بعدی به دست آمده است نیاز داریم. با توجه به یک دوربین مدرج و یک پیکسل تصویر، یک پرتو تصویربرداری (X0,Y0,Z0)+k(U,V,W)ساخته شده است. پرتو تصویربرداری زمین را در نقطه ای که جسم در آن قرار دارد قطع می کند.
-
اطلاعات مکانی – زمانی در فضای سه بعدی علاوه بر اطلاعات موقعیت سه بعدی، عرض و ارتفاع جسم را نیز می توان با محاسبه هندسی به دست آورد.
-
تجسم. اشیاء متحرک را در یک صحنه جغرافیایی سه بعدی ارائه دهید.
۴٫ اصول و روشها
۴٫۱٫ مدل تصویربرداری دوربین
دوربین نقشه برداری بین دنیای سه بعدی (فضای شی) و یک تصویر دو بعدی است. به عبارت دیگر، میتوانیم نقاط موجود در فضا را با مختصات سهبعدی به نقاطی در صفحه تصویر زیر مدل دوربین نگاشت کنیم. تخصصی ترین و ساده ترین مدل دوربین، دوربین پین هول است. مدل تصویربرداری در معادله (۱) فهرست شده است:
جایی که λدر رابطه (۱) ضریب مقیاس است. [uv]Tیک نقطه در صفحه تصویر است. [u0v0]Tمختصات نقطه اصلی O هستند. fxو fyنشان دهنده فاصله کانونی دوربین بر حسب ابعاد پیکسل در uو vجهت، به ترتیب؛ پارامتر sپارامتر چولگی است. و [XWYWZW]Tنقطه ای در فضا است پارامترهای موجود در K را پارامترهای ذاتی می نامند. پارامترهای موجود در [R|t]که جهت و موقعیت دوربین را به یک سیستم مختصات جهانی مرتبط می کند، پارامترهای بیرونی نامیده می شوند. Kو [R|t]را می توان با روش های کالیبراسیون به دست آورد.
(۱) مدل اعوجاج شعاعی:
جایی که k1، k2و k3پارامترهای مدل اعوجاج شعاعی هستند. r2=x2+y2. (xdistorted,ydistorted)و (x,y)مختصات تصویر نرمال شده هستند.
(۲) مدل اعوجاج مماسی:
جایی که p1و p2پارامترهای مدل اعوجاج مماسی هستند. با ترکیب معادلات (۲) و (۳) می توان نتیجه گرفت که:
۴٫۲٫ تقاطع پرتو با DSM
- (۱)
-
ساخت یک پرتو تصویربرداری، (ایکس۰،Y0،ز۰) +k ( U، V، دبلیو)، جایی که (ایکس۰،Y0،ز۰)مکان دوربین در فضا است، k ≥ ۰فاصله دلخواه است و ( U، V، دبلیو)یک بردار واحد است که جهت پرتو تصویربرداری از دوربین را نشان می دهد. همانطور که در شکل ۲ الف نشان داده شده است، فرض کنید که محل نقطه A در تصویر است (توآ،vآ)، و مختصات پیکسل هر نقطه B در پرتو تصویربرداری OA نیز هستند (توآ،vآ). جایگزین λ(یک ثابت) به معادله (۱) برای به دست آوردن ب (ایکسب،Yب،زب). این می دهد:
⎡⎣⎢UVدبلیو⎤⎦⎥=⎡⎣⎢⎢⎢⎢⎢⎢⎢⎢ایکسب–ایکس۰(ایکسب–ایکس۰)۲+(Yب–Y0)2+(زب–ز۰)۲√Yب–Y0(ایکسب–ایکس۰)۲+(Yب–Y0)2+(زب–ز۰)۲√زب–ز۰(ایکسب–ایکس۰)۲+(Yب–Y0)2+(زب–ز۰)۲√⎤⎦⎥⎥⎥⎥⎥⎥⎥⎥، - (۲)
-
جستجو برای نقاط شی از نقطه دوربین شروع کنید و در جهت پرتو تصویربرداری OA جستجو کنید. مرحله جستجو فاصله شبکه است Δ داز DSM. مختصات از ننقطه جستجو عبارتند از:
⎡⎣⎢ایکسنYنزن⎤⎦⎥=⎡⎣⎢ایکس۰Y0ز۰⎤⎦⎥+ نΔ د⎡⎣⎢UVدبلیو⎤⎦⎥.جایگزین (ایکسن،Yن)به DSM برای جستجو و مطابقت. ثبت ارتفاع در (ایکسن،Yن)در DSM به عنوان الف (ایکسن،Yن). ارتفاعات چهار نقطه گوشه شبکه که در آن (ایکسن،Yن)واقع شده است ز۱، ز۲، ز۳و ز۴، به ترتیب. سپس،
الف (ایکسن،Yن) =۱۴(ز۱+ز۲+ز۳+ز۴) .چه زمانی الف (ایکسن،Yن) ≥زنبرای اولین بار ظاهر می شود، نشان می دهد که شی A عبور کرده است:
- ①
-
اگر الف (ایکسن،Yن) =زن، (ایکسن،Yن،زن)مختصات جهان جسم A است.
- ②
-
اگر الف (ایکسن،Yن) >زن، به این معنی است که نقطه شی بین نقطه جستجو قرار دارد نو ن– ۱. الف (ایکسن،Yن)مخفف شده است Eن. با درون یابی، تخمین مکان دقیق تری را می توان به دست آورد. فرآیند درونیابی در شکل ۲ ب نشان داده شده است. با توجه به رابطه نسبت مثلث، وجود دارد:
زن– ۱آ¯¯¯¯¯¯¯¯¯¯زن– ۱Eن– ۱¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯=زن– ۱زن¯¯¯¯¯¯¯¯¯¯¯¯زنEن¯¯¯¯¯¯¯¯¯+زن– ۱Eن– ۱¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯.
مختصات جهان جسم A عبارتند از:
۴٫۳٫ تشخیص و ردیابی عابر پیاده
روش SORT عمیق [ ۴۰ ] از فیلتر کالمن بازگشتی و ارتباط فریم به فریم داده برای تحقق ردیابی شی استفاده می کند. فاصله Mahalanobis برای ترکیب اطلاعات حرکت و کوچکترین فاصله کسینوس برای مرتبط کردن اطلاعات ظاهری اجسام استفاده می شود. با استفاده از یک جمع وزنی مطابق با معادله (۱۱)، دو معیار متریک بالا برای تأیید متریک نهایی و خروجی اطلاعات ردیابی شی از طریق الگوریتم مجارستانی برای دستیابی به تطابق ترکیب می شوند:
جایی که د( ۱ )(i,j)فاصله ماهالانوبیس (مربع) است، d(2)(i,j)فاصله کسینوس و λیک هایپرپارامتر است.
از آنجایی که این مقاله با تقاطع پرتوهای تصویربرداری و DSM مکان اشیاء را تعیین می کند، انتخاب نقطه مرکزی موقعیت ایستاده روی هر دو پا منطقی است. عابران پیاده بیشتر اوقات در حال حرکت هستند. بسیاری از قاب های اشیا برای اندازه گیری موقعیت نقطه مرکزی هر دو پا استفاده می شود. منطقی است که بر اساس معادله زیر محاسبه شود:
۴٫۴٫ اکتساب اطلاعات مکانی – زمانی اشیاء
با فرض اینکه عابر پیاده بر زمین عمود باشد و مختصات جهانی نقطه تماس مرکز پاها باشد. (Xa,Ya,Za)، (Xa,Ya)بنابراین محل سر عابر پیاده است. موقعیت سر نقطه مرکزی لبه بالایی جعبه مرزی است که به صورت حذف شده است. (ut,vt). با جایگزینی مدل تصویربرداری دوربین (معادله (۱))، ارتفاع سر به صورت حل می شود Zt. بنابراین ارتفاع عابر پیاده برابر است با:
عرض بدنه جسم با عرض جعبه مرزی محاسبه می شود. دو نقطه ای که خط افقی حاوی نقطه مرکزی هر دو پا با کادر محدود کننده جسم ملاقات می کند، هستند (ul,vf)و (ur,vf)، به ترتیب. (ul,vf)، (ur,vf)و ارتفاع Zaدر مدل تصویربرداری دوربین جایگزین می شوند، که مختصات جهان مربوطه را می توان به عنوان به دست آورد (Xl,Yl,Za)و (Xr,Yr,Za). عرض جسم برابر است با:
۵٫ آزمایش ها و نتایج
۵٫۱٫ محیط تجربی
۵٫۲٫ پارامترهای ذاتی
۵٫۳٫ پارامترهای بیرونی
مختصات دوربین مدرج در سیستم مختصات جهانی (۳۹٫۳۱۴، ۸۴٫۲۶۷، ۹۲٫۵۱۲) می باشد. ماتریس چرخش و ماتریس ترجمه به شرح زیر است:
۵٫۴٫ ردیابی اشیا
۵٫۵٫ تخمین مکان شی
۵٫۶٫ تخمین عرض و ارتفاع جسم
شکل ۱۱ و شکل ۱۲ به ترتیب عرض و ارتفاع اجسام متحرک را نشان می دهند. پس از حذف ناهنجاری ها با فیلتر میانه، میانگین عرض و ارتفاع در رابطه (۱۵) محاسبه می شود:
جایی که xiعرض/ارتفاع شی پس از فیلتر در هر فریم است و nتعداد فریم است. میانگین عرض و ارتفاع اجسام متحرک در جدول ۲ نشان داده شده است.
۵٫۷٫ اطلاعات مکانی – زمانی اجسام متحرک
۵٫۸٫ آمار زمان آزمایشی
۵٫۹٫ تجزیه و تحلیل نتایج تجربی
فاصله عمودی بین نقطه نقشه برداری و مسیر اندازه گیری شده به عنوان استاندارد برای ارزیابی خطای موقعیت مسطح در نظر گرفته می شود. حداکثر خطا (ME) و ریشه میانگین مربعات خطا (RMSE) موقعیت شی پویا عبارتند از:
جایی که diفاصله عمودی بین iنقطه نقشه برداری و مسیر اندازه گیری شده، و nتعداد نقاط نقشه برداری است. ME و RMSE موقعیت مسطح و ارتفاع به ترتیب در جدول ۵ و جدول ۶ نشان داده شده است.
۶٫ تجسم
ما اشیاء متحرک در ویدیوی نظارتی را به فضای جغرافیایی سه بعدی نگاشت کردیم، که نه تنها می تواند بر مضرات افزونگی ویدیو غلبه کند، بلکه برای مدیران مفید است تا به طور شهودی اشیاء را نظارت کنند و درک اندازه گیری، آمار و تجزیه و تحلیل را تسهیل کند. اشیاء. مدل اطلاعات جغرافیایی سه بعدی مورد استفاده در این مقاله با فتوگرامتری وسیله نقلیه هوایی بدون سرنشین داجیانگ به دست آمد. ریشه میانگین مربعات خطای موقعیت مسطح و ارزیابی به عنوان استاندارد دقت استفاده می شود. معادلات مربوطه عبارتند از:
جایی که ( xi، yi، zi) مختصات در مدل سه بعدی هستند، ( x˜i، y˜i، z˜i) مختصاتی هستند که در میدان اندازه گیری می شوند و n تعداد نقاط است. معادله (۱۸) معادله محاسبه خطای مسطح و معادله (۱۹) معادله محاسبه خطای ارزیابی است. بدون در نظر گرفتن تخت گل، درختان، خانه ها و موقعیت های دیگر، ۶۶ نقطه روی زمین توسط یک ایستگاه کل در مزرعه اندازه گیری شد و مختصات نقطه مربوطه از مدل سه بعدی در دفتر گرفته شد. پس از محاسبه، دقت مسطح مدل سه بعدی ۳٫۷ سانتی متر و دقت ارزیابی ۶٫۵ سانتی متر بود. مدل سه بعدی دقت بالایی دارد.
۷٫ نتیجه گیری
منابع
- الهاروس، او. المعادد، ن. المعادد، س. مروری بر سیستم های نظارت تصویری. J. Vis. اشتراک. تصویر نشان می دهد. ۲۰۲۱ ، ۷۷ ، ۱۰۳۱۱۶٫ [ Google Scholar ] [ CrossRef ]
- لی، SC; نواتیا، R. ابزار کالیبراسیون دوربین قوی برای دوربین های نظارت تصویری در محیط شهری. در مجموعه مقالات کارگاه های آموزشی CVPR 2011، کلرادو اسپرینگز، CO، ایالات متحده آمریکا، ۲۰-۲۵ ژوئن ۲۰۱۱٫ صص ۶۲-۶۷٫ [ Google Scholar ]
- الدرندالی، کالیفرنیا؛ عبدالباسط، م. عبدالفتح، L. پوشش نظارتی PTZ بر اساس هوش مصنوعی برای شهرهای هوشمند. بین المللی J. Inf. مدیریت ۲۰۱۹ ، ۴۹ ، ۵۲۰-۵۳۲٫ [ Google Scholar ] [ CrossRef ]
- لیو، اس. لیو، دی. سریواستاوا، جی. پولاپ، دی. Woźniak, M. بررسی اجمالی و روش های الگوریتم های فیلتر همبستگی در ردیابی شی. هوش پیچیده سیستم ۲۰۲۰ ، ۷ ، ۱۸۹۵-۱۹۱۷٫ [ Google Scholar ] [ CrossRef ]
- کاوازاکی، ن. Takai, Y. سیستم نظارت تصویری برای نظارت امنیتی بر اساس واقعیت افزوده. در مجموعه مقالات دوازدهمین کنفرانس بین المللی واقعیت مصنوعی و تله وجود، توکیو، ژاپن، ۴-۶ دسامبر ۲۰۰۲٫ ص ۴-۶٫ [ Google Scholar ]
- سانکارانارایانان، ک. دیویس، JW یک چارچوب ثبت خطی سریع برای هماهنگی GIS چند دوربینی. در مجموعه مقالات پنجمین کنفرانس بین المللی IEEE در سال ۲۰۰۸ در زمینه نظارت بر ویدئو و سیگنال پیشرفته، سانتافه، NM، ایالات متحده، ۱ تا ۳ سپتامبر ۲۰۰۸٫ صص ۲۴۵-۲۵۱٫ [ Google Scholar ]
- زی، ی. وانگ، ام. لیو، ایکس. مائو، بی. Wang, F. ادغام اجسام متحرک ویدئویی چند دوربینی و GIS. ISPRS Int. جی. ژئو. Inf. ۲۰۱۹ ، ۸ ، ۵۶۱٫ [ Google Scholar ] [ CrossRef ] [ نسخه سبز ]
- زی، ی. وانگ، ام. لیو، ایکس. Wu, Y. ادغام GIS و اجسام متحرک در ویدئوهای نظارتی. ISPRS Int. جی. ژئو. Inf. ۲۰۱۷ ، ۶ ، ۹۴٫ [ Google Scholar ] [ CrossRef ] [ نسخه سبز ]
- گیرگنسون، ا. کیمبر، دی. وان، جی. یانگ، تی. شیپمن، اف. ترنر، تی. ریفل، ای. ویلکاکس، ال. چن، اف. Dunnigan، T. Dots: پشتیبانی از نظارت تصویری موثر. در مجموعه مقالات پانزدهمین کنفرانس بین المللی ACM در چند رسانه ای، باواریا، آلمان، ۲۴-۲۹ سپتامبر ۲۰۰۷٫ ص ۴۲۳-۴۳۲٫ [ Google Scholar ]
- هان، ال. هوانگ، بی. Chen, L. یکپارچه سازی و کاربرد سیستم نظارت تصویری و ۳DGIS. در مجموعه مقالات ۲۰۱۰ هجدهمین کنفرانس بین المللی ژئوانفورماتیک، پکن، چین، ۱۸-۲۰ ژوئن ۲۰۱۰٫ صص ۱-۵٫ [ Google Scholar ]
- ژنگ، جی. ژانگ، دی. ژانگ، ز. Lu, X. یک سیستم یکپارچه نظارت تصویری و GIS. IOP Conf. سر. محیط زمین. علمی ۲۰۱۸ , ۱۷۰ , ۰۲۲۰۸۸٫ [ Google Scholar ] [ CrossRef ][ نسخه سبز ]
- زی، ی. وانگ، ام. لیو، ایکس. Wu, Y. خلاصه تصویری نظارت در GIS. ISPRS Int. J. Geo Inf. ۲۰۱۷ ، ۶ ، ۳۳۳٫ [ Google Scholar ] [ CrossRef ] [ نسخه سبز ]
- آهنگ، اچ. لیو، ایکس. ژانگ، ایکس. Hu, J. نظارت در زمان واقعی برای شمارش جمعیت با استفاده از نظارت تصویری و GIS. در مجموعه مقالات دومین کنفرانس بین المللی ۲۰۱۲ سنجش از دور، محیط زیست و مهندسی حمل و نقل، نانجینگ، چین، ۱ تا ۳ ژوئن ۲۰۱۲٫ صص ۱-۴٫ [ Google Scholar ]
- Zhang, Z. یک تکنیک جدید انعطاف پذیر برای کالیبراسیون دوربین. IEEE Trans. الگوی مقعدی ماخ هوشمند ۲۰۰۰ ، ۲۲ ، ۱۳۳۰-۱۳۳۴٫ [ Google Scholar ] [ CrossRef ][ نسخه سبز ]
- هارتلی، RI خود کالیبراسیون دوربین های ثابت. بین المللی جی. کامپیوتر. Vis. ۱۹۹۷ ، ۲۲ ، ۵-۲۳٫ [ Google Scholar ] [ CrossRef ]
- Triggs، B. Autocalibration و Quadric مطلق. در مجموعه مقالات کنفرانس انجمن رایانه ای IEEE در مورد دید رایانه و تشخیص الگو، سان خوان، روابط عمومی، ایالات متحده آمریکا، ۱۷-۱۹ ژوئن ۱۹۹۷٫ صص ۶۰۹-۶۱۴٫ [ Google Scholar ]
- Lu, XX مروری بر راهحلها برای مسئله نقطه-نقطه پرسپکتیو در تخمین موقعیت دوربین. J. Phys. Conf. سر. ۲۰۱۸ , ۱۰۸۷ , ۰۵۲۰۰۹٫ [ Google Scholar ] [ CrossRef ]
- لپتیت، وی. مورنو نوگر، اف. Fua, P. Epnp: یک راه حل دقیق o (n) برای مسئله pnp. بین المللی جی. کامپیوتر. Vis. ۲۰۰۹ ، ۸۱ ، ۱۵۵٫ [ Google Scholar ] [ CrossRef ] نسخه سبز ]
- لی، اس. خو، سی. Xie، M. یک راه حل قوی O (n) برای مسئله پرسپکتیو-n-نقطه. IEEE Trans. الگوی مقعدی ماخ هوشمند ۲۰۱۲ ، ۳۴ ، ۱۴۴۴-۱۴۵۰٫ [ Google Scholar ] [ CrossRef ]
- کالینز، آر. تسین، ی. میلر، جی آر. Lipton، A. استفاده از یک DEM برای تعیین مسیرهای جسم مکانی. در مجموعه مقالات کارگاه آموزشی درک تصویر دارپا، مونتری، کالیفرنیا، ایالات متحده آمریکا، ۲۰ تا ۲۳ نوامبر ۱۹۹۸٫ صص ۱۱۵-۱۲۲٫ [ Google Scholar ]
- میلوساولیویچ، آ. رانچیچ، دی. دیمیتریویچ، آ. پردیچ، بی. Mihajlović، V. یکپارچه سازی GIS و نظارت تصویری. بین المللی جی. جئوگر. Inf. علمی ۲۰۱۶ ، ۱-۱۹٫ [ Google Scholar ] [ CrossRef ]
- میلوساولیویچ، آ. رانچیچ، دی. دیمیتریویچ، آ. پردیچ، بی. Mihajlović, V. A Method for Estimating Surveillance Video Georeferences. ISPRS Int. جی. ژئو. Inf. ۲۰۱۷ ، ۶ ، ۲۱۱٫ [ Google Scholar ] [ CrossRef ] [ نسخه سبز ]
- گیرشیک، آر. دوناهو، جی. دارل، تی. Malik, J. Rich دارای سلسله مراتب برای تشخیص دقیق شی و تقسیم بندی معنایی هستند. در مجموعه مقالات کنفرانس IEEE در مورد بینایی کامپیوتری و تشخیص الگو، کلمبوس، OH، ایالات متحده، ۲۳ تا ۲۸ ژوئن ۲۰۱۴٫ صص ۵۸۰-۵۸۷٫ [ Google Scholar ]
- Girshick, R. Fast r-cnn. در مجموعه مقالات کنفرانس بین المللی IEEE در بینایی کامپیوتر، سانتیاگو، شیلی، ۷ تا ۱۳ دسامبر ۲۰۱۵٫ ص ۱۴۴۰-۱۴۴۸٫ [ Google Scholar ]
- رن، اس. او، ک. گیرشیک، آر. Sun, J. Faster r-cnn: به سمت تشخیص شی در زمان واقعی با شبکه های پیشنهادی منطقه. Adv. عصبی Inf. سیستم پردازش ۲۰۱۵ ، ۲۸ ، ۹۱-۹۹٫ [ Google Scholar ] [ CrossRef ] [ PubMed ][ نسخه سبز ]
- او، ک. گیوکسری، جی. دلار، پی. Girshick, R. Mask r-cnn. در مجموعه مجموعه مقالات کنفرانس بین المللی IEEE در بینایی کامپیوتر، ونیز، ایتالیا، ۲۲ تا ۲۹ اکتبر ۲۰۱۷؛ صفحات ۲۹۶۱-۲۹۶۹٫ [ Google Scholar ]
- ردمون، جی. دیووالا، س. گیرشیک، آر. فرهادی، الف. شما فقط یک بار نگاه می کنید: یکپارچه، تشخیص شی در زمان واقعی. در مجموعه مقالات کنفرانس IEEE در مورد بینایی کامپیوتری و تشخیص الگو، لاس وگاس، NV، ایالات متحده، ۲۷-۳۰ ژوئن ۲۰۱۶٫ صص ۷۷۹-۷۸۸٫ [ Google Scholar ]
- لیو، دبلیو. آنگلوف، دی. ایرهان، د. سگدی، سی. رید، اس. فو، سی.-ای. Berg, AC Ssd: آشکارساز چند جعبه ای تک شات. در مجموعه مقالات کنفرانس اروپایی بینایی کامپیوتر، آمستردام، هلند، ۱۱ تا ۱۴ اکتبر ۲۰۱۶؛ ص ۲۱-۳۷٫ [ Google Scholar ]
- هوانگ، سی. لی، ی. نواتیا، R. ردیابی هدف چندگانه با ارتباط سلسله مراتبی مبتنی بر یادگیری پاسخ های تشخیص. IEEE Trans. الگوی مقعدی ماخ هوشمند ۲۰۱۲ ، ۳۵ ، ۸۹۸-۹۱۰٫ [ Google Scholar ] [ CrossRef ] [ PubMed ]
- سلام.؛ وی، ایکس. هنگ، ایکس. شی، دبلیو. Gong, Y. ردیابی چند دوربین چند هدفه با تخصیص مسیر به هدف. IEEE Trans. پردازش تصویر ۲۰۲۰ ، ۲۹ ، ۵۱۹۱–۵۲۰۵٫ [ Google Scholar ] [ CrossRef ]
- خو، جی. بو، سی. وانگ، دی. رویکرد جدید ردیابی دوربین چند هدفه بر اساس گروه بندی ویژگی ها. محاسبه کنید. برق مهندس ۲۰۲۱ ، ۹۲ ، ۱۰۷۱۵۳٫ [ Google Scholar ] [ CrossRef ]
- وانگ، ز. ژنگ، ال. لیو، ی. لی، ی. Wang, S. به سمت ردیابی چند شی در زمان واقعی. در مجموعه مقالات چشم انداز کامپیوتر–ECCV 2020: شانزدهمین کنفرانس اروپایی، گلاسکو، بریتانیا، ۲۳ تا ۲۸ اوت ۲۰۲۰؛ صص ۱۰۷-۱۲۲٫ [ Google Scholar ]
- ریستانی، ا. Tomasi, C. ویژگی های ردیابی و شناسایی مجدد چند دوربین چند هدفه. در مجموعه مقالات کنفرانس IEEE در مورد بینایی کامپیوتری و تشخیص الگو، سالت لیک سیتی، UT، ایالات متحده آمریکا، ۱۸ تا ۲۳ ژوئن ۲۰۱۸؛ ص ۶۰۳۶–۶۰۴۶٫ [ Google Scholar ]
- ژانگ، ز. وو، جی. ژانگ، ایکس. Zhang، C. ردیابی چند هدفه، چند دوربینی توسط خوشه بندی سلسله مراتبی: پیشرفت اخیر در پروژه dukemtmc. arXiv ۲۰۱۷ , arXiv:1712.09531. [ Google Scholar ]
- تاگور، NK; سینگ، آ. منچ، س. Chattopadhyay، P. شناسایی مجدد افراد مبتنی بر یادگیری عمیق. arXiv ۲۰۲۰ ، arXiv:2005.03293. [ Google Scholar ]
- کاتکره، ا. معزی، س. کورامورا، دی. کلی، پی. Jain, R. به سمت محیط های همهجانبه مبتنی بر ویدیو. چندتایی. سیستم ۱۹۹۷ ، ۵ ، ۶۹-۸۵٫ [ Google Scholar ] [ CrossRef ]
- تاکه هارا، تی. ناکاشیما، ی. نیتا، ن. باباگوچی، N. دیورامای دیجیتال: تجسم دنیای واقعی مبتنی بر حس. در مجموعه مقالات کنفرانس بین المللی پردازش اطلاعات و مدیریت عدم قطعیت در سیستم های مبتنی بر دانش، دورتموند، آلمان، ۲۸ ژوئن تا ۲ ژوئیه ۲۰۱۰٫ Springer: برلین/هایدلبرگ، آلمان، ۲۰۱۰; جلد دوم، ص ۶۶۳-۶۷۲٫ [ Google Scholar ]
- ژانگ، ایکس. لیو، ایکس. Song, H. نظارت تصویری GIS: یک برنامه جدید. در مجموعه مقالات بیست و یکمین کنفرانس بین المللی ژئوانفورماتیک ۲۰۱۳، کایفنگ، چین، ۲۰ تا ۲۲ ژوئن ۲۰۱۳٫ صص ۱-۴٫ [ Google Scholar ]
- یانگ، ی. چانگ، ام.-سی. تو، پ. Lyu, S. دیدن همانطور که اتفاق می افتد: تجسم رویداد ویدیوی سه بعدی در زمان واقعی. در مجموعه مقالات کنفرانس بین المللی IEEE 2015 در مورد پردازش تصویر (ICIP)، کبک، ON، کانادا، ۲۷ تا ۳۰ سپتامبر ۲۰۱۵٫ صص ۲۸۷۵-۲۸۷۹٫ [ Google Scholar ]
- وویکه، ن. بیولی، ا. پائولوس، دی. ردیابی آنلاین و بیدرنگ ساده با متریک ارتباط عمیق. در مجموعه مقالات کنفرانس بین المللی IEEE 2017 در مورد پردازش تصویر (ICIP)، پکن، چین، ۱۷ تا ۲۰ سپتامبر ۲۰۱۷؛ صص ۳۶۴۵–۳۶۴۹٫ [ Google Scholar ]
بدون دیدگاه