NeoPedia

نگرانی فزاینده پلیس اروپا درباره ی ظهور جرائم رباتیک در آینده نزدیک

نگرانی فزاینده پلیس اروپا درباره ی ظهور جرائم رباتیک در آینده نزدیک

به گزارش نئوپدیا، سازمان پلیس اتحادیه اروپا در گزارشی تازه نسبت به ظهور موج نوظهور جرائم مبتنی بر روبات های مجهز به هوش مصنوعی و سامانه های خودمختار گوشزد نمود.


به گزارش نئوپدیا به نقل از مهر؛ تحول در سیستم های خودران و روبات های انسان نما طی سالیان اخیر، از حوزه های آزمایشگاهی و صنعتی عبور کرده و به میدان های حقیقی عملیات و زندگی روزمره رسیده است. تجربه پهپادهای خودمختار در جنگ های معاصر، خصوصاً در جبهه های درگیری روسیه و اکراین، نشان داده است که فناوری های مبتنی بر هوش مصنوعی نه فقط توان نظامی را دگرگون می کنند، بلکه مرزهای اخلاق، مسئولیت و انتساب کنش را نیز مبهم می سازند. در چنین شرایطی، پرسش اصلی دیگر صرفا به جنگ محدود نمی ماند. گزارش تازه لابراتوار نوآوری نهاد پلیس اروپائی یوروپل، چشم اندازی را ترسیم می کند که در آن قابلیت های خودکار و نیمه خودکار، به دست شبکه های جنایی و تروریستی می افتد و کیفیت تهدیدات داخلی را متحول می کند. در این روایت، افق ۲۰۳۵ یک نقطه دوردست نیست. گزارش تاکید می کند که نشانه های انقلاب فناورانه از هم اینک وجود دارند. از افزایش مشاهده پهپادهای مورد استفاده در زیرساخت های اروپائی تا تشکیل بازارهای آنلاین برای عرضه خدمات هدایت پهپاد که به ادعای گزارش، الگوی «جرم بعنوان خدمت» را به سوی «جرم از راه دور» سوق می دهد. مساله کلیدی این است که وقتی ابزارهای پیچیده، ارزان و در دسترس شوند، هم هزینه ارتکاب جرم کاهش پیدا می کند و هم نسبت کشف و انتساب دشوارتر می شود. از همین روی، نیروی پلیس نه فقط باید با فناوری روبرو شود، بلکه باید قواعد مسئولیت، استانداردهای اثبات و سازوکارهای پاسخ را نیز بازطراحی نماید.

از سلاح در میدان نبرد تا ابزاری برای ارتکاب جرایم شهری

متن گزارش یوروپل بر پیوند میان دو روند عادی شدن استفاده از سیستم های خودکار در میدان های درگیری و سرریز تدریجی همان ابزارها به حوزه جرایم سازمان یافته و تروریسم تاکید دارد. این سرریز الزاماً به معنای انتقال مستقیم تسلیحات پیشرفته نیست، بلکه انتقال دانش عملیاتی، مهارت های فنی، قطعات، الگوهای تاکتیکی و حتی نیروی انسانی آموزش دیده را شامل می شود. هنگامی که پهپاد به ابزار روزمره جنگ تبدیل می شود، در مرحله بعد، منطق بهره برداری از آن به حوزه های غیرنظامی راه می یابد. این انتقال، همان نقطه ای است که نظم عمومی با یک تهدید چندلایه مواجه می شود؛ تهدیدی که بصورت توأمان فیزیکی و سایبری است و همزمان ماهیتی محلی و شبکه ای دارد. در همین چارچوب، گزارش اخطار می دهد که تا سال ۲۰۳۵ پلیس باید با پدیده «ارتکاب جرایم توسط روبات ها» مواجه شود. منظور از این عبارت، صرفا ارتکاب جرم با روبات بعنوان ابزار نیست، بلکه طیفی از سناریوها را در بر می گیرد؛ از پهپادهایی که در سرقت و عملیات تخریبی به کار می روند تا خودرو های خودران که در اثر سوءاستفاده یا حمله سایبری می توانند باعث صدمه به عابران شوند. گزارش در این بخش به نکته ای واقع گرایانه اشاره می کند: رخدادهای صدمه زا پیرامون خودرو های خودران، در مقطع کنونی و حال حاضر نیز مشاهده می شوند. ازاین رو بخش مهمی از اخطار یوروپل، بر «تسریع» و «گسترده شدن» مساله ای موجود تمرکز دارد و بر وقوع یک امر کاملا ناشناخته مبتنی نیست.

پیچیدگی روبات انسان نما و دشواری تشخیص اهداف

اگر پهپادها و خودرو های خودران را بتوان در قالب ابزارهای نسبتاً شفاف تحلیل کرد، روبات انسان نما یک لایه پیچیدگی جدید به این فرآیند می افزاید. گزارش تصریح می کند که روبات های انسان نما می توانند طوری طراحی شوند که تعامل پیچیده تری با انسان داشته باشند و همین ویژگی، تشخیص رفتار عمدی از اقدامات تصادفی را دشوارتر می سازد. در عمل، هرچه تعامل طبیعی تر و انسانی تر شود، «برداشت انسانی» از کنش نیز نقش پررنگ تری می گیرد و خطای ادراکی محتمل تر می شود. در چنین وضعیتی، مساله پلیس فقط مهار یک دستگاه الکترونیکی نیست و چالش اصلی فهمیدن «قصد» و «زنجیره کنترل» بحساب می آید. بعبارت دیگر، پاسخ به این پرسش که آیا یک رفتار خطرناک ناشی از دستور هدفمند در قالب حمله سایبری بوده است یا پیامد نقص فنی یا خطای یادگیری سامانه، اهمیت مضاعفی می یابد. این نکته در سطح حقوقی نیز نتایج بسیاری در بر دارد. چونکه نظام عدالت کیفری، بصورت سنتی بر انتساب قصد و تقصیر بنا شده است. وقتی یک سامانه به ظاهر خودمختار کنشی انجام می دهد، تعیین فرد مسئول نیازمند بازسازی دقیق مسیر تصمیم گیری است. مسیری که می تواند میان کاربر، تولیدکننده، عرضه کننده نرم افزار، کاربر و مهاجم سایبری تقسیم شود. گزارش یوروپل با برجسته کردن همین ابهام، عملا مدعی می شود که تخصص های فنی صرف برای آینده کافی نخواهد بود و باید توان تحلیل انتسابی و فنی توأمان شکل بگیرد.

ربات های درمانی صدمه پذیری انسان در حساس ترین نقطه

یکی از هشدارهای برجسته گزارش، مساله ورود هوش مصنوعی و روبات ها به حوزه سلامت است. بر همین اساس، اگر روبات هایی مورد استفاده برای کمک در محیط های درمانی، هک شوند، نه فقط یک دارایی فناورانه را در معرض خطر می گذارند، بلکه بیمار را در وضعیت صدمه پذیری مستقیم قرار می دهند. معنای این گزاره، پیشرفت سطح تهدید از «اختلال در خدمت» به «تهدید ضد جان و سلامت» است. به بیان دقیق تر، وقتی زیرساخت رباتیک در بستر سلامت قرار می گیرد، صدمه سایبری می تواند به نتایج فوری و ملموس فیزیکی منجر شود. این بخش از گزارش، یادآور این حقیقت راهبردی است که پیوند خوردن هوشمندسازی با خدمات حیاتی، سطح ریسک را بصورت کیفی تغییر می دهد. در چنین وضعیتی، امنیت سایبری دیگر یک مساله صرفا فناورانه نیست، بلکه جزئی از ایمنی عمومی و اعتماد اجتماعی می شود. در چنین شرایطی، هر رخداد بزرگ در این عرصه، می تواند هراس عمومی بوجود آورد و پذیرش اجتماعی نوآوری را عقب براند.

اقتصاد خودکار و انگیزه های جدید برای جرم

گزارش یوروپل همینطور تصویری اجتماعی نیز در رابطه با مساله جرایم رباتیک ارائه می کند. بر همین اساس، افرادی که درنتیجه اتوماسیون شغل خویش را از دست می دهند، امکان دارد برای بقا به طرف جرم گرایش پیدا کنند و در قالب های مختلف همچون جرم سایبری، تخریب و سرقت سازمان یافته اقدام نمایند. در این تصویر، هدف حملات می تواند «زیرساخت رباتیک» باشد. این بخش از گزارش یک گزاره قطعی نیست، اما بعنوان یک سناریوی قابل تصور مطرح می شود و اهمیت آن در پیوند دادن سیاست فناوری با سیاست اجتماعی بسیار برجسته است. به زبان سیاست گذاری، اگر اتوماسیون بصورت نامتوازن پیش برود و سازوکارهای حمایت اجتماعی، آموزش مجدد و تبدیل مهارت ها بموقع طراحی نشود، احتمال تشکیل ناامنی اجتماعی پیرامون فناوری بیشتر می شود. حتی اگر این سناریو در نهایت رخ ندهد، صرف طرح آن از طرف نهاد پلیسی اروپا، نشان میدهد که مبحث جرم مبتنی بر روبات تنها با ابزارهای انتظامی حل شدنی نیست و به بسته های مکمل اقتصادی و اجتماعی نیاز دارد.

پلیس آینده از تشخیص نقص فنی تا تشخیص حمله هدفمند

علاوه بر همه موارد ذکر شده، یک نیاز عملیاتی نیز در قلب اخطار یوروپل قرار دارد. در همین جهت، پلیس باید سریع تکامل یابد تا بتواند میان یک اختلال فنی و یک حمله عمدی تمایز بگذارد. مثال کلیدی گزارش، تصادف یک خودرو خودران است. در وضعیت فرضی، مأمور باید تشخیص دهد که حادثه بر اثر دستور هدفمند ناشی از حمله سایبری رخداده یا صرفا نقص فنی بوده است. این تشخیص، فقط یک داوری فنی نیست. نکته جالب آن که متن گزارش حتی از برخی ابزارهای آینده نگرانه مانند تفنگ های معروف به «RoboFreezer» یا تورهایی اختصاصی مهار پهپاد نیز برای مواجهه با جرایم مذکور یاد می کند. به عقیده خیلی از کارشناسان، فارغ از اینکه توسعه این ابزارها تا چه حد واقع بینانه یا عملیاتی به حساب می آید، مواجهه با تهدید رباتیک، نیازمند تلفیقی از تجهیزات فیزیکی و قابلیت های سایبری و توان تحلیل داده است. از همین روی، پلیس آینده باید بتواند هم در میدان، یک سامانه پهپادی خودکار را مهار کند و هم در سطح دیجیتال، منشأ کنترل و مسیر فرمان را بازسازی نماید.

شکاف میان سناریوی بدبینانه و موانع فنی و مقرراتی

نکته مهم دیگر در گزارش مذکور و سناریوهای واکنشی نقل شده این است که خود یوروپل نیز بر قطعیت پیشبینی تاکید نمی نماید. سخنگوی این نهاد تصریح کرده است که آینده قابل پیشبینی و قطعی نیست. برخی کارشناسان نیز اعتقاد دارند که پیشبینی در رابطه با سال ۲۰۳۵ دشوار است، چونکه فناوری با سرعت تغییر می کند. در کنار این، دیدگاه های تردیدآمیز نیز به سناریوهای مطرح شده وجود دارد؛ همچون این که موانع فنی و موانع مقرراتی امکان دارد مانع تحقق سناریوهای بسیار افراطی شود و نباید انتظار داشت که پلیس رباتیک به سرعت در خیابان ها مستقر شود یا روبات ها بطور کامل کار و اشتغال را از بین ببرند. با این وجود، این اختلاف نظرها، بجای آن که از ارزش اخطار بکاهند، آنرا دقیق تر می کنند. مساله اصلی، تحقق دقیق یک تصویر سینمایی نیست؛ بلکه مساله این است که دامنه فناوری های خودکار در حال افزایش می باشد و جرم و مواجهه با جرم، دیر یا زود از این تحول اثر می پذیرد. حتی اگر قسمتی از سناریوهای شدید هیچ گاه رخ ندهد، بخش های میانه آن که شامل افزایش سوءاستفاده از پهپادها، اختلال در زیرساخت های هوشمند و پیچیده شدن انتساب و اثبات است، می تواند کاملا واقع گرایانه باشد.

پیام راهبردی گزارش امنیت رباتیک به مثابه حکمرانی ریسک

اخطار یوروپل را می توان بعنوان نوعی دعوت به «حکمرانی پیش دستانه ریسک» فهم کرد. در این چارچوب، سیاست گذار باید هم زمان چند مسیر را دنبال کند. نخست، استانداردسازی امنیت برای سیستم های خودکار و رباتیک خصوصاً در عرصه های حساس دوم، توانمندسازی پلیس و دستگاه عدالت در عرصه ادله دیجیتال، انتساب حمله و تحلیل فنی حوادث سوم، ایجاد سازوکارهای نظارتی و پاسخگویی برای ممانعت از شکستن حریم خصوصی به بهانه مواجهه با جرم گزاره کلیدی که از زبان مدیر اجرائی یوروپل نقل شده است، نقطه جمع بندی را می سازد. همان گونه که اینترنت و تلفن هوشمند فرصت ها و چالش های مهمی ایجاد کردند، فناوری های خودکار نیز همین مسیر را طی خواهند کرد. به بیان دیگر، می توان فناوری را یک «بستر دوگانه» توصیف کرد که ظرفیت پیشرفت رفاه و ایمنی و با این وجود ظرفیت گسترش تهدید را دارد. در این بین، عنصر تعیین کننده، سرعت و کیفیت سازوکارهای امنیتی، مقرراتی و اجتماعی است که همگام با توسعه فناوری شکل می گیرد. سرانجام، گویی جرم برپایه فناوری رباتیک یک برساخته تخیلی نیست، بلکه یک افق محتمل است که رگه های آن از هم اینک مشاهده می شود و در همین جهت، آینده پلیس و آینده امنیت عمومی، به میزان آمادگی دولت ها، صنعت و جامعه مدنی، قبل از وقوع بحران های بزرگ، وابسته است.
به طور خلاصه، در عمل، هرچه تعامل طبیعی تر و انسانی تر شود، برداشت انسانی از کنش هم نقش پررنگ تری می گیرد و خطای ادراکی محتمل تر می شود. معنای این گزاره، پیشرفت سطح تهدید از اختلال در خدمت به تهدید ضد جان و سلامت است. این بخش از گزارش یک گزاره قطعی نیست، اما به عنوان یک سناریوی قابل تصور مطرح می شود و اهمیت آن در پیوند دادن سیاست فناوری با سیاست اجتماعی بسیار برجسته است.

1404/10/07
10:09:44
5.0 / 5
8
تگهای خبر: آموزش , آنلاین , استاندارد , الكترونیك
این مطلب نئوپدیا را می پسندید؟
(1)
(0)
X

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۹ بعلاوه ۱
پربیننده ترین ها

پربحث ترین ها

جدیدترین ها

NeoPedia