به گزارش رکنا، «هوش قاتل» به سامانه‌ خودمختاری گفته می‌شود که بدون نیاز به دخالت انسان، تصمیم به نابودی اهداف می‌گیرد و مرگ و زندگی را به دست ماشین می‌سپارد.

ماهیت «هوش قاتل» و ویژگی‌های آن

براساس گزارش‌های منتشر شده، « هوش قاتل» سامانه‌ای است که بدون داشتن دخالت مستقیم انسانی، قادر به انتخاب و نابودی اهداف است. این سیستم‌ها نه احساس دارند، نه حافظه عاطفی، و نه زبان و فهم معنایی. به جای تکیه بر اصول اخلاقی، به داده‌های آماری چشم می‌دوزند و هیچ تردید یا مسوولیت‌پذیری اخلاقی نیز در عملکرد آن‌ها مشاهده نمی‌شود. این فناوری، انسان‌ها را به مجموعه‌ای از داده‌ها تقلیل داده و تصمیم‌گیری سرنوشت‌ساز را به ماشینی فاقد وجدان واگذار می‌کند.

این سامانه‌ها می‌توانند به‌صورت مستقل و بدون نیاز به نظارت انسان، در عملیات‌ کشتار حضور پیدا کنند و این موضوع نگرانی‌های گسترده‌ای پیرامون امنیت و اخلاق تکنولوژی ایجاد کرده است.

نمونه‌های عملی «هوش قاتل»

در حال حاضر، فناوری‌های مختلف هوش قاتل در حوزه‌های نظامی و امنیتی در حال آزمایش یا استفاده قرار گرفته‌اند:

۱- تسلیحات نظامی خودمختار: برخی کشورها جهت حذف دخالت انسانی، به سمت به‌کارگیری سلاح‌های خودمختار نظیر پهپادهایی چون KARGU-2 و Harpy حرکت کرده‌اند. برای نمونه، گزارش سازمان ملل در سال ۲۰۲۱ حاکی از آن است که یک پهپاد ترکیه‌ای KARGU-2 در لیبی به تنهایی هدفی انسانی را دنبال و نابود کرده است. همچنین پهپاد Harpy ساخت اسرائیل نیز قابلیت برخورد خودکار با اهداف نظامی را دارد. این نمونه‌ها نمایانگر آغاز نسل جدید جنگ افزارهای بی‌نیاز از کنترل انسانی هستند.

۲- ترورهای الگوریتمی: سامانه‌های هوش مصنوعی اکنون برای انتخاب خودکار اهداف مرگبار در عملیات‌های نظامی استفاده می‌شوند. در جنگ غزه ۲۰۲۳، ارتش اسرائیل از سیستمی به نام «گاسپل» بهره برد که اهداف بمباران را به طور خودکار پیشنهاد می‌کرد و به کاهش زمان تصمیم‌گیری انسانی منجر شد.

۳- ربات‌های پلیسی و امنیت شهری: در برخی کشورها مانند آمریکا، ربات‌های گشت نظارتی به کار گرفته شده‌اند که توانایی شناسایی رفتارهای مشکوک را دارند. هرچند این ربات‌ها فعلا غیرمسلحند اما حرکت به سوی مسلح‌سازی آن‌ها در حال انجام است. برخورداری از چنین قدرتی می‌تواند به تصمیم‌گیری خودکار در استفاده از شلیک مرگبار توسط الگوریتم‌ها منجر شود.

چالش‌های اخلاقی و حقوقی

توسعه هوش قاتل با دغدغه‌های فراوانی در حوزه‌های عدالت، امنیت جهانی و اخلاق همراه بوده است:

٭ خلأ مسوولیت‌پذیری: وقتی ماشین‌ها تصمیم به کشتن می‌گیرند، هیچ فردی پاسخگوی پیامدهای آن نخواهد بود، زیرا نمی‌شود یک ربات را محاکمه کرد یا سازندگان آن را با جرمی که سرانجام آن به‌طور غیرمستقیم رخ داده است، بازخواست نمود.

٭ جعبه سیاه تصمیم‌گیری: سامانه‌های هوش مصنوعی تصمیماتشان را بر پایه محاسبات پیچیده آماری اتخاذ می‌کنند که نه قابل توضیح هستند و نه قابل پیش‌بینی کامل، این وضعیت اعتماد به این فناوری را از منظر اخلاقی و حقوقی دشوار می‌سازد.

٭ تسریع غیرقابل کنترل درگیری‌ها: سرعت عمل هوش‌های قاتل ممکن است به جنگ‌های ناخواسته‌ای منجر شود که طرف‌های مخاصمه حتی فرصت نظارت و کنترل انسانی بر آن را نداشته باشند.

آثار مخرب بر بشریت

در صورت گسترش این فناوری‌ها، پیامدهای خطرناک و گسترده‌ای برای جامعه بشری ایجاد خواهد شد:

٭ مرگ بی‌صدا و بدون محاکمه، جایی که انسان‌ها قربانی ماشین‌هایی بی‌وجدان می‌شوند، بدون اینکه هیچ فرصتی برای دفاع یا رسیدگی قانونی داشته باشند.

٭ حذف کامل انسانیت، زیرا ماشین‌ها نه حس وجدان دارند و نه تنبیهی در انتظار آن‌هاست؛ همین موضوع باعث می‌شود که کشتار انسانی ابزاری بی‌نام‌ونشان اما مرگبار باشد.

٭ تشدید تبعیض و نابرابری، چراکه الگوریتم‌های این سامانه‌ها معمولا مبتنی بر داده‌های ناقص و تبعیض‌آمیز هستند که می‌توانند جان گروه‌های به‌حاشیه‌رانده شده را بیشتر در معرض خطر قرار دهند.

٭ تبدیل جنگ به پدیده‌ای بی‌هزینه، به گونه‌ای که دولت‌ها با تکیه بر فناوری‌های خودمختار، بدون نگرانی از تلفات انسانی به سمت درگیری‌های نظامی بی‌پایان حرکت خواهند کرد.

راهکارهای پیشنهادی

برای مقابله با خطرات هوش قاتل، راه‌ حل‌های بین‌المللی و علمی باید فوراً اتخاذ شوند:

۱- تصویب قوانین منع جهانی: فشارهای مردمی و دیپلماتیک برای ایجاد معاهده‌های الزام‌آور، نظیر کمپین «جلوگیری از روبات‌های قاتل»، در حال افزایش هستند. این قوانین باید تضمین کنند که تصمیم‌های مرگبار همواره تحت کنترل انسانی باقی بماند.

۲- توسعه هوش اخلاق‌مدار: باید هوش مصنوعی به گونه‌ای طراحی شود که با محوریت اصول اخلاقی عمل کرده و همدم انسان باشد نه دشمن او.

۳- تشکیل نهادهای نظارتی بین‌المللی: تاسیس سازمان‌های مستقل برای نظارت بر توسعه و استفاده از این سامانه‌ها، می‌تواند شفافیت بیشتری در این زمینه به وجود آورد.

۴- آموزش همدلی به ماشین‌ها: برخی پیشنهاد می‌دهند که ادبیات و روایت انسانی به الگوریتم‌های هوش مصنوعی آموزش داده شود تا درک بیشتری از احساسات و ارزش‌های انسانی پیدا کنند.

۵- هنر و فرهنگ به عنوان ابزار مقاومت: استفاده از قدرت آثار هنری و روایت‌های تخیلی می‌تواند به شکل‌گیری افکار عمومی مخالف با گسترش هوش قاتل کمک کند.

گزینه‌ای حیاتی برای آینده

بشریت باید انتخاب کند: آیا دنیایی را می‌خواهیم که فناوری بر زندگی انسان‌ها حکمرانی کند، یا اینکه عشق، زبان و اخلاق را به ماشین‌ها بیاموزیم؟ امیدواریم که تصمیمات امروز، بشر را به آینده‌ای روشن سوق داده و از ظهور قاتلان مصنوعی جلوگیری کند.

source

توسط salamatsun.ir