60سال پیش وقتی داستان‌های تخیلی کیهان بچه‌ها را می‌خواندم، نه من نه نویسنده داستان، باور نمی‌کردیم؛ که یک روزی داستانش واقعی شود.داستان اینگونه بود: تعدادی دانشمند، ربات‌هایی می‌سازند، که توانایی دارند، به جای انسان  عملیات انجام دهد!

ترور شهید فخری زاده در 7 آذر ماه 1399و تنها یک روز پیش از دهمین سالگرد شهادت دانشمند هسته‌ای، دکتر مجید شهریاری، بود.

در این ترور یک سلاح نیمه خودکار که به صورت ریموت و با کمک ارسال و دریافت داده ها از ماهواره هدایت می‌شد به کار رفت؛ سلاحی بلژیکی با وزن حدودی یک تن که به صورت قطعه قطعه وارد کشور و در داخل کشور تجمیع شده است. این نوع خاص از مسلسل قابلیت اتصال به یک یونیت رباتیک را داراست که با استفاده از داده‌های دریافتی و ارسالی، توانایی تشخیص چهره با استفاده از الگوریتم های هوش مصنوعی را دارد. با شناسایی هدف توسط سلاح، اپراتوری که عملیات ترور را کنترل می‌کند باید فرمان شلیک را صادرکند تا با قفل شدن سلاح بر روی هدف خود، شلیک صورت بگیرد. تمام این عملیات از لحظه تشخیص تنها 60 ثانیه زمان برده و دقت کار به قدری بالا بوده که فقط خود شهید مورد اصابت قرار گرفته و حتی یک تیر هم به همسرشان که تنها حدود 25 سانتی متر با ایشان فاصله داشته برخورد نکرده است. اصابت تیر به محافظ ایشان هم تنها به دلیل قرار گرفتن وی در مسیرگلوله بوده است. اما آنچه که پیشرفته بودن این سیستم را بیشتر نمایان می‌کند این است که پیش از شلیک به هدف اصلی، ابتدا نقاط حساس خودروی حامل هدف شناسایی و سپس به آنها شلیک شده، در ادامه و با توقف خودرو، هدف اصلی مورد اصابت قرار گرفته است، آن هم در شرایطی که دیگر چهره هدف قابل تشخیص نبوده؛ این به خوبی نشان می‌دهد بایک بار شناسایی و تایید آن، سلاح بر روی هدف تا پایان عملیات قفل شده است.کافی است تمام اینها را در کنار شیوه های پیشین ترور دانشمندان هسته ای قرار دهیم.

توضیح زیادی لازم نخواهد بود تا لزوم قانون گذاری و پرداخت به مسائل حقوقی استفاده ازفناوری هوش مصنوعی در صنایع نظامی و اقدام سریع برای برنامه ریزی و تدوین اسنادی مشخص جهت پیشرفت در این حوزه، احساس شود.کمپینی که سال 2015 ایان ماسک، صاحب شرکت فضا راه انداخت نیز با موضوعی مشابه و با هدف جلوگیری از استفاده ازجنگ افزارهای خودکار و مبتنی بر هوش مصنوعی بوده که هزاران نفر از سرتاسر جهان و به طورخاص دانشمندانی چون استیون هاوکینگ به آن پیوستند. در همین راستا سازمان ملل نیز شروع به فعالیت کرده است و دور از انتظار نیست روزی که قوانین و چهارچوبهایی جهانی برای استفاده از هوش مصنوعی جهت جلوگیری از دستیابی به سلاح های جنگی وضع شود و کشورهای دیگر برای تقویت حتی پدافندی خود مجبوربه پاسخگویی در قابل چنین تعهداتی باشند. تعهداتی که بی شک سازندگانش را موظف به پایبندی به هیچ چیزی نمیکند و تنها سدی است برای جلوگیری از دسترسی کشورهای دیگربه این فناوری.

نشریه پلاک1

موضوعات: فرهنگی  لینک ثابت