اصول حکمرانی هوش مصنوعی در عرصه نظامی ورود به عصر ارتش الگوریتم ها مینی کامپیوتر: تحول پرشتاب فناوری های مبتنی بر هوش مصنوعی در عرصه نظامی، یکی از عمیق ترین و ساختارشکن ترین تغییراتی است که نظم امنیت بین الملل در دهه اخیر تجربه کرده است. به گزارش مینی کامپیوتر به نقل از مهر؛ هوش مصنوعی نه تنها ماهیت سامانه های نظامی را دگرگون کرده، بلکه منطق تصمیم گیری و سرعت واکنش دولت ها را هم وارد مرحله ای بی سابقه کرده است. ادغام مدلهای پیشرفته یادگیری ماشینی در سامانه های نظامی، فرماندهی و کنترل، تحلیل کلان داده، تسلیحات سایبری و حتی پلت فرم های تسلیحات متعارف و هسته ای، رقابتی چندلایه بوجود آورده که دستاوردهای آن بمراتب فراتر از میدان های نبرد سنتی است. این تحول، در کنار افزایش سرعت پردازش و دامنه عملیات، سطح جدیدی از ریسک را وارد معادلات امنیت جهانی کرده است؛ ریسکی که نه فقط نیروهای نظامی، بلکه زیرساخت های حیاتی، شبکه های اقتصادی، محیط زیست و حتی امنیت انسانی را در ابعاد وجودی تهدید می کند. این وضعیت کم کم معماری جدید رقابت فناورانه را شکل داده که در آن کشورها بدنبال برتری عملیاتی، سرعت تصمیم گیری بیشتر و قابلیت های هوش افزوده در محیط های پیچیده هستند. اما همین مزیت های عملیاتی، در غیاب قواعد مشترک و مکانیسم های کنترل کننده، می تواند به اشتباهات فاجعه بار، سوءبرداشت های راهبردی و چرخه های تشدید ناخواسته تنش منجر شود. از همین روی، ضرورت ایجاد چارچوب های حکمرانی، بالاتر از هر زمان دیگر برجسته شده است. این نوشتار کوتاه با اتکا به چارچوب تحلیلی ارایه شده در سند مشترک اندیشکده بروکینگز و دانشگاه تسینگهوا، تلاش می کند تصویری منسجم از ماهیت این خطرات، منطق ایجاد بحران های مبتنی بر هوش مصنوعی و نیازهای فوری برای شکل گیری به یک رژیم حکمرانی مشترک میان ایالات متحده و چین ارایه دهد؛ رژیمی که بتواند از بروز بحران پیشگیری کند و در صورت وقوع، دستاوردهای آنرا مدیریت پذیر سازد. اهمیت حکمرانی هوش مصنوعی نظامی پیشرفت های سریع در مدلها و معماری های نوین هوش مصنوعی سبب شده است که کشورها سامانه های نظامی خویش را با سرعتی بی سابقه خودکار سازی کنند. این خودکار سازی الزاماً به مفهوم افزایش دقت و کارآمدی نیست؛ بلکه احتمال بروز خطا، سوءبرداشت یا رفتارهای پیش بینی ناپذیر را بالا می برد. از آنجائیکه ایالات متحده و چین نقش رهبری در توسعه و انتشار فناوری دارند، مسئولیت آنها برای ممانعت از بروز بحران های نظامی مبتنی بر هوش مصنوعی، بصورت ذاتی بالا رفته است. در این چارچوب، دو نوع رژیم حکمرانی قابل تمایز است: رژیم های حکمرانی که بر کاهش احتمال بروز بحران تمرکز دارند. رژیم های آمادگی که با هدف کاهش دستاوردهای بحران شکل می گیرند. به باور کارشناسان، هر دو رژیم زمانی معنادار می شوند که مبتنی بر یک روش تحلیلی مشترک برای اولویت بندی تهدیدها و رفتارها باشند. چرخه چهارمرحله ای بحران های نظامی مبتنی بر هوش مصنوعی مدل ارایه شده از طرف اندیشکده بروگینگز، یک چارچوب چهارمرحله ای برای درک سازوکار ایجاد بحران ها پیشنهاد می دهد که «آغاز»، «کنش»، «اثر» و «پاسخ» را شامل می شود. این مدل، نقطه تلاقی تصمیم های انسانی، خطاهای فنی و پویایی سامانه های هوشمند است. مرحله آغاز: ریشه بحران برمبنای برآوردهای صورت گرفته، منشأ بحران امکان دارد ناشی از سه دسته خطای فنی باشد: خطاهای قابل شناسایی مانند نقص الگوریتمی یا داده های معیوب خطاهای غیرقابل شناسایی در رابطه با چارچوب های جعبه سیاه یا رفتارهای خودآموز غیرقابل پیش بینی اختلال سیگنال ها ناشی از عوامل طبیعی یا فضایی که سبب ورودی های نادرست می شود در کنار خطاهای فنی، تصمیم های انسانی، شامل اقدام عمدی یا غیرعمدی برای اخلال، تخریب، اختلال سایبری یا حمله توسط سامانه های هوش مصنوعی هم می توانند بحران را آغاز کنند. مرحله کنش: رفتار سامانه کشورها خطاها یا رفتارهای ناشی از تصمیمات را بصورت «کنش سامانه» تفسیر می کنند. سامانه های مجهز به هوش مصنوعی امکان دارد به سبب سرعت پردازش بالا، واکنش هایی تولید کنند که از نظر انسانی غیرمنتظره باشد. مرحله اثر: دستاوردهای اولیه بحران دستاوردهای این کنش ها از سطح صدمه به زیرساخت های غیرنظامی و نظامی تا تخریب محیط زیست یا تلفات انسانی گسترده متغیر است. در بعضی موارد، پیامد به قدری شدید می باشد که کشور هدف، رفتار سامانه را نه به عنوان خطا، بلکه به عنوان حمله ارزیابی می نماید. مرحله پاسخ: واکنش متقابل دولت ها پاسخ ها شامل اقدامات بازدارنده، حمله متقابل، بسیج نیروها یا ورود به یک چرخه تشدید تنش می شود. نکته کلیدی اینست که استفاده مجدد از سامانه های هوش مصنوعی در مرحله پاسخ، احتمال خطاهای جدید یا تعبیر نادرست را چند برابر می کند و می تواند به یک مارپیچ تشدید درگیری خارج از کنترل منجر شود. چالش اولویت بندی ریسک ها در حکمرانی نظامی هوش مصنوعی در چنین شرایطی، بدون یک روش مشترک برای تعیین اولویت ها، هیچ توافق دوجانبه یا بین المللی نمی تواند پایدار باشد. در همین جهت، کارشناسان حوزه هوش مصنوعی، سه روش برای ایجاد سلسله مراتب خطر معرفی می کند: رویکرد مبتنی بر ریسک (Probability × Seriousness): در این شیوه خطر تابعی از احتمال بروز و شدت پیامد شمرده می شود اما چالش اصلی اینست که احتمال بروز خطاهای واقعی در حوزه نظامی هوش مصنوعی قابل اندازه گیری نیست، چونکه تجربه تاریخی کافی دراین خصوص وجود ندارد. رویکرد مبتنی بر حجم سناریوهای قابل پیش بینی: در این تکنیک، شمار موقعیت هایی که در آن یک سامانه می تواند بحران به وجود بیاورد، معیار وزن دهی است. با این وجود، از آنجائیکه سناریوها همیشه محدود به تصور مفسرین می شود، این شیوه بصورت ذاتی ناقص می ماند. رویکرد مبتنی بر بلوغ فناوری: در این دیدگاه هم سیستمهایی که به زودی وارد چرخه عملیاتی می شوند، اولویت بیشتری دارند؛ اما پویایی پیشرفت فناوری به قدری سریع است که پیش بینی های آن امکان دارد هر چند ماه احتیاج به بازنگری داشته باشد. بنابراین، گویی هیچ یک از این شیوه ها کامل نیست، اما می تواند نقطه شروعی برای گفت و گوی راهبردی میان قدرت های بزرگ باشد. موانع فنی و سیاسی برای حکمرانی مشترک چنان که کالین کال، عضو ارشد مدعو در نشریه فارین پالسی در تحلیل خود تاکید می کند، ایجاد سازوکارهای حکمرانی نه تنها با دشواری های فنی، بلکه با چالش های سیاسی به شرح زیر رو به رو است: دوگانه بودن فناوری ها: تمایز سامانه های غیرنظامی و نظامی در هوش مصنوعی حدودا ناممکن است. عدم شفافیت قابل مشاهده: حتی در حوزه نظامی، تشخیص این که یک پهپاد یا ماهواره از هوش مصنوعی بهره می برد یا خیر، با داده های علنی میسر نیست. ریسک های امنیتی ناشی از شفافیت: ایجاد شفافیت برای اعتمادسازی امکان دارد به نشت اطلاعات حساس و افزایش تهدیدهای جاسوسی منجر شود. با این وجود، کال سفارش می کند که دو کشور شاخص در این عرصه، یعنی چین و آمریکا باید رویکرد مذکور را دنبال کنند؛ مسیرهایی که حتی با وجود رقابت، ضرری برای هیچ یک از طرفین ندارد. مسیرهای همکاری پیشنهادی برای کاهش بحران های مبتنی بر هوش مصنوعی برمبنای تحلیل ارایه شده از طرف کارشناسان، چند مسیر عملی می تواند برای آغاز همکاری میان قدرت های بزرگ در زمینه خودکار سازی نظامی دنبال شود: تدوین واژه نامه مشترک خطاهای فنی و سطح بندی حوادث تعریف مشترک اقدامات خطرناک در حوزه هوش مصنوعی نظامی تبادل اصول و فرآیندها برای سامانه های فرماندهی و کنترل اطلاع رسانی متقابل در رابطه با رزمایش های مبتنی بر هوش مصنوعی تدوین پروتکلهای ارتباط اضطراری برای سامانه های دارای خطا ایجاد تعهدات مشترک برای ممانعت از جعل رسانه ای در کانال های نظامی تثبیت اصل «کنترل انسانی» در همه برخوردهای نظامی زمان صلح تعهد مشترک برای عدم استفاده از هوش مصنوعی در مداخله با سامانه های فرماندهی و کنترل هسته ای به اعتقاد متخصصان، این اقدامات نه یک توافق جامع، بلکه نقطه آغاز اعتمادسازی و کاهش احتمال سوءبرداشت به شمار می روند. بحران امنیتی ناشی از تنش ساختاری میان آمریکا و چین شیائو چیان، کارشناس برجسته مرکز امنیت و استراتژی بین المللی دانشگاه تسینگهوا، حکمرانی هوش مصنوعی را در بستری عمیق تر، یعنی «معضل امنیتی» میان ایالات متحده و چین، قرار می دهد. او با استناد به نظریه جان هرتز، توضیح می دهد که چرا فضای بی اعتمادی ساختاری سبب شده هر اقدام دفاعی یکی از طرفین، از طرف دیگری تهدید تلقی شود. به باور او، عواملی چون فقدان رژیم های جهانی الزام آور در حوزه هوش مصنوعی، بی اعتمادی راهبردی عمیق میان چین و آمریکا، رقابت فناورانه، صنعتی و ژئوپلیتیک و محیط بین الملل آکنده از ناامنی و بحران های منطقه ای، سبب شده حرکت به سوی حکمرانی مشترک بسیار دشوار باشد. او تاکید می کند که در چنین وضعیتی، تنها راه پیشرفت، آغاز بازسازی تدریجی اعتماد است. وی همین طور سه مسیر کلیدی را برای ایجاد یک فضای همکاری پذیر پیشنهاد می کند: بازتعریف رقابت و شفاف سازی خطوط قرمز: رقابت اجتناب ناپذیر است، اما نباید به رقابت وجودی تبدیل گردد. تعریف خطوط قرمز مشترک می تواند مانع از گسترش لایتناهی حساسیت های امنیتی شود. همکاری در حوزه امنیت هوش مصنوعی: دو کشور باید در سه دسته خطر، شامل سوءاستفاده، خطا و ریسک های سیستمی، استانداردهای مشترک توسعه دهند. تقویت سازوکارهای چندجانبه: با پشتیبانی از نقش سازمان ملل متحد و توسعه سازوکارهای جدید، کشورها می توانند مسیر ایجاد یک رژیم جهانی قابل قبول را هموار کنند. جمع بندی بالاخره، میتوان نتیجه گرفت که تحلیل ارایه شده از طرف کارشناسان، نه یک پیش بینی فناورانه و نه یک طرح جامع حکمرانی است؛ بلکه چارچوب تحلیلی برای آغاز گفت و گوی راهبردی شمرده می شود. این چارچوب بر ضرورت تفکیک مراحل بحران، شناسایی نقاط ابتدای زنجیره و ایجاد یک زبان مشترک برای تحلیل ریسک تاکید دارد. هرچند رقابت فناورانه میان ایالات متحده و چین ادامه خواهد یافت، اما تاریخ نشان داده است که حتی در اوج رقابتهای ژئوپلیتیک، امکان توافق بر سر موضوعات وجودی، مانند کنترل تسلیحات هسته ای، وجود دارد. در عصر هوش مصنوعی، ممانعت از بحران های نظامی مبتنی بر خطا یا سوءبرداشت، یک مسئولیت اخلاقی و راهبردی است. در جهانی که سرعت تصمیم گیری سامانه های هوش مصنوعی می تواند از توان قضاوت انسانی پیشی گیرد، ایجاد ستون های مشترک حکمرانی تنها راه تضمین ثبات و ممانعت از فاجعه انسانی به حساب می آید. به طور خلاصه، در همین جهت، کارشناسان حوزه هوش مصنوعی، سه روش برای ایجاد سلسله مراتب خطر معرفی می کند: رویکرد مبتنی بر ریسک (Probability × Seriousness): در این شیوه خطر تابعی از احتمال بروز و شدت پیامد شمرده می شود اما چالش اصلی این است که احتمال بروز خطاهای حقیقی در حوزه نظامی هوش مصنوعی قابل اندازه گیری نیست، چراکه تجربه تاریخی کافی دراین خصوص وجود ندارد. او با استناد به نظریه جان هرتز، توضیح می دهد که چرا فضای بی اعتمادی ساختاری سبب شده هر اقدام دفاعی یکی از طرفین، از سوی دیگری تهدید تلقی شود. او تأکید می کند که در چنین وضعیتی، تنها راه پیشرفت، آغاز بازسازی تدریجی اعتماد است. منبع: مینی كامپیوتر 1404/09/01 10:24:33 5.0 / 5 7 تگهای خبر: استاندارد , تولید , دانشگاه , سیستم این مطلب را می پسندید؟ (1) (0) X تازه ترین مطالب مرتبط تقلید برند وارداتی ایران از مرسدس بنز شروع اجرای طرح صیانت از صنعت امنیت سایبری قیمت موبایل دو برابر شد واردات مسافری رکورد زد چه می شود اگر سرعت هواپیما از سرعت چرخش زمین بیشتر باشد؟ نظرات بینندگان مینی کامپیوتر در مورد این مطلب لطفا شما هم در مورد این مطلب نظر دهید = ۲ بعلاوه ۳ درج دیدگاه