پنتاگون: هوش مصنوعی زنجیره کشتار را تسریع کرده است

پنتاگون: هوش مصنوعی زنجیره کشتار را تسریع کرده است

توسعه‌دهندگان پیشروی هوش مصنوعی، مانند OpenAI و Anthropic، در تلاشند نرم‌افزارهایی برای ارتش آمریکا ارائه دهند: افزایش بهره‌وری پنتاگون بدون خطر مرگ انسان‌ها.

پنتاگون: هوش مصنوعی سرعت زنجیره کشتار را افزایش می‌دهد

The Pentagon says AI is speeding up its ‘kill chain’

توسعه‌دهندگان پیشرو در زمینه هوش مصنوعی، نظیر OpenAI و Anthropic، در تلاشند تا نرم‌افزارهایی را به ارتش ایالات متحده بفروشند. هدف آن‌ها افزایش کارآیی وزارت دفاع بدون ایجاد تهدید برای جان انسان‌هاست. به گفته دکتر رادا پلوم، رئیس بخش دیجیتال و هوش مصنوعی در پنتاگون، در مصاحبه‌ای با TechCrunch، ابزارهای هوش مصنوعی فعلاً به‌عنوان سلاح استفاده نمی‌شوند، اما به وزارت دفاع در شناسایی، ردیابی و ارزیابی تهدیدات کمک‌های زیادی می‌کنند. پلوم بیان کرد: «ما به وضوح در حال افزایش روش‌هایی هستیم که می‌توانیم اجرای زنجیره کشتار را تسریع کنیم تا فرماندهان ما بتوانند به‌موقع پاسخ دهند و نیروهای خود را محافظت کنند.»
زنجیره کشتار به فرایند شناسایی، ردیابی و از بین بردن تهدیدات در ارتش اشاره دارد که شامل سیستم‌های پیچیده‌ای از حسگرها، پلتفرم‌ها و سلاح‌هاست. طبق گفته پلوم، هوش مصنوعی مولد در مراحل برنامه‌ریزی و استراتژی‌سازی زنجیره کشتار به‌ویژه مفید واقع شده است. رابطه بین پنتاگون و توسعه‌دهندگان هوش مصنوعی نسبتاً جدید است. در سال 2024، OpenAI، Anthropic و Meta سیاست‌های استفاده خود را تغییر دادند تا به نهادهای اطلاعاتی و دفاعی ایالات متحده امکان استفاده از سیستم‌های هوش مصنوعی‌شان را بدهند، با این حال، همچنان به این نهادها اجازه نمی‌دهند که هوش مصنوعی آن‌ها به انسان‌ها آسیب برساند. پلوم در مورد همکاری پنتاگون با تامین‌کنندگان مدل‌های هوش مصنوعی گفت: «ما به‌وضوح مشخص کرده‌ایم که چه چیزی را برای چه مقاصدی استفاده خواهیم کرد و چه چیزهایی را هرگز استفاده نخواهیم کرد.»
با این حال، این تصمیم شروعی برای شتاب‌زنی میان شرکت‌های هوش مصنوعی و پیمانکاران دفاعی است. به عنوان مثال، Meta در نوامبر با Lockheed Martin و Booz Allen همکاری کرد تا مدل‌های Llama AI را به نهادهای دفاعی معرفی کند. در همان ماه، Anthropic با Palantir همکاری نمود. در دسامبر، OpenAI قرارداد مشابهی با Anduril امضا کرد و به شکل کمتری، Cohere نیز مدل‌های خود را با Palantir به کار گرفت. با پیشرفت هوش مصنوعی مولد در پنتاگون، این امکان وجود دارد که سیلیکون‌ولی سیاست‌های استفاده از هوش مصنوعی را شل‌تر کند و کاربردهای نظامی بیشتری را مجاز سازد. پلوم در این خصوص گفت: «بازی با سناریوهای مختلف چیزی است که هوش مصنوعی مولد می‌تواند در آن کمک کند. این امر به شما اجازه می‌دهد از تمام ابزارهایی که فرماندهان ما در اختیار دارند، بهره‌برداری کنید و همچنین به طور خلاقانه به گزینه‌های مختلف پاسخ و احتمالات تجاری در محیطی که تهدیدی وجود دارد، فکر کنید.»
اینکه پنتاگون از چه فناوری‌هایی برای این کار استفاده می‌کند هنوز مشخص نیست؛ چرا که استفاده از هوش مصنوعی مولد در زنجیره کشتار (حتی در مراحل ابتدایی برنامه‌ریزی) به نظر می‌رسد که سیاست‌های استفاده چندین توسعه‌دهنده مدل پیشرو را نقض می‌کند. به‌عنوان مثال، سیاست Anthropic استفاده از مدل‌های خود برای تولید یا تغییر «سیستم‌هایی که برای آسیب به افراد یا از بین بردن جان انسان‌ها طراحی شده‌اند» را ممنوع می‌کند. در پاسخ به سوالات ما، Anthropic به مصاحبه اخیر دادیو آمودی، مدیر عامل خود، با Financial Times اشاره کرد؛ جایی که او از کارهای نظامی خود دفاع کرد: «موضعی که می‌گوید هرگز نباید از هوش مصنوعی در تنظیمات دفاعی و اطلاعاتی استفاده کنیم، برای من منطقی نیست. همچنین، موضعی که می‌گوید باید با شتاب هر چیزی را که می‌خواهیم، از جمله سلاح‌های آخرالزمانی، بسازیم، واضح است که به همین اندازه دیوانه‌وار است. ما تلاش می‌کنیم که به یک راه‌حل میانه برسیم و کارها را به‌طور مسئولانه انجام دهیم.» OpenAI، Meta و Cohere به درخواست TechCrunch برای اظهارنظر پاسخ ندادند. برای دریافت اطلاعات بیشتر و تحلیل‌های عمیق‌تر، می‌توانید به سایت 'iwl.ir' مراجعه کنید.

زندگی و مرگ، سلاح‌های هوش مصنوعی

Life and death, and AI weapons

زندگی و مرگ و تسلیحات هوش مصنوعی
در ماه‌های اخیر، بحثی در حوزه فناوری دفاعی پیرامون اجازه دادن به تسلیحات هوش مصنوعی برای اتخاذ تصمیمات حیاتی شکل گرفته است. برخی بر این باورند که ارتش ایالات متحده در حال حاضر تسلیحاتی دارد که چنین تصمیماتی را اتخاذ می‌کنند. پالمر لاکی، مدیرعامل اندوریل، به تازگی در پلتفرم X اشاره کرده که ارتش آمریکا سابقه طولانی در خرید و استفاده از سیستم‌های تسلیحاتی خودکار مانند برجک CIWS دارد. او گفت: "وزارت دفاع (DoD) برای دهه‌ها است که در حال خرید و استفاده از سیستم‌های تسلیحاتی خودکار است. استفاده از این تسلیحات (و صادرات آنها!) به خوبی درک شده و به وضوح با قوانینی که اصلاً اختیاری نیستند، تنظیم می‌شود."
با این حال، زمانی که TechCrunch از پنتاگون سوال کرد که آیا این وزارتخانه تسلیحات کاملاً خودکار – تسلیحاتی که هیچ انسانی در فرآیند تصمیم‌گیری ندارند – خریداری و اداره می‌کند، پلوم به طرز اصولی ایده مذکور را رد کرد. او به طور مختصر پاسخ داد: "خیر، این پاسخ کوتاه است." پلوم ادامه داد: "از نظر قابلیت اطمینان و اخلاق، ما همیشه باید انسان‌ها را در فرآیند اتخاذ تصمیم برای به‌کارگیری نیروی نظامی درگیر کنیم و این شامل سیستم‌های تسلیحاتی ما نیز می‌شود."
عبارت "خودکار بودن" به‌طور مبهمی تفسیر می‌شود و بحث‌هایی را در کل صنعت فناوری دامن زده که به چه زمانی سیستم‌های خودکار – مانند عامل‌های کدنویسی هوش مصنوعی، خودروهای خودران یا تسلیحات شلیک‌کننده خودکار – واقعاً به استقلال کامل می‌رسند. پلوم اعلام کرد که این تصور که سیستم‌های خودکار به‌طور مستقل تصمیمات زندگی و مرگ را اتخاذ می‌کنند، "بسیار دوگانه" است و واقعیت به مراتب کمتر به داستان‌های علمی تخیلی شبیه است.
او پیشنهاد کرد که استفاده پنتاگون از سیستم‌های هوش مصنوعی در واقع یک همکاری بین انسان‌ها و ماشین‌ها است، جایی که رهبران ارشد در طول تمام فرآیند تصمیم‌گیری فعالانه شرکت دارند. پلوم گفت: "افراد معمولاً این موضوع را این‌گونه تصور می‌کنند که ربات‌هایی در جایی وجود دارند و سپس دستگاه تخیلی [گنکلاتور] برگه‌ای را تولید می‌کند و انسان‌ها فقط یک گزینه را علامت می‌زنند." او افزود: "این‌گونه نیست که تیم‌های انسانی و ماشینی کار کنند، و این روش مؤثری برای استفاده از این نوع سیستم‌های هوش مصنوعی نیست." این بحث نه تنها در حوزه نظامی، بلکه در بسیاری از صنایع دیگر نیز اهمیت ویژه‌ای پیدا کرده و ضرورت نظارت انسانی بر سیستم‌های هوش مصنوعی را برجسته می‌کند.

ایمنی هوش مصنوعی در پنتاگون

AI safety in the Pentagon

موضوع ایمنی هوش مصنوعی در وزارت دفاع ایالات متحده، به چالش‌های همکاری‌های نظامی با سیلیکون ولی اشاره دارد. در سال گذشته، تعدادی از کارمندان آمازون و گوگل پس از اعتراض به قراردادهای نظامی شرکت‌هایشان با اسرائیل، که با نام رمز "پروژه نیبوس" شناخته می‌شد، اخراج و حتی بازداشت شدند. این در حالی است که پاسخ جامعه هوش مصنوعی به این موضوع به طور قابل توجهی کمتر بوده است. برخی محققان هوش مصنوعی مانند اوان هابینگر از شرکت انتروپیک معتقدند که استفاده از هوش مصنوعی در نظامیان اجتناب‌ناپذیر است و همکاری مستقیم با نیروهای نظامی برای اطمینان از استفاده درست از این فناوری ضروری است. او در یک پست آنلاین در فروم LessWrong در نوامبر گفت: “اگر خطرات فاجعه‌بار ناشی از هوش مصنوعی را جدی بگیرید، دولت ایالات متحده یکی از بازیگران بسیار مهمی است که باید با آن‌ها تعامل داشته باشید. تلاش برای مسدود کردن دسترسی دولت به هوش مصنوعی، استراتژی مناسبی نیست.” او افزود: “فقط تمرکز بر روی خطرات فاجعه‌بار کافی نیست؛ لازم است از هر گونه احتمال سو استفاده دولت از مدل‌های هوش مصنوعی خود پیشگیری کنید.” با توجه به پیشرفت‌های سریع در این زمینه، موضوع مدیریت و نظارت بر کاربردهای هوش مصنوعی در بخش‌های نظامی باید مورد توجه ویژه قرار گیرد تا از تبعات منفی آن جلوگیری شود.

پیشنهاد ویژه برای دریافت جدید ترین تحولات دولت و سیاست

اولین نفری باشید که درباره جدید ترین های دولت و سیاست، می خوانید!
همین امروز در سایت IWL.IR عضو شوید و از جدیدترین های روز دنیای فن آوری دولت و سیاست بهره‌مند شوید.