پنتاگون: هوش مصنوعی زنجیره کشتار را تسریع کرده است
دولت و سیاست, پنتاگون می گوید Ai در حال افزایش زنجیره کشتن خود ا
توسعهدهندگان پیشروی هوش مصنوعی، مانند OpenAI و Anthropic، در تلاشند نرمافزارهایی برای ارتش آمریکا ارائه دهند: افزایش بهرهوری پنتاگون بدون خطر مرگ انسانها.
پنتاگون: هوش مصنوعی سرعت زنجیره کشتار را افزایش میدهد
The Pentagon says AI is speeding up its ‘kill chain’
توسعهدهندگان پیشرو در زمینه هوش مصنوعی، نظیر OpenAI و Anthropic، در تلاشند تا نرمافزارهایی را به ارتش ایالات متحده بفروشند. هدف آنها افزایش کارآیی وزارت دفاع بدون ایجاد تهدید برای جان انسانهاست. به گفته دکتر رادا پلوم، رئیس بخش دیجیتال و هوش مصنوعی در پنتاگون، در مصاحبهای با TechCrunch، ابزارهای هوش مصنوعی فعلاً بهعنوان سلاح استفاده نمیشوند، اما به وزارت دفاع در شناسایی، ردیابی و ارزیابی تهدیدات کمکهای زیادی میکنند. پلوم بیان کرد: «ما به وضوح در حال افزایش روشهایی هستیم که میتوانیم اجرای زنجیره کشتار را تسریع کنیم تا فرماندهان ما بتوانند بهموقع پاسخ دهند و نیروهای خود را محافظت کنند.» زنجیره کشتار به فرایند شناسایی، ردیابی و از بین بردن تهدیدات در ارتش اشاره دارد که شامل سیستمهای پیچیدهای از حسگرها، پلتفرمها و سلاحهاست. طبق گفته پلوم، هوش مصنوعی مولد در مراحل برنامهریزی و استراتژیسازی زنجیره کشتار بهویژه مفید واقع شده است. رابطه بین پنتاگون و توسعهدهندگان هوش مصنوعی نسبتاً جدید است. در سال 2024، OpenAI، Anthropic و Meta سیاستهای استفاده خود را تغییر دادند تا به نهادهای اطلاعاتی و دفاعی ایالات متحده امکان استفاده از سیستمهای هوش مصنوعیشان را بدهند، با این حال، همچنان به این نهادها اجازه نمیدهند که هوش مصنوعی آنها به انسانها آسیب برساند. پلوم در مورد همکاری پنتاگون با تامینکنندگان مدلهای هوش مصنوعی گفت: «ما بهوضوح مشخص کردهایم که چه چیزی را برای چه مقاصدی استفاده خواهیم کرد و چه چیزهایی را هرگز استفاده نخواهیم کرد.» با این حال، این تصمیم شروعی برای شتابزنی میان شرکتهای هوش مصنوعی و پیمانکاران دفاعی است. به عنوان مثال، Meta در نوامبر با Lockheed Martin و Booz Allen همکاری کرد تا مدلهای Llama AI را به نهادهای دفاعی معرفی کند. در همان ماه، Anthropic با Palantir همکاری نمود. در دسامبر، OpenAI قرارداد مشابهی با Anduril امضا کرد و به شکل کمتری، Cohere نیز مدلهای خود را با Palantir به کار گرفت. با پیشرفت هوش مصنوعی مولد در پنتاگون، این امکان وجود دارد که سیلیکونولی سیاستهای استفاده از هوش مصنوعی را شلتر کند و کاربردهای نظامی بیشتری را مجاز سازد. پلوم در این خصوص گفت: «بازی با سناریوهای مختلف چیزی است که هوش مصنوعی مولد میتواند در آن کمک کند. این امر به شما اجازه میدهد از تمام ابزارهایی که فرماندهان ما در اختیار دارند، بهرهبرداری کنید و همچنین به طور خلاقانه به گزینههای مختلف پاسخ و احتمالات تجاری در محیطی که تهدیدی وجود دارد، فکر کنید.» اینکه پنتاگون از چه فناوریهایی برای این کار استفاده میکند هنوز مشخص نیست؛ چرا که استفاده از هوش مصنوعی مولد در زنجیره کشتار (حتی در مراحل ابتدایی برنامهریزی) به نظر میرسد که سیاستهای استفاده چندین توسعهدهنده مدل پیشرو را نقض میکند. بهعنوان مثال، سیاست Anthropic استفاده از مدلهای خود برای تولید یا تغییر «سیستمهایی که برای آسیب به افراد یا از بین بردن جان انسانها طراحی شدهاند» را ممنوع میکند. در پاسخ به سوالات ما، Anthropic به مصاحبه اخیر دادیو آمودی، مدیر عامل خود، با Financial Times اشاره کرد؛ جایی که او از کارهای نظامی خود دفاع کرد: «موضعی که میگوید هرگز نباید از هوش مصنوعی در تنظیمات دفاعی و اطلاعاتی استفاده کنیم، برای من منطقی نیست. همچنین، موضعی که میگوید باید با شتاب هر چیزی را که میخواهیم، از جمله سلاحهای آخرالزمانی، بسازیم، واضح است که به همین اندازه دیوانهوار است. ما تلاش میکنیم که به یک راهحل میانه برسیم و کارها را بهطور مسئولانه انجام دهیم.» OpenAI، Meta و Cohere به درخواست TechCrunch برای اظهارنظر پاسخ ندادند. برای دریافت اطلاعات بیشتر و تحلیلهای عمیقتر، میتوانید به سایت 'iwl.ir' مراجعه کنید.
زندگی و مرگ، سلاحهای هوش مصنوعی
Life and death, and AI weapons
زندگی و مرگ و تسلیحات هوش مصنوعی در ماههای اخیر، بحثی در حوزه فناوری دفاعی پیرامون اجازه دادن به تسلیحات هوش مصنوعی برای اتخاذ تصمیمات حیاتی شکل گرفته است. برخی بر این باورند که ارتش ایالات متحده در حال حاضر تسلیحاتی دارد که چنین تصمیماتی را اتخاذ میکنند. پالمر لاکی، مدیرعامل اندوریل، به تازگی در پلتفرم X اشاره کرده که ارتش آمریکا سابقه طولانی در خرید و استفاده از سیستمهای تسلیحاتی خودکار مانند برجک CIWS دارد. او گفت: "وزارت دفاع (DoD) برای دههها است که در حال خرید و استفاده از سیستمهای تسلیحاتی خودکار است. استفاده از این تسلیحات (و صادرات آنها!) به خوبی درک شده و به وضوح با قوانینی که اصلاً اختیاری نیستند، تنظیم میشود." با این حال، زمانی که TechCrunch از پنتاگون سوال کرد که آیا این وزارتخانه تسلیحات کاملاً خودکار – تسلیحاتی که هیچ انسانی در فرآیند تصمیمگیری ندارند – خریداری و اداره میکند، پلوم به طرز اصولی ایده مذکور را رد کرد. او به طور مختصر پاسخ داد: "خیر، این پاسخ کوتاه است." پلوم ادامه داد: "از نظر قابلیت اطمینان و اخلاق، ما همیشه باید انسانها را در فرآیند اتخاذ تصمیم برای بهکارگیری نیروی نظامی درگیر کنیم و این شامل سیستمهای تسلیحاتی ما نیز میشود." عبارت "خودکار بودن" بهطور مبهمی تفسیر میشود و بحثهایی را در کل صنعت فناوری دامن زده که به چه زمانی سیستمهای خودکار – مانند عاملهای کدنویسی هوش مصنوعی، خودروهای خودران یا تسلیحات شلیککننده خودکار – واقعاً به استقلال کامل میرسند. پلوم اعلام کرد که این تصور که سیستمهای خودکار بهطور مستقل تصمیمات زندگی و مرگ را اتخاذ میکنند، "بسیار دوگانه" است و واقعیت به مراتب کمتر به داستانهای علمی تخیلی شبیه است. او پیشنهاد کرد که استفاده پنتاگون از سیستمهای هوش مصنوعی در واقع یک همکاری بین انسانها و ماشینها است، جایی که رهبران ارشد در طول تمام فرآیند تصمیمگیری فعالانه شرکت دارند. پلوم گفت: "افراد معمولاً این موضوع را اینگونه تصور میکنند که رباتهایی در جایی وجود دارند و سپس دستگاه تخیلی [گنکلاتور] برگهای را تولید میکند و انسانها فقط یک گزینه را علامت میزنند." او افزود: "اینگونه نیست که تیمهای انسانی و ماشینی کار کنند، و این روش مؤثری برای استفاده از این نوع سیستمهای هوش مصنوعی نیست." این بحث نه تنها در حوزه نظامی، بلکه در بسیاری از صنایع دیگر نیز اهمیت ویژهای پیدا کرده و ضرورت نظارت انسانی بر سیستمهای هوش مصنوعی را برجسته میکند.
ایمنی هوش مصنوعی در پنتاگون
AI safety in the Pentagon
موضوع ایمنی هوش مصنوعی در وزارت دفاع ایالات متحده، به چالشهای همکاریهای نظامی با سیلیکون ولی اشاره دارد. در سال گذشته، تعدادی از کارمندان آمازون و گوگل پس از اعتراض به قراردادهای نظامی شرکتهایشان با اسرائیل، که با نام رمز "پروژه نیبوس" شناخته میشد، اخراج و حتی بازداشت شدند. این در حالی است که پاسخ جامعه هوش مصنوعی به این موضوع به طور قابل توجهی کمتر بوده است. برخی محققان هوش مصنوعی مانند اوان هابینگر از شرکت انتروپیک معتقدند که استفاده از هوش مصنوعی در نظامیان اجتنابناپذیر است و همکاری مستقیم با نیروهای نظامی برای اطمینان از استفاده درست از این فناوری ضروری است. او در یک پست آنلاین در فروم LessWrong در نوامبر گفت: “اگر خطرات فاجعهبار ناشی از هوش مصنوعی را جدی بگیرید، دولت ایالات متحده یکی از بازیگران بسیار مهمی است که باید با آنها تعامل داشته باشید. تلاش برای مسدود کردن دسترسی دولت به هوش مصنوعی، استراتژی مناسبی نیست.” او افزود: “فقط تمرکز بر روی خطرات فاجعهبار کافی نیست؛ لازم است از هر گونه احتمال سو استفاده دولت از مدلهای هوش مصنوعی خود پیشگیری کنید.” با توجه به پیشرفتهای سریع در این زمینه، موضوع مدیریت و نظارت بر کاربردهای هوش مصنوعی در بخشهای نظامی باید مورد توجه ویژه قرار گیرد تا از تبعات منفی آن جلوگیری شود.
AI
ai safety
Anthropic
defense tech
Government & Policy
military
OpenAI
pentagon
TC
پیشنهاد ویژه برای دریافت جدید ترین تحولات دولت و سیاست
اولین نفری باشید که درباره جدید ترین های دولت و سیاست، می خوانید!
همین امروز در سایت IWL.IR عضو شوید و از جدیدترین های روز دنیای فن آوری دولت و سیاست بهرهمند شوید.
عضویت
همکاری غولهای فناوری و استارتاپها برای درخواست قوانین سادهتر اتحادیه اروپا در حوزه هوش مصنوعی و دادهها
اقدام حفاظتی اتحادیه اروپا علیه شاین برای مدیریت ریسکهای تجارت الکترونیک کمهزینه
گوگل به دلیل اقدامات انحصاری در سیستم پرداخت، ۱۲.۶ میلیون دلار جریمه در اندونزی شد
پنتاگون: هوش مصنوعی زنجیره کشتار را تسریع کرده است
رئیس سامسونگ، جی. ی. لی، از تمامی اتهامات در پرونده ادغام ۲۰۱۵ تبرئه شد.
ایلان ماسک reportedly در حال کنترل جزئیات داخلی نهادهای دولتی آمریکا است.
ایتالیا نخستین درخواست نهاد مراقبت از دادهها را به DeepSeek ارسال کرد: «دادههای میلیونها ایتالیایی در خطر است»
حذف هشدارهای محتوایی مشخص از ChatGPT توسط OpenAI
متا ممکن است توسعه سیستمهای هوش مصنوعی با ریسک بالا را متوقف کند
آدام کاندیوب، منتقد سرسخت شرکتهای بزرگ فناوری، بهزودی به FCC ملحق میشود.
ترامپ اعلام کرد که لغو ممنوعیت تیکتاک را به تأخیر میاندازد و از مشارکت مشترک با مالکیت آمریکا سخن گفت.
مدیرعامل انتروپیک: DeepSeek نشاندهنده کارایی قوانین صادراتی ایالات متحده است
مارک کیوبان پیشنهاد تأمین مالی واحد فناوری دولتی که در نیمه شب حذف شد را ارائه کرد
شرکتهای هوش مصنوعی در ۲۰۲۴ با افزایش هزینههای لابیگری فدرال، به عدمقطعیتهای قانونی پاسخ دادند.
ناتو از اولین گروه استارتاپهای دوکاربردی اروپایی حمایت میکند.