متا ممکن است توسعه سیستم‌های هوش مصنوعی با ریسک بالا را متوقف کند

متا ممکن است توسعه سیستم‌های هوش مصنوعی با ریسک بالا را متوقف کند

مدیرعامل متا، مارک زاکربرگ، وعده داده که روزی هوش عمومی مصنوعی (AGI) را در دسترس عموم قرار دهد؛ اما در مستندات جدید، متا اشاره کرده که ممکن است در برخی موارد از انتشار سیستم‌های هوش مصنوعی توانمند خودداری کند.

متا اعلام کرد ممکن است توسعه سیستم‌های هوش مصنوعی با ریسک بالا را متوقف کند.

Meta says it may stop development of AI systems it deems too risky

مارک زاکربرگ، مدیرعامل متا، اعلام کرده است که قصد دارد روزی هوش مصنوعی عمومی (AGI) را که به طور تقریبی به عنوان هوش مصنوعی‌ای تعریف می‌شود که می‌تواند هر کاری را که یک انسان انجام می‌دهد، انجام دهد، به صورت عمومی در دسترس قرار دهد. اما در یک سند سیاست جدید، متا پیشنهاد می‌کند که در برخی شرایط، ممکن است یک سیستم هوش مصنوعی با قابلیت‌های بالا که به صورت داخلی توسعه یافته است، منتشر نشود. این سند که متا آن را "چارچوب هوش مصنوعی مرزی" می‌نامد، دو نوع سیستم هوش مصنوعی را شناسایی می‌کند که این شرکت آن‌ها را برای انتشار بسیار پرخطر می‌داند: سیستم‌های "خطر بالا" و "خطر بحرانی". طبق تعریف متا، هر دو نوع سیستم "خطر بالا" و "خطر بحرانی" می‌توانند در حملات سایبری، شیمیایی و بیولوژیکی کمک کننده باشند، با این تفاوت که سیستم‌های "خطر بحرانی" می‌توانند به "نتیجه‌ای فاجعه‌آمیز [که] در [زمینه] پیشنهادی کاهش نمی‌یابد" منجر شوند. در مقابل، سیستم‌های خطر بالا ممکن است یک حمله را آسان‌تر کنند، اما به اندازه سیستم‌های خطر بحرانی قابل اعتماد و قابل اتکا نیستند.
متا برخی از نمونه‌های حملاتی که مورد نظر است را ارائه می‌دهد، مانند "تحلیل خودکار از یک محیط سازمانی با بهترین شیوه‌های حفاظت" و "گسترش سلاح‌های بیولوژیکی با تأثیر بالا". لیست بالقوه فاجعه‌ها در سند متا به هیچ وجه جامع نیست، اما شرکت شامل مواردی می‌شود که به عقیده متا "فوریتی" و "قابل انجام" برای ناشی شدن از انتشار یک سیستم هوش مصنوعی قوی است. جالب اینجاست که، طبق این سند، متا ریسک سیستم را نه بر اساس هر گونه آزمایش تجربی، بلکه با توجه به نظرات محققان داخلی و خارجی که تحت بررسی "تصمیم‌گیرندگان سطح بالا" قرار دارند، طبقه‌بندی می‌کند. دلیل این امر چیست؟ متا معتقد است که علم ارزیابی "به اندازه کافی قوی نیست که بتواند معیارهای کمی قطعی برای تعیین ریسک یک سیستم ارائه دهد".
اگر متا تعیین کند که یک سیستم دارای ریسک بالا است، این شرکت می‌گوید که دسترسی به سیستم را درون سازمان محدود خواهد کرد و آن را منتشر نخواهد کرد تا زمانی که اقداماتی برای "کاهش ریسک به سطوح متوسط" انجام دهد. اگر از سوی دیگر، یک سیستم به عنوان خطر بحرانی محسوب شود، متا می‌گوید که اقداماتی امنیتی نامشخص را برای جلوگیری از اکسفیلتر کردن سیستم پیاده‌سازی خواهد کرد و توسعه آن را متوقف خواهد کرد تا زمانی که سیستم بتواند کمتر خطرناک شود.
چارچوب هوش مصنوعی مرزی متا که توضیح داده‌اند که این چارچوب با تغییرات در حوزه هوش مصنوعی تکامل خواهد یافت، به نظر می‌رسد پاسخی به انتقادات از رویکرد "باز" این شرکت در توسعه سیستم باشد. متا استراتژی را در پیش گرفته است که فناوری هوش مصنوعی خود را به صورت عمومی در دسترس قرار دهد - هرچند که این نه به معنای کد منبع باز به طور معمول درک شده - در مقابل شرکت‌هایی مانند OpenAI که ترجیح می‌دهند سیستم‌های خود را پشت یک API قرار دهند.
برای متا، رویکرد انتشار باز هم نعمتی بوده و هم عذابی. مجموعه مدل‌های هوش مصنوعی این شرکت به نام “لاما” صدها میلیون بار دانلود شده است. اما گزارش‌ها حاکی از آن است که لاما حداقل از سوی یک رقیب آمریکایی برای توسعه یک چت‌بات دفاعی استخدام شده است. با انتشار چارچوب هوش مصنوعی مرزی، متا همچنین ممکن است بخواهد رویکرد هوش مصنوعی باز خود را با شرکت چینی دیپ‌سیک مقایسه کند. دیپ‌سیک نیز سیستم‌های خود را به صورت عمومی در دسترس قرار می‌دهد، اما هوش مصنوعی آن دارای حفاظت‌های کمی بوده و به راحتی می‌تواند برای تولید خروجی‌های سمی و مضر هدایت شود.
متا در این سند می‌نویسد: "[ما معتقدیم که با در نظر گرفتن هم مزایا و هم خطرات در تصمیم‌گیری در مورد چگونگی توسعه و استقرار هوش مصنوعی پیشرفته، ممکن است این فناوری را به جامعه ارائه کنیم به گونه‌ای که مزایای آن برای جامعه حفظ شود و در عین حال سطح مناسبی از ریسک نیز حفظ گردد.]" برای خواندن اخبار فناوری و هوش مصنوعی به سایت ما در آدرس iwl.ir مراجعه کنید.