متا اعلام کرد ممکن است توسعه سیستمهای هوش مصنوعی با ریسک بالا را متوقف کند.
Meta says it may stop development of AI systems it deems too risky
مارک زاکربرگ، مدیرعامل متا، اعلام کرده است که قصد دارد روزی هوش مصنوعی عمومی (AGI) را که به طور تقریبی به عنوان هوش مصنوعیای تعریف میشود که میتواند هر کاری را که یک انسان انجام میدهد، انجام دهد، به صورت عمومی در دسترس قرار دهد. اما در یک سند سیاست جدید، متا پیشنهاد میکند که در برخی شرایط، ممکن است یک سیستم هوش مصنوعی با قابلیتهای بالا که به صورت داخلی توسعه یافته است، منتشر نشود. این سند که متا آن را "چارچوب هوش مصنوعی مرزی" مینامد، دو نوع سیستم هوش مصنوعی را شناسایی میکند که این شرکت آنها را برای انتشار بسیار پرخطر میداند: سیستمهای "خطر بالا" و "خطر بحرانی". طبق تعریف متا، هر دو نوع سیستم "خطر بالا" و "خطر بحرانی" میتوانند در حملات سایبری، شیمیایی و بیولوژیکی کمک کننده باشند، با این تفاوت که سیستمهای "خطر بحرانی" میتوانند به "نتیجهای فاجعهآمیز [که] در [زمینه] پیشنهادی کاهش نمییابد" منجر شوند. در مقابل، سیستمهای خطر بالا ممکن است یک حمله را آسانتر کنند، اما به اندازه سیستمهای خطر بحرانی قابل اعتماد و قابل اتکا نیستند.
متا برخی از نمونههای حملاتی که مورد نظر است را ارائه میدهد، مانند "تحلیل خودکار از یک محیط سازمانی با بهترین شیوههای حفاظت" و "گسترش سلاحهای بیولوژیکی با تأثیر بالا". لیست بالقوه فاجعهها در سند متا به هیچ وجه جامع نیست، اما شرکت شامل مواردی میشود که به عقیده متا "فوریتی" و "قابل انجام" برای ناشی شدن از انتشار یک سیستم هوش مصنوعی قوی است. جالب اینجاست که، طبق این سند، متا ریسک سیستم را نه بر اساس هر گونه آزمایش تجربی، بلکه با توجه به نظرات محققان داخلی و خارجی که تحت بررسی "تصمیمگیرندگان سطح بالا" قرار دارند، طبقهبندی میکند. دلیل این امر چیست؟ متا معتقد است که علم ارزیابی "به اندازه کافی قوی نیست که بتواند معیارهای کمی قطعی برای تعیین ریسک یک سیستم ارائه دهد".
اگر متا تعیین کند که یک سیستم دارای ریسک بالا است، این شرکت میگوید که دسترسی به سیستم را درون سازمان محدود خواهد کرد و آن را منتشر نخواهد کرد تا زمانی که اقداماتی برای "کاهش ریسک به سطوح متوسط" انجام دهد. اگر از سوی دیگر، یک سیستم به عنوان خطر بحرانی محسوب شود، متا میگوید که اقداماتی امنیتی نامشخص را برای جلوگیری از اکسفیلتر کردن سیستم پیادهسازی خواهد کرد و توسعه آن را متوقف خواهد کرد تا زمانی که سیستم بتواند کمتر خطرناک شود.
چارچوب هوش مصنوعی مرزی متا که توضیح دادهاند که این چارچوب با تغییرات در حوزه هوش مصنوعی تکامل خواهد یافت، به نظر میرسد پاسخی به انتقادات از رویکرد "باز" این شرکت در توسعه سیستم باشد. متا استراتژی را در پیش گرفته است که فناوری هوش مصنوعی خود را به صورت عمومی در دسترس قرار دهد - هرچند که این نه به معنای کد منبع باز به طور معمول درک شده - در مقابل شرکتهایی مانند OpenAI که ترجیح میدهند سیستمهای خود را پشت یک API قرار دهند.
برای متا، رویکرد انتشار باز هم نعمتی بوده و هم عذابی. مجموعه مدلهای هوش مصنوعی این شرکت به نام “لاما” صدها میلیون بار دانلود شده است. اما گزارشها حاکی از آن است که لاما حداقل از سوی یک رقیب آمریکایی برای توسعه یک چتبات دفاعی استخدام شده است. با انتشار چارچوب هوش مصنوعی مرزی، متا همچنین ممکن است بخواهد رویکرد هوش مصنوعی باز خود را با شرکت چینی دیپسیک مقایسه کند. دیپسیک نیز سیستمهای خود را به صورت عمومی در دسترس قرار میدهد، اما هوش مصنوعی آن دارای حفاظتهای کمی بوده و به راحتی میتواند برای تولید خروجیهای سمی و مضر هدایت شود.
متا در این سند مینویسد: "[ما معتقدیم که با در نظر گرفتن هم مزایا و هم خطرات در تصمیمگیری در مورد چگونگی توسعه و استقرار هوش مصنوعی پیشرفته، ممکن است این فناوری را به جامعه ارائه کنیم به گونهای که مزایای آن برای جامعه حفظ شود و در عین حال سطح مناسبی از ریسک نیز حفظ گردد.]" برای خواندن اخبار فناوری و هوش مصنوعی به سایت ما در آدرس iwl.ir مراجعه کنید.
- AI
- AI
- document
- frontier ai framework
- Generative AI
- Government & Policy
- Llama
- Meta
- Open AI
- policy