مدیرعامل انتروپیک: DeepSeek در آزمون ایمنی داده‌های تسلیحات زیستی، «بدترین» بود.

مدیرعامل انتروپیک: DeepSeek در آزمون ایمنی داده‌های تسلیحات زیستی، «بدترین» بود.

مدیر عامل Anthropic، داریو آمودئی نگران رقیب خود، شرکت AI چینی DeepSeek است که با مدل R1 خود در سیلیکون ولی به شهرت رسیده. اما نگرانی‌های او فراتر از مسائل عادی مربوط به ارسال داده‌های کاربر به چین است.

مدیر عامل Anthropic: DeepSeek در آزمایش ایمنی داده‌های سلاح‌های بیولوژیکی 'بدترین' بود

Anthropic CEO says DeepSeek was ‘the worst’ on a critical bioweapons data safety test

مدیر عامل Anthropic، داریو آمودی، نگران شرکت رقیب DeepSeek است که به عنوان یک شرکت هوش مصنوعی چینی با مدل R1 خود در سیلیکون‌ولی غوغا به پا کرده است. اما نگرانی‌های او ممکن است فراتر از دغدغه‌های متداول مربوط به ارسال داده‌های کاربران به چین باشد. در مصاحبه‌ای با پادکست ChinaTalk به میزبانی جوردن اشنایدر، آمودی گفت که DeepSeek اطلاعات نادری در مورد سلاح‌های بیولوژیک در آزمایش ایمنی که Anthropic انجام داده بود، تولید کرده است. او ادعا کرد که عملکرد DeepSeek "بدترین عملکردی بود که ما تا کنون آزمایش کرده‌ایم" و افزود که این مدل هیچ مانع شایسته‌ای برای تولید این اطلاعات نداشت.
آموی خاطرنشان کرد که این آزمایش‌ها بخشی از ارزیابی‌های معمول Anthropic برای شناسایی خطرات امنیت ملی ناشی از مدل‌های مختلف هوش مصنوعی هستند. تیم او بررسی می‌کند که آیا مدل‌ها قادر به تولید اطلاعات مرتبط با سلاح‌های بیولوژیک هستند که به راحتی نمی‌توان آنها را در گوگل یا کتاب‌های درسی پیدا کرد. Anthropic خود را به عنوان ارائه‌دهنده مدل‌های بنیادی هوش مصنوعی معرفی کرده که ایمنی را به طور جدی در نظر می‌گیرد. او اضافه کرد که فکر نمی‌کند مدل‌های DeepSeek در حال حاضر "مخاطره‌آمیز" باشند، اما امکان دارد در آینده این‌گونه شوند.
آمودی همچنین به کنترل‌های قوی صادرات چیپ‌ها به چین اشاره کرده و نگرانی‌های خود را در مورد این که این فناوری می‌تواند به ارتش چین مزیتی بدهد، بیان کرد. او در مصاحبه با ChinaTalk به جزئیات مدل‌های آزمایش شده DeepSeek اشاره نکرد و توضیحات فنی بیشتری هم نداد. این در حالی است که DeepSeek و Anthropic به درخواست‌های TechCrunch برای اظهارنظر بلافاصله واکنشی نشان ندادند.
افزایش محبوبیت DeepSeek نگرانی‌هایی را در خصوص ایمنی آن نیز برانگیخته است. به عنوان مثال، محققان امنیت سایبری Cisco گفتند که مدل R1 در آزمایش‌های ایمنی خود هیچ مانع مؤثری برای جلوگیری از رخنه‌های مضر نداشت و به نرخ موفقیت 100 درصدی jailbreak دست یافت. هرچند Cisco به سلاح‌های بیولوژیک اشاره نکرد، اما اعلام کرد که موفق شد DeepSeek را وادار به تولید اطلاعات مضر در زمینه جرایم سایبری و سایر فعالیت‌های غیرقانونی کند.值得 ذکر است که مدل‌های Llama-3.1-405B از Meta و GPT-4o از OpenAI نیز به ترتیب نرخ‌های شکست 96 و 86 درصدی داشتند.
اینکه آیا نگرانی‌های ایمنی مانند این‌ها تأثیر جدی بر پذیرش سریع DeepSeek خواهد گذاشت، هنوز مشخص نیست. شرکت‌هایی مانند AWS و مایکروسافت به طور عمومی از یکپارچه‌سازی R1 در پلتفرم‌های ابری خود خبر داده‌اند، که این امر جالب توجه است زیرا آمازون بزرگ‌ترین سرمایه‌گذار Anthropic است. از سوی دیگر، فهرست رو به رشدی از کشورها، شرکت‌ها و به ویژه سازمان‌های دولتی مانند نیروی دریایی ایالات متحده و پنتاگون شروع به ممنوعیت DeepSeek کرده‌اند. زمان مشخص خواهد کرد که آیا این تلاش‌ها موفق خواهند بود یا اینکه ظهور جهانی DeepSeek ادامه خواهد داشت. در هر صورت، آمودی DeepSeek را به عنوان یک رقیب جدید در سطح شرکت‌های برتر هوش مصنوعی ایالات متحده می‌داند و اظهار می‌کند: "فاکت جدید این است که یک رقیب جدید وجود دارد." سایت ما، iwl.ir، نیز به بررسی این تحولات دقت می‌کند.