دادستان های کل ایالت به مایکروسافت، OpenAI، گوگل و سایر غول های هوش مصنوعی هشدار می دهند که خروجی های "توهم" را اصلاح کنند.

دادستان های کل ایالت به مایکروسافت، OpenAI، گوگل و سایر غول های هوش مصنوعی هشدار می دهند که خروجی های

پس از یک رشته حوادث نگران کننده سلامت روان که مربوط به چت ربات های هوش مصنوعی است، گروهی از دادستان های کل ایالت نامه ای به شرکت های برتر صنعت هوش مصنوعی ارسال کرده اند که در آن هشدار داده شده است که «خروجی های هذیانی» را برطرف کنند یا در معرض نقض قوانین ایالتی قرار گیرند. 

دادستان های کل ایالت به مایکروسافت، OpenAI، گوگل و سایر غول های هوش مصنوعی هشدار می دهند که خروجی های "توهم" را اصلاح کنند.

State attorneys general warn Microsoft, OpenAI, Google, and other AI giants to fix ‘delusional’ outputs

پس از یک رشته حوادث نگران کننده سلامت روان که مربوط به چت ربات های هوش مصنوعی است، گروهی از دادستان های کل ایالت نامه ای به شرکت های برتر صنعت هوش مصنوعی ارسال کرده اند که در آن هشدار داده شده است که «خروجی های هذیانی» را برطرف کنند یا در معرض نقض قوانین ایالتی قرار گیرند. این نامه که توسط ده‌ها AG از ایالت‌ها و مناطق ایالات متحده با انجمن ملی دادستان‌های کل امضا شده است، از شرکت‌ها، از جمله مایکروسافت، OpenAI، گوگل و 10 شرکت بزرگ هوش مصنوعی دیگر می‌خواهد تا انواع پادمان‌های داخلی جدید را برای محافظت از کاربران خود اجرا کنند. Anthropic، Apple، Chai AI، Character Technologies، Luka، Meta، Nomi AI، Perplexity AI، Replika و xAI نیز در این نامه گنجانده شده اند. این نامه در حالی منتشر می شود که درگیری بر سر قوانین هوش مصنوعی بین دولت ایالتی و فدرال درگرفته است. این تدابیر حفاظتی شامل ممیزی شفاف شخص ثالث از مدل‌های زبان بزرگ است که به دنبال نشانه‌هایی از ایده‌های هذیانی یا خیال‌پردازانه می‌گردند، و همچنین رویه‌های گزارش‌دهی رویداد جدید که برای اطلاع کاربران از زمانی که چت‌بات‌ها خروجی‌های مضر روان‌شناختی تولید می‌کنند، طراحی شده‌اند. در نامه آمده است که آن دسته از اشخاص ثالث، که می‌توانند شامل گروه‌های دانشگاهی و جامعه مدنی باشند، باید اجازه داشته باشند که «نسخه‌های پیش‌انتشاری سیستم‌ها را بدون تلافی ارزیابی کنند و یافته‌های خود را بدون تأیید قبلی شرکت منتشر کنند». در این نامه آمده است: "GenAI این پتانسیل را دارد که نحوه عملکرد جهان را به شیوه ای مثبت تغییر دهد. اما همچنین آسیب های جدی به ویژه به جمعیت های آسیب پذیر ایجاد کرده است - و این پتانسیل را دارد که ایجاد کند." در بسیاری از این حوادث، محصولات GenAI خروجی‌های هذیان‌آمیز و توهم‌آمیزی تولید می‌کنند که یا توهمات کاربران را تشویق می‌کنند یا به کاربران اطمینان می‌دهند که توهم نیستند.» AG همچنین به شرکت‌ها پیشنهاد می‌کند که با حوادث مربوط به سلامت روان، به همان روشی که شرکت‌های فناوری با حوادث امنیت سایبری برخورد می‌کنند - با سیاست‌ها و رویه‌های گزارش رویداد شفاف و شفاف رفتار کنند. در نامه آمده است که شرکت‌ها باید «زمان‌های تشخیص و پاسخ برای خروجی‌های توهم‌آمیز» را ایجاد و منتشر کنند. در این نامه آمده است که به روشی مشابه با نحوه رسیدگی به نقض داده‌ها در حال حاضر، شرکت‌ها همچنین باید «به‌سرعت، واضح و مستقیماً کاربران را در صورت قرار گرفتن در معرض خروجی‌های هذیانی یا هذیانی بالقوه مضر مطلع کنند». درخواست دیگر این است که شرکت‌ها «تست‌های ایمنی معقول و مناسب» را بر روی مدل‌های GenAI ایجاد کنند تا «اطمینان حاصل کنند که مدل‌ها خروجی‌های هذیانی و خیالی بالقوه مضر تولید نمی‌کنند». این آزمایش ها باید قبل از ارائه مدل ها به عموم انجام شود. TechCrunch نتوانست قبل از انتشار با گوگل، مایکروسافت یا OpenAI برای نظر دادن تماس بگیرد. در صورت پاسخگویی شرکت ها، مقاله به روز می شود. شرکت‌های فناوری که هوش مصنوعی را توسعه می‌دهند، استقبال گرم‌تری در سطح فدرال داشته‌اند. دولت ترامپ اعلام کرده است که بی شرمانه طرفدار هوش مصنوعی است و در طول سال گذشته، تلاش های متعددی برای تصویب یک تعلیق در سراسر کشور در مورد مقررات هوش مصنوعی در سطح دولتی انجام شده است. تا کنون، این تلاش ها شکست خورده است - تا حدی به لطف فشار مقامات دولتی. ترامپ روز دوشنبه اعلام کرد که قصد دارد یک فرمان اجرایی را در هفته آینده تصویب کند که توانایی ایالت ها را برای تنظیم هوش مصنوعی محدود می کند. رئیس‌جمهور در پستی در Truth Social گفت امیدوار است EO او مانع از نابودی هوش مصنوعی در ابتدایی شود.