دادستان های کل ایالت به مایکروسافت، OpenAI، گوگل و سایر غول های هوش مصنوعی هشدار می دهند که خروجی های "توهم" را اصلاح کنند.
State attorneys general warn Microsoft, OpenAI, Google, and other AI giants to fix ‘delusional’ outputs
پس از یک رشته حوادث نگران کننده سلامت روان که مربوط به چت ربات های هوش مصنوعی است، گروهی از دادستان های کل ایالت نامه ای به شرکت های برتر صنعت هوش مصنوعی ارسال کرده اند که در آن هشدار داده شده است که «خروجی های هذیانی» را برطرف کنند یا در معرض نقض قوانین ایالتی قرار گیرند. این نامه که توسط دهها AG از ایالتها و مناطق ایالات متحده با انجمن ملی دادستانهای کل امضا شده است، از شرکتها، از جمله مایکروسافت، OpenAI، گوگل و 10 شرکت بزرگ هوش مصنوعی دیگر میخواهد تا انواع پادمانهای داخلی جدید را برای محافظت از کاربران خود اجرا کنند. Anthropic، Apple، Chai AI، Character Technologies، Luka، Meta، Nomi AI، Perplexity AI، Replika و xAI نیز در این نامه گنجانده شده اند. این نامه در حالی منتشر می شود که درگیری بر سر قوانین هوش مصنوعی بین دولت ایالتی و فدرال درگرفته است. این تدابیر حفاظتی شامل ممیزی شفاف شخص ثالث از مدلهای زبان بزرگ است که به دنبال نشانههایی از ایدههای هذیانی یا خیالپردازانه میگردند، و همچنین رویههای گزارشدهی رویداد جدید که برای اطلاع کاربران از زمانی که چتباتها خروجیهای مضر روانشناختی تولید میکنند، طراحی شدهاند. در نامه آمده است که آن دسته از اشخاص ثالث، که میتوانند شامل گروههای دانشگاهی و جامعه مدنی باشند، باید اجازه داشته باشند که «نسخههای پیشانتشاری سیستمها را بدون تلافی ارزیابی کنند و یافتههای خود را بدون تأیید قبلی شرکت منتشر کنند». در این نامه آمده است: "GenAI این پتانسیل را دارد که نحوه عملکرد جهان را به شیوه ای مثبت تغییر دهد. اما همچنین آسیب های جدی به ویژه به جمعیت های آسیب پذیر ایجاد کرده است - و این پتانسیل را دارد که ایجاد کند." در بسیاری از این حوادث، محصولات GenAI خروجیهای هذیانآمیز و توهمآمیزی تولید میکنند که یا توهمات کاربران را تشویق میکنند یا به کاربران اطمینان میدهند که توهم نیستند.» AG همچنین به شرکتها پیشنهاد میکند که با حوادث مربوط به سلامت روان، به همان روشی که شرکتهای فناوری با حوادث امنیت سایبری برخورد میکنند - با سیاستها و رویههای گزارش رویداد شفاف و شفاف رفتار کنند. در نامه آمده است که شرکتها باید «زمانهای تشخیص و پاسخ برای خروجیهای توهمآمیز» را ایجاد و منتشر کنند. در این نامه آمده است که به روشی مشابه با نحوه رسیدگی به نقض دادهها در حال حاضر، شرکتها همچنین باید «بهسرعت، واضح و مستقیماً کاربران را در صورت قرار گرفتن در معرض خروجیهای هذیانی یا هذیانی بالقوه مضر مطلع کنند». درخواست دیگر این است که شرکتها «تستهای ایمنی معقول و مناسب» را بر روی مدلهای GenAI ایجاد کنند تا «اطمینان حاصل کنند که مدلها خروجیهای هذیانی و خیالی بالقوه مضر تولید نمیکنند». این آزمایش ها باید قبل از ارائه مدل ها به عموم انجام شود. TechCrunch نتوانست قبل از انتشار با گوگل، مایکروسافت یا OpenAI برای نظر دادن تماس بگیرد. در صورت پاسخگویی شرکت ها، مقاله به روز می شود. شرکتهای فناوری که هوش مصنوعی را توسعه میدهند، استقبال گرمتری در سطح فدرال داشتهاند. دولت ترامپ اعلام کرده است که بی شرمانه طرفدار هوش مصنوعی است و در طول سال گذشته، تلاش های متعددی برای تصویب یک تعلیق در سراسر کشور در مورد مقررات هوش مصنوعی در سطح دولتی انجام شده است. تا کنون، این تلاش ها شکست خورده است - تا حدی به لطف فشار مقامات دولتی. ترامپ روز دوشنبه اعلام کرد که قصد دارد یک فرمان اجرایی را در هفته آینده تصویب کند که توانایی ایالت ها را برای تنظیم هوش مصنوعی محدود می کند. رئیسجمهور در پستی در Truth Social گفت امیدوار است EO او مانع از نابودی هوش مصنوعی در ابتدایی شود.
- AI
- artificial intelligence
- chatbots
- Meta
- Microsoft
- OpenAI


