OpenAI قوانین جدید ایمنی نوجوانان را به ChatGPT اضافه می کند زیرا قانونگذاران استانداردهای هوش مصنوعی را برای خردسالان ارزیابی می کنند

OpenAI قوانین جدید ایمنی نوجوانان را به ChatGPT اضافه می کند زیرا قانونگذاران استانداردهای هوش مصنوعی را برای خردسالان ارزیابی می کنند

OpenAI در آخرین تلاش خود برای رسیدگی به نگرانی‌های فزاینده در مورد تأثیر هوش مصنوعی بر جوانان، دستورالعمل‌های خود را برای نحوه رفتار مدل‌های هوش مصنوعی خود با کاربران زیر ۱۸ سال به‌روزرسانی کرد و منابع جدید سواد هوش مصنوعی را برای نوجوانان و والدین منتشر کرد. با این حال، سؤالاتی در مورد اینکه چنین سیاست‌هایی تا چه حد به عمل خواهند آمد، باقی می‌ماند. 

OpenAI قوانین جدید ایمنی نوجوانان را به ChatGPT اضافه می کند زیرا قانونگذاران استانداردهای هوش مصنوعی را برای خردسالان ارزیابی می کنند

OpenAI adds new teen safety rules to ChatGPT as lawmakers weigh AI standards for minors

OpenAI در آخرین تلاش خود برای رسیدگی به نگرانی‌های فزاینده در مورد تأثیر هوش مصنوعی بر جوانان، دستورالعمل‌های خود را برای نحوه رفتار مدل‌های هوش مصنوعی خود با کاربران زیر ۱۸ سال به‌روزرسانی کرد و منابع جدید سواد هوش مصنوعی را برای نوجوانان و والدین منتشر کرد. با این حال، سؤالاتی در مورد اینکه چنین سیاست‌هایی تا چه حد به عمل خواهند آمد، باقی می‌ماند. به‌روزرسانی‌ها در حالی ارائه می‌شوند که صنعت هوش مصنوعی به طور کلی، و به طور خاص OpenAI، پس از اینکه چندین نوجوان پس از مکالمه طولانی با چت‌ربات‌های هوش مصنوعی جان خود را از دست دادند، با نظارت بیشتر سیاست‌گذاران، مربیان و حامیان ایمنی کودکان مواجه شد. Gen Z که شامل متولدین سال‌های 1997 تا 2012 می‌شود، فعال‌ترین کاربران چت ربات OpenAI هستند. و پس از قرارداد اخیر OpenAI با دیزنی، افراد جوان بیشتری ممکن است به این پلتفرم هجوم بیاورند، که به شما امکان می‌دهد همه کارها را انجام دهید، از درخواست کمک برای انجام تکالیف تا تولید تصاویر و ویدیوها در مورد هزاران موضوع. هفته گذشته، 42 دادستان کل ایالت نامه‌ای را به شرکت‌های فناوری بزرگ امضا کردند و از آن‌ها خواستند برای محافظت از کودکان و افراد آسیب‌پذیر، پادمان‌هایی را در چت ربات‌های هوش مصنوعی اعمال کنند. و در حالی که دولت ترامپ در حال بررسی این موضوع است که استاندارد فدرال در مورد مقررات هوش مصنوعی چگونه می‌تواند باشد، سیاست‌گذارانی مانند سناتور جاش هاولی (R-MO) قانونی را ارائه کرده‌اند که افراد زیر سن قانونی را از تعامل با چت‌ربات‌های هوش مصنوعی به طور کلی منع می‌کند. مدل به روز شده OpenAI که دستورالعمل‌های رفتاری را برای مدل‌های زبانی بزرگ ارائه می‌کند، بر اساس مشخصات موجود است که مدل‌ها را از تولید محتوای جنسی شامل خردسالان یا تشویق به خودآزاری، توهم یا شیدایی منع می‌کند. این با یک مدل پیش‌بینی سن آتی کار می‌کند که تشخیص می‌دهد چه زمانی یک حساب متعلق به یک خردسال است و به طور خودکار پادمان‌های نوجوان را اجرا می‌کند. در مقایسه با کاربران بزرگسال، وقتی یک نوجوان از آنها استفاده می کند، این مدل ها مشمول قوانین سخت گیرانه تری هستند. به مدل‌ها دستور داده می‌شود که از ایفای نقش‌های عاشقانه غوطه‌ور، صمیمیت اول شخص، و نقش‌آفرینی جنسی یا خشونت‌آمیز اول شخص، حتی اگر غیر گرافیکی باشد، اجتناب کنند. این مشخصات همچنین احتیاط بیشتری را در مورد موضوعاتی مانند تصویر بدن و رفتارهای غذایی نامنظم می طلبد و به مدل ها دستور می دهد که در هنگام آسیب، ارتباط در مورد ایمنی را بر استقلال ترجیح دهند و از توصیه هایی که به نوجوانان کمک می کند رفتار ناایمن را از مراقبین پنهان کنند اجتناب کنند. OpenAI مشخص می‌کند که این محدودیت‌ها باید حتی زمانی که درخواست‌ها به‌عنوان «تخیلی، فرضی، تاریخی، یا آموزشی» قاب‌بندی می‌شوند باقی بمانند - تاکتیک‌های رایجی که بر روی نقش‌آفرینی یا سناریوهای حاشیه‌ای تکیه می‌کنند تا یک مدل هوش مصنوعی از دستورالعمل‌هایش منحرف شود.

اعمال بلندتر از کلمات صحبت می کنند

Actions speak louder than words

اعمال بلندتر از کلمات صحبت می کنند - Actions speak louder than words

عملکردها بلندتر از کلمات صحبت می‌کنند OpenAI می‌گوید شیوه‌های ایمنی کلیدی برای نوجوانان مبتنی بر چهار اصل است که رویکرد مدل‌ها را هدایت می‌کند: ایمنی نوجوان را در اولویت قرار دهید، حتی زمانی که سایر منافع کاربر مانند «حداکثر آزادی فکری» با نگرانی‌های ایمنی در تضاد باشد. 



با هدایت نوجوانان به سمت خانواده، دوستان و متخصصان محلی برای رفاه، حمایت دنیای واقعی را ارتقا دهید. 



با نوجوانان مانند نوجوانان رفتار کنید، با گرمی و احترام صحبت کنید، نه تحقیر یا رفتار با آنها مانند بزرگسالان. و



با توضیح دادن آنچه که دستیار می تواند و نمی تواند انجام دهد شفاف باشید و به نوجوانان یادآوری کنید که او یک انسان نیست. این سند همچنین چندین نمونه از ربات چت را به اشتراک می‌گذارد که توضیح می‌دهد چرا نمی‌تواند «به عنوان دوست دختر شما ایفای نقش کند» یا «به تغییرات ظاهری شدید یا میان‌برهای خطرناک کمک کند». لیلی لی، وکیل حریم خصوصی و هوش مصنوعی و بنیانگذار Metaverse Law، گفت که مایه دلگرمی است که می بینیم OpenAI اقداماتی را انجام می دهد تا ربات چت خود را از انجام چنین رفتاری رد کند. او با توضیح اینکه یکی از بزرگ‌ترین شکایاتی که مدافعان و والدین از چت‌بات‌ها دارند این است که آنها بی‌وقفه تعامل مداوم را به‌گونه‌ای که می‌تواند برای نوجوانان اعتیادآور باشد، ترویج می‌کنند، گفت: «از اینکه می‌بینم OpenAI می‌گوید، در برخی از این پاسخ‌ها، ما نمی‌توانیم به سؤال شما پاسخ دهیم، بسیار خوشحالم. با این اوصاف، نمونه‌ها دقیقاً همین هستند: نمونه‌های انتخاب شده از نحوه رفتار تیم ایمنی OpenAI از مدل‌ها. Sycophancy یا تمایل چت ربات هوش مصنوعی به سازگاری بیش از حد با کاربر، به عنوان یک رفتار ممنوع در نسخه های قبلی مدل Spec ذکر شده است، اما ChatGPT همچنان در این رفتار شرکت می کند. این به ویژه در مورد GPT-4o صدق می کند، مدلی که با چندین نمونه از آنچه کارشناسان آن را «روان پریشی هوش مصنوعی» می نامند، مرتبط بوده است. رابی تورنی، مدیر ارشد برنامه‌های هوش مصنوعی در Common Sense Media، یک سازمان غیرانتفاعی که به محافظت از کودکان در دنیای دیجیتال اختصاص دارد، نگرانی‌های خود را در مورد تضادهای احتمالی در دستورالعمل‌های مدل Spec زیر ۱۸ سال مطرح کرد. او تنش‌های بین مقررات متمرکز بر ایمنی و اصل «بدون محدودیت نیست» را برجسته کرد، که مدل‌ها را هدایت می‌کند تا به هر موضوعی بدون توجه به حساسیت رسیدگی کنند. او با اشاره به اینکه بخش‌های خاصی ممکن است سیستم‌ها را به سمت تعامل بیش از حد ایمنی سوق دهند، گفت: «ما باید درک کنیم که چگونه بخش‌های مختلف مشخصات با هم هماهنگ می‌شوند. او گفت، آزمایش سازمان او نشان داد که ChatGPT اغلب انرژی کاربران را منعکس می‌کند، و گاهی اوقات به پاسخ‌هایی می‌انجامد که از نظر زمینه مناسب یا همسو با ایمنی کاربر نیستند. در مورد آدام رین، نوجوانی که پس از ماه‌ها گفتگو با ChatGPT جان خود را از دست داد، ربات چت درگیر چنین آینه‌کاری بود، مکالمات آنها نشان می‌دهد. این مورد همچنین نشان داد که چگونه API تعدیل‌کننده OpenAI نتوانست از تعاملات ناامن و مضر با وجود پرچم‌گذاری بیش از 1000 مورد ChatGPT با ذکر خودکشی و 377 پیام حاوی محتوای آسیب‌رسانی به خود جلوگیری کند. اما این کافی نبود تا آدام را از ادامه مکالمات خود با ChatGPT باز دارد. استیون آدلر، محقق سابق ایمنی OpenAI در سپتامبر، در مصاحبه‌ای با TechCrunch گفت که این به این دلیل است که از لحاظ تاریخی، OpenAI طبقه‌بندی‌کننده‌ها (سیستم‌های خودکاری که محتوا را برچسب‌گذاری و پرچم‌گذاری می‌کنند) را به صورت انبوه و نه در زمان واقعی اجرا می‌کرد، بنابراین آنها به درستی تعامل کاربر با ChatGPT را تعیین نکردند. طبق سند کنترل‌های والدین به‌روزرسانی شده شرکت OpenAI اکنون از طبقه‌بندی‌کننده‌های خودکار برای ارزیابی متن، تصویر و محتوای صوتی در زمان واقعی استفاده می‌کند. این سیستم‌ها برای شناسایی و مسدود کردن محتوای مرتبط با سوء استفاده جنسی از کودکان، فیلتر کردن موضوعات حساس و شناسایی آسیب‌رسانی به خود طراحی شده‌اند. اگر سیستم درخواستی را علامت‌گذاری کند که نشان‌دهنده یک نگرانی جدی ایمنی است، تیم کوچکی از افراد آموزش دیده محتوای پرچم‌گذاری‌شده را بررسی می‌کنند تا مشخص کنند آیا علائمی از «پریشانی حاد» وجود دارد یا خیر، و ممکن است به والدین اطلاع دهند. تورنی گام های اخیر OpenAI به سمت ایمنی، از جمله شفافیت آن در انتشار دستورالعمل ها برای کاربران زیر 18 سال را تحسین کرد. تورنی با اشاره به دستورالعمل‌های فاش شده متا، که نشان می‌دهد شرکت به چت‌بات‌هایش اجازه می‌دهد با بچه‌ها گفتگوهای حسی و عاشقانه داشته باشند، گفت: «همه شرکت‌ها دستورالعمل‌های خط‌مشی خود را به یک شکل منتشر نمی‌کنند. "این نمونه ای از شفافیتی است که می تواند از محققان ایمنی و عموم مردم در درک چگونگی عملکرد این مدل ها و نحوه عملکرد آنها حمایت کند." آدلر روز پنجشنبه به TechCrunch گفت، اگرچه در نهایت، این رفتار واقعی یک سیستم هوش مصنوعی است که اهمیت دارد. او گفت: "من قدردانی می کنم که OpenAI در مورد رفتار مورد نظر فکر می کند، اما مگر اینکه شرکت رفتارهای واقعی را اندازه گیری کند، نیت ها در نهایت فقط کلمات هستند." به عبارت دیگر: آنچه در این اعلامیه گم شده، شواهدی است که نشان می دهد ChatGPT در واقع از دستورالعمل های تعیین شده در مدل Spec پیروی می کند.

یک تغییر پارادایم

A paradigm shift

یک تغییر پارادایم - A paradigm shift

تغییر پارادایم کارشناسان می‌گویند با این دستورالعمل‌ها، به نظر می‌رسد OpenAI از قوانین خاصی مانند SB 243 کالیفرنیا، لایحه‌ای که اخیراً امضا شده است برای تنظیم ربات‌های چت همراه هوش مصنوعی که در سال 2027 اجرایی می‌شود، پیشی بگیرد. خودآزاری یا محتوای صریح جنسی. این لایحه همچنین پلتفرم‌ها را ملزم می‌کند که هر سه ساعت یک بار هشدارهایی را به افراد زیر سن قانونی ارائه دهند و به آنها یادآوری کنند که با یک چت بات صحبت می‌کنند، نه یک شخص واقعی، و آنها باید استراحت کنند. وقتی از او پرسیده شد که ChatGPT هر چند وقت یک‌بار به نوجوانان یادآوری می‌کند که با یک چت بات صحبت می‌کنند و از آن‌ها می‌خواهد استراحت کنند، یک سخنگوی OpenAI جزئیاتی را به اشتراک نمی‌گذارد و فقط گفت که این شرکت مدل‌های خود را آموزش می‌دهد تا خودشان را به عنوان هوش مصنوعی معرفی کنند و به کاربران یادآوری کنند، و یادآوری‌های استراحت را در «جلسات طولانی» اجرا می‌کند. این شرکت همچنین دو منبع جدید سواد هوش مصنوعی را برای والدین و خانواده ها به اشتراک گذاشته است. این نکات شامل شروع مکالمه و راهنمایی برای کمک به والدین برای کمک به والدین با نوجوانان در مورد آنچه که هوش مصنوعی می تواند انجام دهد و نمی تواند انجام دهد، ایجاد تفکر انتقادی، تعیین مرزهای سالم و پیمایش موضوعات حساس است. در مجموع، این اسناد رویکردی را رسمیت می‌بخشد که مسئولیت را با متصدیان به اشتراک می‌گذارد: OpenAI آنچه را که مدل‌ها باید انجام دهند، مشخص می‌کند و به خانواده‌ها چارچوبی برای نظارت بر نحوه استفاده از آن ارائه می‌دهد. تمرکز بر مسئولیت والدین قابل توجه است زیرا منعکس کننده نکات صحبت در دره سیلیکون است. در توصیه‌های خود برای مقررات فدرال هوش مصنوعی که این هفته منتشر شد، شرکت VC آندرسن هوروویتز به جای الزامات محدودکننده، الزامات افشای بیشتری را برای ایمنی کودکان پیشنهاد کرد و مسئولیت‌های والدین را بیشتر تعیین کرد. برخی از اصول OpenAI - در درجه اول ایمنی زمانی که ارزش ها تضاد دارند. سوق دادن کاربران به سمت پشتیبانی در دنیای واقعی؛ تقویت اینکه چت بات یک شخص نیست - به عنوان نرده محافظ نوجوان بیان می شود. اما چندین بزرگسال بر اثر خودکشی جان خود را از دست داده اند و دچار هذیان های تهدید کننده زندگی شده اند، که نیاز به پیگیری آشکار دارد: آیا این پیش فرض ها باید در همه جا اعمال شوند، یا OpenAI آنها را به عنوان معاوضه هایی می بیند که فقط در صورت درگیر شدن خردسالان حاضر به اجرای آن است؟ یک سخنگوی OpenAI در پاسخ به این که رویکرد ایمنی شرکت برای محافظت از همه کاربران طراحی شده است، گفت که مدل Spec تنها یکی از اجزای یک استراتژی چند لایه است. لی می‌گوید که تا کنون با توجه به الزامات قانونی و نیات شرکت‌های فناوری، «غرب وحشی» بوده است. اما او احساس می‌کند قوانینی مانند SB 243 که شرکت‌های فناوری را ملزم می‌کند تا پادمان‌های خود را به طور عمومی افشا کنند، پارادایم را تغییر خواهد داد. لی گفت: «اگر شرکت‌ها اعلام کنند که این پادمان‌ها و مکانیسم‌ها را در وب‌سایت خود دارند، خطرات قانونی اکنون برای شرکت‌ها نمایان می‌شود، اما پس از آن، این پادمان‌ها را رعایت نکنند.» زیرا در این صورت، از دیدگاه شاکی، شما فقط به دعوای حقوقی استاندارد یا شکایات قانونی نگاه نمی کنید، بلکه به شکایات تبلیغاتی بالقوه ناعادلانه و فریبنده نیز توجه می کنید.

پیشنهاد ویژه برای دریافت جدید ترین تحولات هوش مصنوعی

اولین نفری باشید که درباره جدید ترین های هوش مصنوعی، می خوانید!
همین امروز در سایت IWL.IR عضو شوید و از جدیدترین های روز دنیای فن آوری هوش مصنوعی بهره‌مند شوید.