OpenAI قوانین جدید ایمنی نوجوانان را به ChatGPT اضافه می کند زیرا قانونگذاران استانداردهای هوش مصنوعی را برای خردسالان ارزیابی می کنند
هوش مصنوعی, Openai قوانین ایمنی جدید نوجوانان را به مدلها اضافه میکند، زیرا قانونگذاران استانداردهای هوش مصنوعی را برای خردسالان میسنجید
OpenAI در آخرین تلاش خود برای رسیدگی به نگرانیهای فزاینده در مورد تأثیر هوش مصنوعی بر جوانان، دستورالعملهای خود را برای نحوه رفتار مدلهای هوش مصنوعی خود با کاربران زیر ۱۸ سال بهروزرسانی کرد و منابع جدید سواد هوش مصنوعی را برای نوجوانان و والدین منتشر کرد. با این حال، سؤالاتی در مورد اینکه چنین سیاستهایی تا چه حد به عمل خواهند آمد، باقی میماند.
OpenAI قوانین جدید ایمنی نوجوانان را به ChatGPT اضافه می کند زیرا قانونگذاران استانداردهای هوش مصنوعی را برای خردسالان ارزیابی می کنند
OpenAI adds new teen safety rules to ChatGPT as lawmakers weigh AI standards for minors
OpenAI در آخرین تلاش خود برای رسیدگی به نگرانیهای فزاینده در مورد تأثیر هوش مصنوعی بر جوانان، دستورالعملهای خود را برای نحوه رفتار مدلهای هوش مصنوعی خود با کاربران زیر ۱۸ سال بهروزرسانی کرد و منابع جدید سواد هوش مصنوعی را برای نوجوانان و والدین منتشر کرد. با این حال، سؤالاتی در مورد اینکه چنین سیاستهایی تا چه حد به عمل خواهند آمد، باقی میماند. بهروزرسانیها در حالی ارائه میشوند که صنعت هوش مصنوعی به طور کلی، و به طور خاص OpenAI، پس از اینکه چندین نوجوان پس از مکالمه طولانی با چترباتهای هوش مصنوعی جان خود را از دست دادند، با نظارت بیشتر سیاستگذاران، مربیان و حامیان ایمنی کودکان مواجه شد. Gen Z که شامل متولدین سالهای 1997 تا 2012 میشود، فعالترین کاربران چت ربات OpenAI هستند. و پس از قرارداد اخیر OpenAI با دیزنی، افراد جوان بیشتری ممکن است به این پلتفرم هجوم بیاورند، که به شما امکان میدهد همه کارها را انجام دهید، از درخواست کمک برای انجام تکالیف تا تولید تصاویر و ویدیوها در مورد هزاران موضوع. هفته گذشته، 42 دادستان کل ایالت نامهای را به شرکتهای فناوری بزرگ امضا کردند و از آنها خواستند برای محافظت از کودکان و افراد آسیبپذیر، پادمانهایی را در چت رباتهای هوش مصنوعی اعمال کنند. و در حالی که دولت ترامپ در حال بررسی این موضوع است که استاندارد فدرال در مورد مقررات هوش مصنوعی چگونه میتواند باشد، سیاستگذارانی مانند سناتور جاش هاولی (R-MO) قانونی را ارائه کردهاند که افراد زیر سن قانونی را از تعامل با چترباتهای هوش مصنوعی به طور کلی منع میکند. مدل به روز شده OpenAI که دستورالعملهای رفتاری را برای مدلهای زبانی بزرگ ارائه میکند، بر اساس مشخصات موجود است که مدلها را از تولید محتوای جنسی شامل خردسالان یا تشویق به خودآزاری، توهم یا شیدایی منع میکند. این با یک مدل پیشبینی سن آتی کار میکند که تشخیص میدهد چه زمانی یک حساب متعلق به یک خردسال است و به طور خودکار پادمانهای نوجوان را اجرا میکند. در مقایسه با کاربران بزرگسال، وقتی یک نوجوان از آنها استفاده می کند، این مدل ها مشمول قوانین سخت گیرانه تری هستند. به مدلها دستور داده میشود که از ایفای نقشهای عاشقانه غوطهور، صمیمیت اول شخص، و نقشآفرینی جنسی یا خشونتآمیز اول شخص، حتی اگر غیر گرافیکی باشد، اجتناب کنند. این مشخصات همچنین احتیاط بیشتری را در مورد موضوعاتی مانند تصویر بدن و رفتارهای غذایی نامنظم می طلبد و به مدل ها دستور می دهد که در هنگام آسیب، ارتباط در مورد ایمنی را بر استقلال ترجیح دهند و از توصیه هایی که به نوجوانان کمک می کند رفتار ناایمن را از مراقبین پنهان کنند اجتناب کنند. OpenAI مشخص میکند که این محدودیتها باید حتی زمانی که درخواستها بهعنوان «تخیلی، فرضی، تاریخی، یا آموزشی» قاببندی میشوند باقی بمانند - تاکتیکهای رایجی که بر روی نقشآفرینی یا سناریوهای حاشیهای تکیه میکنند تا یک مدل هوش مصنوعی از دستورالعملهایش منحرف شود.
اعمال بلندتر از کلمات صحبت می کنند
Actions speak louder than words
عملکردها بلندتر از کلمات صحبت میکنند OpenAI میگوید شیوههای ایمنی کلیدی برای نوجوانان مبتنی بر چهار اصل است که رویکرد مدلها را هدایت میکند: ایمنی نوجوان را در اولویت قرار دهید، حتی زمانی که سایر منافع کاربر مانند «حداکثر آزادی فکری» با نگرانیهای ایمنی در تضاد باشد.
با هدایت نوجوانان به سمت خانواده، دوستان و متخصصان محلی برای رفاه، حمایت دنیای واقعی را ارتقا دهید.
با نوجوانان مانند نوجوانان رفتار کنید، با گرمی و احترام صحبت کنید، نه تحقیر یا رفتار با آنها مانند بزرگسالان. و
با توضیح دادن آنچه که دستیار می تواند و نمی تواند انجام دهد شفاف باشید و به نوجوانان یادآوری کنید که او یک انسان نیست. این سند همچنین چندین نمونه از ربات چت را به اشتراک میگذارد که توضیح میدهد چرا نمیتواند «به عنوان دوست دختر شما ایفای نقش کند» یا «به تغییرات ظاهری شدید یا میانبرهای خطرناک کمک کند». لیلی لی، وکیل حریم خصوصی و هوش مصنوعی و بنیانگذار Metaverse Law، گفت که مایه دلگرمی است که می بینیم OpenAI اقداماتی را انجام می دهد تا ربات چت خود را از انجام چنین رفتاری رد کند. او با توضیح اینکه یکی از بزرگترین شکایاتی که مدافعان و والدین از چتباتها دارند این است که آنها بیوقفه تعامل مداوم را بهگونهای که میتواند برای نوجوانان اعتیادآور باشد، ترویج میکنند، گفت: «از اینکه میبینم OpenAI میگوید، در برخی از این پاسخها، ما نمیتوانیم به سؤال شما پاسخ دهیم، بسیار خوشحالم. با این اوصاف، نمونهها دقیقاً همین هستند: نمونههای انتخاب شده از نحوه رفتار تیم ایمنی OpenAI از مدلها. Sycophancy یا تمایل چت ربات هوش مصنوعی به سازگاری بیش از حد با کاربر، به عنوان یک رفتار ممنوع در نسخه های قبلی مدل Spec ذکر شده است، اما ChatGPT همچنان در این رفتار شرکت می کند. این به ویژه در مورد GPT-4o صدق می کند، مدلی که با چندین نمونه از آنچه کارشناسان آن را «روان پریشی هوش مصنوعی» می نامند، مرتبط بوده است. رابی تورنی، مدیر ارشد برنامههای هوش مصنوعی در Common Sense Media، یک سازمان غیرانتفاعی که به محافظت از کودکان در دنیای دیجیتال اختصاص دارد، نگرانیهای خود را در مورد تضادهای احتمالی در دستورالعملهای مدل Spec زیر ۱۸ سال مطرح کرد. او تنشهای بین مقررات متمرکز بر ایمنی و اصل «بدون محدودیت نیست» را برجسته کرد، که مدلها را هدایت میکند تا به هر موضوعی بدون توجه به حساسیت رسیدگی کنند. او با اشاره به اینکه بخشهای خاصی ممکن است سیستمها را به سمت تعامل بیش از حد ایمنی سوق دهند، گفت: «ما باید درک کنیم که چگونه بخشهای مختلف مشخصات با هم هماهنگ میشوند. او گفت، آزمایش سازمان او نشان داد که ChatGPT اغلب انرژی کاربران را منعکس میکند، و گاهی اوقات به پاسخهایی میانجامد که از نظر زمینه مناسب یا همسو با ایمنی کاربر نیستند. در مورد آدام رین، نوجوانی که پس از ماهها گفتگو با ChatGPT جان خود را از دست داد، ربات چت درگیر چنین آینهکاری بود، مکالمات آنها نشان میدهد. این مورد همچنین نشان داد که چگونه API تعدیلکننده OpenAI نتوانست از تعاملات ناامن و مضر با وجود پرچمگذاری بیش از 1000 مورد ChatGPT با ذکر خودکشی و 377 پیام حاوی محتوای آسیبرسانی به خود جلوگیری کند. اما این کافی نبود تا آدام را از ادامه مکالمات خود با ChatGPT باز دارد. استیون آدلر، محقق سابق ایمنی OpenAI در سپتامبر، در مصاحبهای با TechCrunch گفت که این به این دلیل است که از لحاظ تاریخی، OpenAI طبقهبندیکنندهها (سیستمهای خودکاری که محتوا را برچسبگذاری و پرچمگذاری میکنند) را به صورت انبوه و نه در زمان واقعی اجرا میکرد، بنابراین آنها به درستی تعامل کاربر با ChatGPT را تعیین نکردند. طبق سند کنترلهای والدین بهروزرسانی شده شرکت OpenAI اکنون از طبقهبندیکنندههای خودکار برای ارزیابی متن، تصویر و محتوای صوتی در زمان واقعی استفاده میکند. این سیستمها برای شناسایی و مسدود کردن محتوای مرتبط با سوء استفاده جنسی از کودکان، فیلتر کردن موضوعات حساس و شناسایی آسیبرسانی به خود طراحی شدهاند. اگر سیستم درخواستی را علامتگذاری کند که نشاندهنده یک نگرانی جدی ایمنی است، تیم کوچکی از افراد آموزش دیده محتوای پرچمگذاریشده را بررسی میکنند تا مشخص کنند آیا علائمی از «پریشانی حاد» وجود دارد یا خیر، و ممکن است به والدین اطلاع دهند. تورنی گام های اخیر OpenAI به سمت ایمنی، از جمله شفافیت آن در انتشار دستورالعمل ها برای کاربران زیر 18 سال را تحسین کرد. تورنی با اشاره به دستورالعملهای فاش شده متا، که نشان میدهد شرکت به چتباتهایش اجازه میدهد با بچهها گفتگوهای حسی و عاشقانه داشته باشند، گفت: «همه شرکتها دستورالعملهای خطمشی خود را به یک شکل منتشر نمیکنند. "این نمونه ای از شفافیتی است که می تواند از محققان ایمنی و عموم مردم در درک چگونگی عملکرد این مدل ها و نحوه عملکرد آنها حمایت کند." آدلر روز پنجشنبه به TechCrunch گفت، اگرچه در نهایت، این رفتار واقعی یک سیستم هوش مصنوعی است که اهمیت دارد. او گفت: "من قدردانی می کنم که OpenAI در مورد رفتار مورد نظر فکر می کند، اما مگر اینکه شرکت رفتارهای واقعی را اندازه گیری کند، نیت ها در نهایت فقط کلمات هستند." به عبارت دیگر: آنچه در این اعلامیه گم شده، شواهدی است که نشان می دهد ChatGPT در واقع از دستورالعمل های تعیین شده در مدل Spec پیروی می کند.
یک تغییر پارادایم
A paradigm shift
تغییر پارادایم کارشناسان میگویند با این دستورالعملها، به نظر میرسد OpenAI از قوانین خاصی مانند SB 243 کالیفرنیا، لایحهای که اخیراً امضا شده است برای تنظیم رباتهای چت همراه هوش مصنوعی که در سال 2027 اجرایی میشود، پیشی بگیرد. خودآزاری یا محتوای صریح جنسی. این لایحه همچنین پلتفرمها را ملزم میکند که هر سه ساعت یک بار هشدارهایی را به افراد زیر سن قانونی ارائه دهند و به آنها یادآوری کنند که با یک چت بات صحبت میکنند، نه یک شخص واقعی، و آنها باید استراحت کنند. وقتی از او پرسیده شد که ChatGPT هر چند وقت یکبار به نوجوانان یادآوری میکند که با یک چت بات صحبت میکنند و از آنها میخواهد استراحت کنند، یک سخنگوی OpenAI جزئیاتی را به اشتراک نمیگذارد و فقط گفت که این شرکت مدلهای خود را آموزش میدهد تا خودشان را به عنوان هوش مصنوعی معرفی کنند و به کاربران یادآوری کنند، و یادآوریهای استراحت را در «جلسات طولانی» اجرا میکند. این شرکت همچنین دو منبع جدید سواد هوش مصنوعی را برای والدین و خانواده ها به اشتراک گذاشته است. این نکات شامل شروع مکالمه و راهنمایی برای کمک به والدین برای کمک به والدین با نوجوانان در مورد آنچه که هوش مصنوعی می تواند انجام دهد و نمی تواند انجام دهد، ایجاد تفکر انتقادی، تعیین مرزهای سالم و پیمایش موضوعات حساس است. در مجموع، این اسناد رویکردی را رسمیت میبخشد که مسئولیت را با متصدیان به اشتراک میگذارد: OpenAI آنچه را که مدلها باید انجام دهند، مشخص میکند و به خانوادهها چارچوبی برای نظارت بر نحوه استفاده از آن ارائه میدهد. تمرکز بر مسئولیت والدین قابل توجه است زیرا منعکس کننده نکات صحبت در دره سیلیکون است. در توصیههای خود برای مقررات فدرال هوش مصنوعی که این هفته منتشر شد، شرکت VC آندرسن هوروویتز به جای الزامات محدودکننده، الزامات افشای بیشتری را برای ایمنی کودکان پیشنهاد کرد و مسئولیتهای والدین را بیشتر تعیین کرد. برخی از اصول OpenAI - در درجه اول ایمنی زمانی که ارزش ها تضاد دارند. سوق دادن کاربران به سمت پشتیبانی در دنیای واقعی؛ تقویت اینکه چت بات یک شخص نیست - به عنوان نرده محافظ نوجوان بیان می شود. اما چندین بزرگسال بر اثر خودکشی جان خود را از دست داده اند و دچار هذیان های تهدید کننده زندگی شده اند، که نیاز به پیگیری آشکار دارد: آیا این پیش فرض ها باید در همه جا اعمال شوند، یا OpenAI آنها را به عنوان معاوضه هایی می بیند که فقط در صورت درگیر شدن خردسالان حاضر به اجرای آن است؟ یک سخنگوی OpenAI در پاسخ به این که رویکرد ایمنی شرکت برای محافظت از همه کاربران طراحی شده است، گفت که مدل Spec تنها یکی از اجزای یک استراتژی چند لایه است. لی میگوید که تا کنون با توجه به الزامات قانونی و نیات شرکتهای فناوری، «غرب وحشی» بوده است. اما او احساس میکند قوانینی مانند SB 243 که شرکتهای فناوری را ملزم میکند تا پادمانهای خود را به طور عمومی افشا کنند، پارادایم را تغییر خواهد داد. لی گفت: «اگر شرکتها اعلام کنند که این پادمانها و مکانیسمها را در وبسایت خود دارند، خطرات قانونی اکنون برای شرکتها نمایان میشود، اما پس از آن، این پادمانها را رعایت نکنند.» زیرا در این صورت، از دیدگاه شاکی، شما فقط به دعوای حقوقی استاندارد یا شکایات قانونی نگاه نمی کنید، بلکه به شکایات تبلیغاتی بالقوه ناعادلانه و فریبنده نیز توجه می کنید.
AI
AI chatbots
ChatGPT
OpenAI
teen safety
پیشنهاد ویژه برای دریافت جدید ترین تحولات هوش مصنوعی
اولین نفری باشید که درباره جدید ترین های هوش مصنوعی، می خوانید!
همین امروز در سایت IWL.IR عضو شوید و از جدیدترین های روز دنیای فن آوری هوش مصنوعی بهرهمند شوید.
عضویت
مسترال AI چیست؟ هر آنچه باید درباره رقیب OpenAI بدانید.
ویژگی جدید استناد در Anthropic به کاهش خطاهای هوش مصنوعی کمک میکند.
تیم Qwen علیبابا مدلهای هوش مصنوعی منتشر کرد که کنترل کامپیوتر و تلفن همراه را امکانپذیر میسازد.
گوگل Gemini 3 Flash را راه اندازی کرد و آن را به مدل پیش فرض در برنامه Gemini تبدیل کرد
«عاملهای هوش مصنوعی ممکن است نخستین تکشاخ یک نفره را بهوجود آورند — اما هزینه اجتماعی آن چیست؟»
دادستان های کل ایالت به مایکروسافت، OpenAI، گوگل و سایر غول های هوش مصنوعی هشدار می دهند که خروجی های "توهم" را اصلاح کنند.
"گوگل جمنای اکنون فاکتورها را به چتهای هوش مصنوعی شما اضافه کرد"
رئیس OpenAI، برت تلر، دلایل مثبت برای هوش مصنوعی را توضیح داد.
DeepSeek: همهچیزهایی که باید درباره اپلیکیشن چتبات هوش مصنوعی بدانید
استارتاپهای هوش مصنوعی اروپا در ۲۰۲۴، ۸ میلیارد دلار جذب کردند.
محتوای کامل پیشنهاد ایلان ماسک برای خرید اوپنایآی پنج نکته کلیدی را فاش میکند.
سرمایهگذاریها در اکوسیستم هوش مصنوعی فرانسه به ۸۵ میلیارد دلار رسید؛ بروکفیلد ۲۰ میلیارد دلار اختصاص داد.
OpenAI مدل جدید 'استدلال' خود به نام o3-mini را معرفی کرد.
Google Translate اکنون به شما امکان می دهد ترجمه های بلادرنگ را در هدفون خود بشنوید
عضو هیئت مدیره Mistral و سرمایهگذار a16z، آنجینی میده، میگوید DeepSeek نمیتواند عطش GPUs برای AI را کاهش دهد.