سیستمهای هوش مصنوعی با «ریسک غیرقابل قبول» در اتحادیه اروپا اکنون ممنوع شدند.
هوش مصنوعی, سیستم های هوش مصنوعی با خطر غیرقابل قبول اکنون در
از روز یکشنبه، مقامات اتحادیه اروپا میتوانند استفاده از سیستمهای هوش مصنوعی که ریسک یا آسیب "غیرقابل پذیرش" دارند را ممنوع کنند.
سیستمهای هوش مصنوعی با ریسک "غیرقابل قبول" در اتحادیه اروپا ممنوع شدند.
AI systems with ‘unacceptable risk’ are now banned in the EU
از روز یکشنبه، قواعد اتحادیه اروپا به نهادهای نظارتی این امکان را میدهد که استفاده از سیستمهای هوش مصنوعی را که آنها را خطرناک و غیرقابل قبول میدانند، ممنوع کنند. مهلت نخست برای رعایت قوانین قانون هوش مصنوعی اتحادیه اروپا، که یک چارچوب جامع برای تنظیم هوش مصنوعی است، ۲ فوریه ۲۰۲۴ تعیین شده است. این قانون در اول اوت بهطور رسمی اجرایی شد و اکنون اولین مهلت برای رعایت آن فرا رسیده است. جزئیات این قانون در ماده ۵ شرح داده شده است، اما به طور کلی، این قانون به پوشش انواع مختلف استفادهها از هوش مصنوعی که ممکن است با افراد در ارتباط باشد، طراحی شده است. این موارد شامل برنامههای مصرفی و محیطهای فیزیکی میشود. بر اساس رویکرد اتحادیه، چهار سطح کلی از ریسک تعریف شده است: (۱) ریسک کم (مانند فیلترهای اسپم ایمیل) که نیاز به نظارت ندارد؛ (۲) ریسک محدود که شامل چتباتهای خدمات مشتری است و فقط ناظرینی سبکمدار دارد؛ (۳) ریسک بالا که مثال آن هوش مصنوعی برای توصیههای بهداشتی است و نیاز به نظارت سنگین دارد؛ و (۴) برنامههای با ریسک غیرقابل قبول که در این ماه بر رعایت آنها تأکید شده و به طور کامل ممنوع هستند. برخی از فعالیتهای غیرقابل قبول شامل موارد زیر میباشد: - استفاده از هوش مصنوعی برای امتیازدهی اجتماعی (مانند ایجاد پروفایلهای ریسک بر اساس رفتار فرد). - هوش مصنوعی که تصمیمات افراد را بهصورت ناآشکار یا فریبنده تغییر میدهد. - هوش مصنوعی که از آسیبپذیریها مانند سن، ناتوانی یا وضعیت اقتصادی سوءاستفاده میکند. - هوش مصنوعی که تلاش میکند تا با توجه به ظاهر افراد پیشبینیهایی در مورد ارتکاب جرم انجام دهد. - هوش مصنوعی که از بیومتریکها برای استنتاج ویژگیهای فردی، مانند گرایش جنسی استفاده میکند. - هوش مصنوعی که در مکانهای عمومی دادههای بیومتریک “زمان واقعی” جمعآوری میکند برای اهداف اجرای قانون. - هوش مصنوعی که سعی در استنتاج احساسات افراد در محیط کار یا مدرسه دارد. - هوش مصنوعی که پایگاههای داده شناسایی چهره را با جمعآوری تصاویر از اینترنت یا دوربینهای امنیتی ایجاد یا گسترش میدهد. شرکتهایی که مشخص شود از هر یک از این برنامههای هوش مصنوعی در اتحادیه اروپا استفاده میکنند، مشمول جریمه خواهند شد، صرف نظر از اینکه در کجا مستقر هستند. این جریمه میتواند تا ۳۵ میلیون یورو (~۳۶ میلیون دلار) یا ۷٪ از درآمد سالانه آنها از سال مالی گذشته باشد، هرکدام بیشتر باشد. به گفته راب سامروی، رئیس فناوری در دفتر حقوقی بریتانیایی Slaughter and May در مصاحبهای با TechCrunch، این جریمهها تا مدتی اعمال نخواهد شد. "سازمانها باید تا ۲ فوریه کاملاً به قوانین پایبند باشند، اما... مهلت بزرگ بعدی که شرکتها باید به آن توجه کنند، در اوت خواهد بود." سامروی افزود: "تا آن زمان، خواهیم دانست که مقامات ذیصلاح چه کسانی هستند، و جریمهها و تضمینهای اجرایی موثر خواهند شد." برای اطلاعات بیشتر میتوانید به سایت ما در iwl.ir مراجعه کنید.
پیمانهای اولیه
Preliminary pledges
توافقهای مقدماتی موعد ۲ فوریه از جهاتی به عنوان یک رسم و رویه در نظر گرفته میشود. در سپتامبر گذشته، بیش از ۱۰۰ شرکت، توافقنامه هوش مصنوعی اتحادیه اروپا (EU AI Pact) را امضا کردند که یک تعهد داوطلبانه برای شروع به کارگیری اصول قانون هوش مصنوعی (AI Act) پیش از اجرایی شدن آن است. به عنوان بخشی از این توافقنامه، امضاکنندگان — که شامل شرکتهایی مانند آمازون، گوگل و OpenAI بودند — متعهد شدند تا سامانههای هوش مصنوعی که احتمالاً به عنوان سامانههای پرخطر در چارچوب قانون هوش مصنوعی دستهبندی میشوند را شناسایی کنند. برخی از غولهای فناوری، به خصوص متا و اپل، از امضای این توافقنامه خودداری کردند. استارتاپ فرانسوی هوش مصنوعی میستال، یکی از منتقدان برجسته قانون هوش مصنوعی، نیز به این توافق نپیوست. با این حال، این به معنای آن نیست که اپل، متا، میستال یا سایر شرکتهایی که به توافقنامه نپیوستهاند، به تعهدات خود عمل نخواهند کرد — از جمله ممنوعیت سیستمهای با خطر غیرقابل قبول. سامروی به این نکته اشاره میکند که با توجه به ماهیت موارد ممنوعه مطرح شده، بیشتر شرکتها به هر حال به این شیوهها متوسل نخواهند شد. وی میگوید: "برای سازمانها، یکی از نگرانیهای کلیدی در مورد قانون هوش مصنوعی اتحادیه اروپا این است که آیا دستورالعملها، استانداردها و کدهای رفتاری در زمان مناسب ارائه خواهند شد — و به طوری حیاتی، آیا اینها به سازمانها در فراهم کردن وضوح در زمینه تطابق کمک خواهند کرد." او همچنین اشاره کرد که "گروههای کاری تا کنون در تحقق زمانبندیهای خود برای کدهای رفتاری برای توسعهدهندگان موفق بودهاند." به طور کلی، این فرایندها میتواند تأثیرات عمیقی بر روی صنعت فناوری و شیوههای مدیریت هوش مصنوعی در آینده داشته باشد.
معافیتهای ممکن
Possible exemptions
استثنائات ممکن در برخی موارد، استثنائاتی برای ممنوعیتهای موجود در قانون AI وجود دارد. به عنوان مثال، این قانون به نیروی انتظامی اجازه میدهد تا از سیستمهای خاصی که در مکانهای عمومی بیومتریک جمعآوری میکنند، استفاده کند، به شرطی که این سیستمها به انجام "جستجوی هدفمند" برای یافتن فردی مفقودشده یا پیشگیری از تهدیدی "خاص، عمده و قریبالوقوع" به جان انسانها کمک کنند. استفاده از این استثنا نیاز به مجوز از مرجع قانونی مربوطه دارد و قانون تأکید میکند که نیروی انتظامی نمیتواند تصمیمی اتخاذ کند که صرفاً بر اساس خروجیهای این سیستمها "اثرات قانونی منفی" بر فردی داشته باشد. همچنین قانون به استثنائاتی در مورد سیستمهایی که احساسات را در محیطهای کاری و آموزشی استنباط میکنند، اشاره میکند، به شرط آنکه توجیهی "پزشکی یا ایمنی" وجود داشته باشد، مانند سیستمهایی که برای استفادههای درمانی طراحی شدهاند. کمیسیون اروپا، که نماینده اجرایی اتحادیه اروپا است، اعلام کرد که راهنماهای بیشتری را در اوایل سال 2025 منتشر خواهد کرد، پس از مشاوره با ذینفعان در ماه نوامبر. با این حال، این راهنماها هنوز منتشر نشدهاند. سومرو (Sumroy) افزود که هنوز مشخص نیست که چگونه قوانین دیگر با ممنوعیتها و مفاد قانونی مربوط به قانون AI تعامل خواهند داشت. ممکن است شفافیت تا اواخر سال جاری محقق نشود، زیرا دوره اجرای قانون به زودی آغاز خواهد شد. او گفت: "مهم است که سازمانها به خاطر داشته باشند که قوانین مربوط به AI در خلأ وجود ندارند." "چارچوبهای قانونی دیگر، همچون GDPR، NIS2 و DORA، با قانون AI تعامل خواهند داشت و میتوانند چالشهای بالقوهای به ویژه در زمینه الزامات اطلاعرسانی در مورد حوادث مشابه ایجاد کنند. درک نحوه تعامل این قوانین با یکدیگر به همان اندازه مهم است که فهم قانون AI باشد."
AI
AI Act
banned ai
Enterprise
EU AI Act
Generative AI
Government & Policy
prohibited ai systems
پیشنهاد ویژه برای دریافت جدید ترین تحولات هوش مصنوعی
اولین نفری باشید که درباره جدید ترین های هوش مصنوعی، می خوانید!
همین امروز در سایت IWL.IR عضو شوید و از جدیدترین های روز دنیای فن آوری هوش مصنوعی بهرهمند شوید.
عضویت
OpenAI مدل جدید 'استدلال' خود به نام o3-mini را معرفی کرد.
براساس گزارش، 85% کاربران موبایل ChatGPT مرد هستند.
چرا رید هافمن نسبت به آینده هوش مصنوعی خوشبین است؟
احتمال انتشار ابزار عامل OpenAI نزدیک است
گزارش: بیشتر نوجوانان آمریکایی به فناوریهای بزرگ بیاعتماد شدهاند
سام آلتمن: اوپنای آی در زمینه متن باز در "سمت نادرست تاریخ" بوده است.
«عاملهای هوش مصنوعی ممکن است نخستین تکشاخ یک نفره را بهوجود آورند — اما هزینه اجتماعی آن چیست؟»
تیم Qwen علیبابا مدلهای هوش مصنوعی منتشر کرد که کنترل کامپیوتر و تلفن همراه را امکانپذیر میسازد.
عضو هیئت مدیره Mistral و سرمایهگذار a16z، آنجینی میده، میگوید DeepSeek نمیتواند عطش GPUs برای AI را کاهش دهد.
DeepSeek: هر آنچه باید درباره اپلیکیشن چتبات هوش مصنوعی بدانید
تیم MLCommons و Hugging Face همکاری کردند تا دیتاست گستردهای از گفتار برای تحقیقات هوش مصنوعی را منتشر کنند.
سیستمهای هوش مصنوعی با «ریسک غیرقابل قبول» در اتحادیه اروپا اکنون ممنوع شدند.
ویژگی جدید استناد در Anthropic به کاهش خطاهای هوش مصنوعی کمک میکند.
آیا ایالتها در تنظیم مقررات هوش مصنوعی پیشگام خواهند بود؟
برکناری سم آلتمان از اوپنای آی به بخشی از فرهنگ معاصر تبدیل شده است