چین پیش نویس قوانین سخت برای امنیت عاطفی چت بات ها

چین پیش نویس قوانین سخت برای امنیت عاطفی چت بات ها

نظرات

8 دقیقه

چین پیش‌نویس مجموعه‌ای از قوانین سخت‌گیرانه را معرفی کرده که هدفش جلوگیری از دستکاری عاطفی کاربران توسط چت‌بات‌ها و سامانه‌های گفت‌وگوی هوش مصنوعی است؛ به عبارت دیگر جلوگیری از هدایت کاربران به سمت آسیب به خود یا افکار خودکشی. این اقدامات تغییر قابل‌توجهی را از حدّ معمولِ پالایش محتوای غیرقانونی یا غیراخلاقی به سوی آنچه نهادهای نظارتی «امنیت عاطفی» می‌نامند نشان می‌دهد. این تغییر تمرکز، اهمیت حفاظت از سلامت روان کاربران و تضمین رفتارهای مسئولانه هوش مصنوعی مکالمه‌ای را برجسته می‌کند.

تمرکز تازه: امنیت عاطفی برتر از کنترل صرف محتوا

اداره فضای مجازی چین (CAC) پیش‌نویسی برای مشاوره عمومی منتشر کرده است که در صورت نهایی شدن، از سخت‌ترین مقررات جهانی برای خدمات هوش مصنوعی شبه‌انسانی خواهد بود. این پیش‌نویس فراتر از نظارت صرف بر محتوای غیرقانونی یا مبتذل می‌رود و به‌طور صریح نحوه تعامل سامانه‌های هوش مصنوعی با احساسات و سلامت روان کاربران را هدف قرار می‌دهد. به‌عبارت دیگر، موضوع دیگر فقط «چه چیزی گفته می‌شود» نیست، بلکه «چگونه گفته می‌شود» و چه پیامدهای اجتماعی و احساسی برای کاربران در پی دارد مورد توجه قرار گرفته است.

این رویکرد جدید اهمیت مفاهیمی چون امنیت عاطفی، حفاظت از کاربران آسیب‌پذیر، مسئولیت‌پذیری پلتفرم‌ها و شفافیت الگوریتمی را برجسته می‌کند. از منظر سیاستگذاری، تمرکز بر نتایج اجتماعی و عاطفی تولیدات هوش مصنوعی مکالمه‌ای می‌تواند مبنایی برای اندازه‌گیری تأثیرها و سنجه‌های جدیدی فراهم سازد که فراتر از معیارهای تکنیکی معمول مانند دقت یا کارایی مدل‌هاست.

وظایف الزامی برای پلتفرم‌ها

  • جلوگیری از تولید پاسخ‌هایی که به خودکشی، آسیب به خود، قمار یا تشویق به خشونت دامن می‌زنند یا آن‌ها را طبیعی جلوه می‌دهند.
  • پرهیز از زبان دستکاری‌کننده، سوءاستفاده کلامی یا رفتارهای گفتاری تحمیلی که می‌تواند کاربران آسیب‌پذیر را بهره‌برداری کند یا آن‌ها را در وضعیت‌های مخاطره‌آمیز قرار دهد.
  • در صورتی که کاربری نیت خودکشی یا افکار خودآسیب‌رسان را ابراز کند، بلافاصله مکالمه را به یک اپراتور انسانی ارجاع دهند و در صورت امکان، یک سرپرست یا مخاطب معتمد را مطلع کنند.

علاوه بر این، پیش‌نویس از پلتفرم‌ها می‌خواهد که سازوکارهای هشداردهی خودکار، مسیرهای عینی برای ارتقای گفتگو به ناظر انسانی، و مستندسازی مراحل دخالت و پاسخ‌گویی را طراحی و اجرا کنند. این الزامات شامل ثبت لاگ‌ها، حفظ شواهد تعاملات در چارچوب حفاظت از حریم خصوصی و گزارش‌دهی دوره‌ای به نهادهای نظارتی نیز می‌شود.

حفاظت‌های ویژه برای کودکان و نوجوانان

در پیش‌نویس، برای افراد کمتر از سن قانونی حفاظت‌های اضافی در نظر گرفته شده است. استفاده از خدمات هوش مصنوعی برای کاربران زیر سن قانونی مستلزم رضایت والد یا قیم خواهد بود و مشمول محدودیت‌های زمانی روزانه می‌شود. این محدودیت‌ها به منظور کاهش تأثیرات منفی احتمالی تعاملات طولانی‌مدت با چت‌بات‌ها بر سلامت روان و روند رشد اجتماعی نوجوانان طراحی شده‌اند.

نکته مهم اینکه وقتی سن کاربر نامشخص است، پلتفرم‌ها موظف‌اند تنظیمات محافظه‌کارانه را به‌طور پیش‌فرض اعمال کنند، مگر اینکه کاربر مدارک کافی برای اثبات سن خود ارائه دهد. این پیش‌فرض محافظتی به کاهش ریسک ناشی از حساب‌های مبهم، پروفایل‌های جعلی یا سوءاستفاده‌های احتمالی کمک می‌کند و به‌عنوان یک تدبیر پیشگیرانه در محافظت از کودکان و نوجوانان عمل می‌نماید.

علاوه بر محدودیت زمانی و نیاز به رضایت والدین، تنظیمات پیش‌فرض محافظه‌کارانه می‌تواند شامل محدودیت در نوع موضوعاتی باشد که چت‌بات می‌تواند با کاربر کمتر از سن قانونی درباره آن‌ها صحبت کند؛ برای مثال اجتناب از گفتگوهای تشویق‌کننده یا مشوق‌های ریسک‌زا و فراهم کردن محتواها و منابع حمایتی مناسب برای جنسیت و سن کاربر.

چرایی اقدامِ اکنونِ نهادهای مقرراتی

این تدابیر پاسخی مستقیم به چندین حادثه هشداردهنده است که در آن‌ها گزارش شده چت‌بات‌ها یا دستیارهای گفت‌وگو محور به‌نوعی در آسیب‌های دنیای واقعی دخیل بوده‌اند. گزارش‌ها مواردی را ذکر کرده‌اند که تعاملات طولانی با چت‌بات‌ها منجر به انزوا، تشدید مشکلات روانی یا در دست‌کم یک نمونه گزارش‌شده در همان سال، خودکشی یک کاربر جوان پس از ارتباط با یک دستیار هوش مصنوعی شده است. مقامات نظارتی می‌گویند هدف پیش‌نویس پوشش خلاهایی است که قوانین سنتیِ ایمنی محتوا قادر به صَرفِ توجه و مدیریت آن‌ها نبوده‌اند.

طی سال‌های اخیر، با رشد سریع خدمات هوش مصنوعی مکالمه‌ای و افزایش دسترسی عموم به چت‌بات‌های پیشرفته، نگرانی‌های عمومی درباره تأثیرات روانی، اعتیاد به تعاملات مجازی و احتمال بهره‌برداری از کاربران آسیب‌پذیر افزایش یافته است. چنین زمینه‌ای باعث شد تا تنظیم‌گران به فکر چارچوب‌های حقوقی و فنی جدیدی بیفتند که نه تنها محتوا را فیلتر کنند، بلکه پیامدهای اجتماعی و عاطفی تولیدات هوش مصنوعی را نیز بسنجند و کنترل کنند.

از ایمنی محتوا تا پیامدهای اجتماعی و عاطفی

حقوقدانان و کارشناسان سیاست‌گذاری پیش‌نویس را یکی از نخستین تلاش‌های جدی جهانی برای مهار رفتارهای شبه‌انسانیِ هوش مصنوعی توصیف می‌کنند. ناظرانِ مسائلی چون وینستون ما، پژوهشگر حقوق در دانشگاه نیویورک، این گام را انتقالی به سمت «امنیت عاطفی» کاربران می‌دانند — مفهومی که فراتر از جلوگیری از محتوای غیرقانونی است و شامل تضمین سلامت روان و محافظت اجتماعی کاربران نیز می‌شود. دیگر تحلیل‌گران نیز اشاره دارند که سبک مقررات‌گذاری چین تمایل دارد نتایج اجتماعی قابل اندازه‌گیری را بر مدیریت فنی دقیق معماری مدل‌ها ترجیح دهد.

به‌عبارت فنی‌تر، به جای آنکه قانون مشخص کند یک مدل AI باید چگونه ساخته شود یا چه پارامترهایی داشته باشد، تمرکز بر «پیامدها و خروجی‌ها»یی است که مدل تولید می‌کند و بر کاربران چه تأثیری می‌گذارد. چنین رویکردی می‌تواند به تولید شاخص‌های جدیدی منجر شود که تأثیرات عاطفی، تغییر در رفتار اجتماعی و پیامدهای سلامت روان را اندازه‌گیری کنند؛ شاخص‌هایی که برای نظارت و ارزیابی انطباق پلتفرم‌ها با استانداردهای امنیت عاطفی کاربردی خواهند بود.

پیامدهای عملی برای توسعه‌دهندگان و پلتفرم‌های هوش مصنوعی

برای شرکت‌های فناوری چینی، این قوانین نیازمند اتخاذ انتخاب‌های طراحی و پایش جدیدی خواهد بود: فیلترهای ایمنی قوی‌تر که قادر به شناسایی نشانه‌های افکار خودآسیب‌رسان و گفت‌وگوهای تحریک‌کننده باشند، مسیرهای واضح برای ارجاع به ناظر انسانی، سیستم‌های احراز هویت سنی و ثبت لاگ‌های دقیق برای نشان دادن انطباق با مقررات. این الزام‌ها می‌تواند بار مهندسی، فرایندی و مستندسازی را روی توسعه‌دهندگان افزایش دهد.

رویکرد CAC به‌نظر می‌رسد اولویت را به تأثیر نهایی — یعنی آنچه AI تولید می‌کند و نحوه پاسخ‌گویی مردم — می‌دهد تا تجویز طراحی دقیق مدل‌ها. چنین رویکردی می‌تواند بحث جهانی را در مورد نحوه متعادل‌سازی نوآوری با مسئولیت اجتماعی شکل دهد. در عمل، شرکت‌ها باید سامانه‌های مانیتورینگ بلادرنگ، الگوریتم‌های تشخیص محتوای آسیب‌رسان مبتنی بر سیگنال‌های عاطفی و راهکارهای ارجاع فوری به خدمات امدادی یا مشاوره‌ای راه‌اندازی کنند.

به‌طور نمونه، تصور کنید چت‌باتی که مکالمه‌ای پرخطر را بلافاصله تشخیص می‌دهد، گفتگو را متوقف می‌کند، اطلاعات لازم برای کمک‌های اولیه روان‌شناختی را ارائه می‌دهد و طی چند ثانیه کاربر را به یک مشاور آموزش‌دیده متصل می‌سازد؛ چنین مکانیزمی دقیقاً همان نتیجه‌ای است که تنظیم‌کنندگان اکنون می‌خواهند اجباری شود. برای رسیدن به این هدف، توسعه‌دهندگان باید مدل‌های تشخیص عاطفی را با خط‌مشی‌های پاسخگویی انسانی تلفیق کنند و قابلیت رهگیری و گزارش‌دهی برای هر مورد فعال‌شده را فراهم نمایند، ضمن اینکه حفاظت از داده‌های حساس کاربران را تضمین کنند.

از منظر عملیاتی، لازم است پلتفرم‌ها به آماده‌سازی دستورالعمل‌های آموزش پرسنلِ مداخله‌کننده، مسیرهای قانونی برای اطلاع‌رسانی به سرپرستان و ادغام با خدمات اورژانسی یا مراکز مشاوره‌ای محلی نیز بپردازند. همچنین توسعه‌دهندگان باید برنامه‌های آزمایشی و سنجش ریسک مستمر برای پایش اثرات بلندمدت بر سلامت روان کاربران پیاده‌سازی کنند تا اطمینان حاصل شود که سیستم‌ها نه‌تنها مطابق با قوانین عمل می‌کنند، بلکه در عمل پیامدهای منفی را کاهش می‌دهند.

در سطح بین‌المللی، این پیش‌نویس ممکن است به‌عنوان نمونه‌ای برای سایر کشورها عمل کند یا راهی منحصر به چین باقی بماند؛ اما پیام واضح است: هوش مصنوعی‌ای که شبیه انسان صحبت می‌کند نباید با احساسات انسانی بازی کند و لازم است مسئولیت‌پذیری اجتماعی در طراحی و استقرار چنین فناوری‌هایی در اولویت قرار گیرد.

در نهایت، ترکیب اقدامات فنی (مانند فیلترها و الگوریتم‌های تشخیص) با سیاست‌های اجتماعی (مانند قوانین حفاظت از کودکان و فرآیندهای اطلاع‌رسانی) می‌تواند چارچوبی جامع برای کاهش ریسک‌های هوش مصنوعی مکالمه‌ای فراهم آورد. این چارچوب برای تضمین امنیت عاطفی، حمایت از کاربران آسیب‌پذیر و ارتقای کارآیی پاسخ‌های حمایتی ضروری خواهد بود.

منبع: smarti

ارسال نظر

نظرات

مطالب مرتبط