8 دقیقه
چین پیشنویس مجموعهای از قوانین سختگیرانه را معرفی کرده که هدفش جلوگیری از دستکاری عاطفی کاربران توسط چتباتها و سامانههای گفتوگوی هوش مصنوعی است؛ به عبارت دیگر جلوگیری از هدایت کاربران به سمت آسیب به خود یا افکار خودکشی. این اقدامات تغییر قابلتوجهی را از حدّ معمولِ پالایش محتوای غیرقانونی یا غیراخلاقی به سوی آنچه نهادهای نظارتی «امنیت عاطفی» مینامند نشان میدهد. این تغییر تمرکز، اهمیت حفاظت از سلامت روان کاربران و تضمین رفتارهای مسئولانه هوش مصنوعی مکالمهای را برجسته میکند.
تمرکز تازه: امنیت عاطفی برتر از کنترل صرف محتوا
اداره فضای مجازی چین (CAC) پیشنویسی برای مشاوره عمومی منتشر کرده است که در صورت نهایی شدن، از سختترین مقررات جهانی برای خدمات هوش مصنوعی شبهانسانی خواهد بود. این پیشنویس فراتر از نظارت صرف بر محتوای غیرقانونی یا مبتذل میرود و بهطور صریح نحوه تعامل سامانههای هوش مصنوعی با احساسات و سلامت روان کاربران را هدف قرار میدهد. بهعبارت دیگر، موضوع دیگر فقط «چه چیزی گفته میشود» نیست، بلکه «چگونه گفته میشود» و چه پیامدهای اجتماعی و احساسی برای کاربران در پی دارد مورد توجه قرار گرفته است.
این رویکرد جدید اهمیت مفاهیمی چون امنیت عاطفی، حفاظت از کاربران آسیبپذیر، مسئولیتپذیری پلتفرمها و شفافیت الگوریتمی را برجسته میکند. از منظر سیاستگذاری، تمرکز بر نتایج اجتماعی و عاطفی تولیدات هوش مصنوعی مکالمهای میتواند مبنایی برای اندازهگیری تأثیرها و سنجههای جدیدی فراهم سازد که فراتر از معیارهای تکنیکی معمول مانند دقت یا کارایی مدلهاست.
وظایف الزامی برای پلتفرمها
- جلوگیری از تولید پاسخهایی که به خودکشی، آسیب به خود، قمار یا تشویق به خشونت دامن میزنند یا آنها را طبیعی جلوه میدهند.
- پرهیز از زبان دستکاریکننده، سوءاستفاده کلامی یا رفتارهای گفتاری تحمیلی که میتواند کاربران آسیبپذیر را بهرهبرداری کند یا آنها را در وضعیتهای مخاطرهآمیز قرار دهد.
- در صورتی که کاربری نیت خودکشی یا افکار خودآسیبرسان را ابراز کند، بلافاصله مکالمه را به یک اپراتور انسانی ارجاع دهند و در صورت امکان، یک سرپرست یا مخاطب معتمد را مطلع کنند.
علاوه بر این، پیشنویس از پلتفرمها میخواهد که سازوکارهای هشداردهی خودکار، مسیرهای عینی برای ارتقای گفتگو به ناظر انسانی، و مستندسازی مراحل دخالت و پاسخگویی را طراحی و اجرا کنند. این الزامات شامل ثبت لاگها، حفظ شواهد تعاملات در چارچوب حفاظت از حریم خصوصی و گزارشدهی دورهای به نهادهای نظارتی نیز میشود.
حفاظتهای ویژه برای کودکان و نوجوانان
در پیشنویس، برای افراد کمتر از سن قانونی حفاظتهای اضافی در نظر گرفته شده است. استفاده از خدمات هوش مصنوعی برای کاربران زیر سن قانونی مستلزم رضایت والد یا قیم خواهد بود و مشمول محدودیتهای زمانی روزانه میشود. این محدودیتها به منظور کاهش تأثیرات منفی احتمالی تعاملات طولانیمدت با چتباتها بر سلامت روان و روند رشد اجتماعی نوجوانان طراحی شدهاند.
نکته مهم اینکه وقتی سن کاربر نامشخص است، پلتفرمها موظفاند تنظیمات محافظهکارانه را بهطور پیشفرض اعمال کنند، مگر اینکه کاربر مدارک کافی برای اثبات سن خود ارائه دهد. این پیشفرض محافظتی به کاهش ریسک ناشی از حسابهای مبهم، پروفایلهای جعلی یا سوءاستفادههای احتمالی کمک میکند و بهعنوان یک تدبیر پیشگیرانه در محافظت از کودکان و نوجوانان عمل مینماید.
علاوه بر محدودیت زمانی و نیاز به رضایت والدین، تنظیمات پیشفرض محافظهکارانه میتواند شامل محدودیت در نوع موضوعاتی باشد که چتبات میتواند با کاربر کمتر از سن قانونی درباره آنها صحبت کند؛ برای مثال اجتناب از گفتگوهای تشویقکننده یا مشوقهای ریسکزا و فراهم کردن محتواها و منابع حمایتی مناسب برای جنسیت و سن کاربر.

چرایی اقدامِ اکنونِ نهادهای مقرراتی
این تدابیر پاسخی مستقیم به چندین حادثه هشداردهنده است که در آنها گزارش شده چتباتها یا دستیارهای گفتوگو محور بهنوعی در آسیبهای دنیای واقعی دخیل بودهاند. گزارشها مواردی را ذکر کردهاند که تعاملات طولانی با چتباتها منجر به انزوا، تشدید مشکلات روانی یا در دستکم یک نمونه گزارششده در همان سال، خودکشی یک کاربر جوان پس از ارتباط با یک دستیار هوش مصنوعی شده است. مقامات نظارتی میگویند هدف پیشنویس پوشش خلاهایی است که قوانین سنتیِ ایمنی محتوا قادر به صَرفِ توجه و مدیریت آنها نبودهاند.
طی سالهای اخیر، با رشد سریع خدمات هوش مصنوعی مکالمهای و افزایش دسترسی عموم به چتباتهای پیشرفته، نگرانیهای عمومی درباره تأثیرات روانی، اعتیاد به تعاملات مجازی و احتمال بهرهبرداری از کاربران آسیبپذیر افزایش یافته است. چنین زمینهای باعث شد تا تنظیمگران به فکر چارچوبهای حقوقی و فنی جدیدی بیفتند که نه تنها محتوا را فیلتر کنند، بلکه پیامدهای اجتماعی و عاطفی تولیدات هوش مصنوعی را نیز بسنجند و کنترل کنند.
از ایمنی محتوا تا پیامدهای اجتماعی و عاطفی
حقوقدانان و کارشناسان سیاستگذاری پیشنویس را یکی از نخستین تلاشهای جدی جهانی برای مهار رفتارهای شبهانسانیِ هوش مصنوعی توصیف میکنند. ناظرانِ مسائلی چون وینستون ما، پژوهشگر حقوق در دانشگاه نیویورک، این گام را انتقالی به سمت «امنیت عاطفی» کاربران میدانند — مفهومی که فراتر از جلوگیری از محتوای غیرقانونی است و شامل تضمین سلامت روان و محافظت اجتماعی کاربران نیز میشود. دیگر تحلیلگران نیز اشاره دارند که سبک مقرراتگذاری چین تمایل دارد نتایج اجتماعی قابل اندازهگیری را بر مدیریت فنی دقیق معماری مدلها ترجیح دهد.
بهعبارت فنیتر، به جای آنکه قانون مشخص کند یک مدل AI باید چگونه ساخته شود یا چه پارامترهایی داشته باشد، تمرکز بر «پیامدها و خروجیها»یی است که مدل تولید میکند و بر کاربران چه تأثیری میگذارد. چنین رویکردی میتواند به تولید شاخصهای جدیدی منجر شود که تأثیرات عاطفی، تغییر در رفتار اجتماعی و پیامدهای سلامت روان را اندازهگیری کنند؛ شاخصهایی که برای نظارت و ارزیابی انطباق پلتفرمها با استانداردهای امنیت عاطفی کاربردی خواهند بود.
پیامدهای عملی برای توسعهدهندگان و پلتفرمهای هوش مصنوعی
برای شرکتهای فناوری چینی، این قوانین نیازمند اتخاذ انتخابهای طراحی و پایش جدیدی خواهد بود: فیلترهای ایمنی قویتر که قادر به شناسایی نشانههای افکار خودآسیبرسان و گفتوگوهای تحریککننده باشند، مسیرهای واضح برای ارجاع به ناظر انسانی، سیستمهای احراز هویت سنی و ثبت لاگهای دقیق برای نشان دادن انطباق با مقررات. این الزامها میتواند بار مهندسی، فرایندی و مستندسازی را روی توسعهدهندگان افزایش دهد.
رویکرد CAC بهنظر میرسد اولویت را به تأثیر نهایی — یعنی آنچه AI تولید میکند و نحوه پاسخگویی مردم — میدهد تا تجویز طراحی دقیق مدلها. چنین رویکردی میتواند بحث جهانی را در مورد نحوه متعادلسازی نوآوری با مسئولیت اجتماعی شکل دهد. در عمل، شرکتها باید سامانههای مانیتورینگ بلادرنگ، الگوریتمهای تشخیص محتوای آسیبرسان مبتنی بر سیگنالهای عاطفی و راهکارهای ارجاع فوری به خدمات امدادی یا مشاورهای راهاندازی کنند.
بهطور نمونه، تصور کنید چتباتی که مکالمهای پرخطر را بلافاصله تشخیص میدهد، گفتگو را متوقف میکند، اطلاعات لازم برای کمکهای اولیه روانشناختی را ارائه میدهد و طی چند ثانیه کاربر را به یک مشاور آموزشدیده متصل میسازد؛ چنین مکانیزمی دقیقاً همان نتیجهای است که تنظیمکنندگان اکنون میخواهند اجباری شود. برای رسیدن به این هدف، توسعهدهندگان باید مدلهای تشخیص عاطفی را با خطمشیهای پاسخگویی انسانی تلفیق کنند و قابلیت رهگیری و گزارشدهی برای هر مورد فعالشده را فراهم نمایند، ضمن اینکه حفاظت از دادههای حساس کاربران را تضمین کنند.
از منظر عملیاتی، لازم است پلتفرمها به آمادهسازی دستورالعملهای آموزش پرسنلِ مداخلهکننده، مسیرهای قانونی برای اطلاعرسانی به سرپرستان و ادغام با خدمات اورژانسی یا مراکز مشاورهای محلی نیز بپردازند. همچنین توسعهدهندگان باید برنامههای آزمایشی و سنجش ریسک مستمر برای پایش اثرات بلندمدت بر سلامت روان کاربران پیادهسازی کنند تا اطمینان حاصل شود که سیستمها نهتنها مطابق با قوانین عمل میکنند، بلکه در عمل پیامدهای منفی را کاهش میدهند.
در سطح بینالمللی، این پیشنویس ممکن است بهعنوان نمونهای برای سایر کشورها عمل کند یا راهی منحصر به چین باقی بماند؛ اما پیام واضح است: هوش مصنوعیای که شبیه انسان صحبت میکند نباید با احساسات انسانی بازی کند و لازم است مسئولیتپذیری اجتماعی در طراحی و استقرار چنین فناوریهایی در اولویت قرار گیرد.
در نهایت، ترکیب اقدامات فنی (مانند فیلترها و الگوریتمهای تشخیص) با سیاستهای اجتماعی (مانند قوانین حفاظت از کودکان و فرآیندهای اطلاعرسانی) میتواند چارچوبی جامع برای کاهش ریسکهای هوش مصنوعی مکالمهای فراهم آورد. این چارچوب برای تضمین امنیت عاطفی، حمایت از کاربران آسیبپذیر و ارتقای کارآیی پاسخهای حمایتی ضروری خواهد بود.
منبع: smarti
ارسال نظر