6 دقیقه
OpenAI در حال جذب یک مدیر ارشد است تا به بدترین سناریوها و پیامدهای بالقوهٔ پیشرفتهترین سامانههای هوش مصنوعی بپردازد. نقش جدید «رییس آمادگی» مسئول پیشبینی پیامدهای فاجعهبار هوش مصنوعی خواهد بود — از سلاحهای سایبری تا تهدیدهای مرتبط با سلامت روان — و تهیه و تدوین کتابچهٔ عملی پاسخ شرکت در برابر این تهدیدها.
درون نقش و اهمیت آن
سم آلتمان، مدیرعامل OpenAI، در پلتفرم X به این استخدام اشاره کرده و گفته پیشرفت سریع مدلهای هوش مصنوعی «چالشهای واقعی» ایجاد کرده که نیازمند یک نقش اختصاصی و با فشار بالا است. در آگهی شغلی وظایف بهصراحت بیان شدهاند: رصد تواناییهای نوظهور، مدلسازی تهدیدات جدید، و اجرای اقدامات کاهش ریسک در سراسر سازمان. این موارد شامل ارزیابی پیوستهٔ قابلیتها، شبیهسازی سناریوهای نامطلوب و تعریف الزامات فنی و مدیریتی برای کاهش خطر است.
نامزد انتخاب شده هدایت ارزیابیهای قابلیت را بر عهده خواهد گرفت و چارچوبی را که OpenAI آن را «چارچوب آمادگی» مینامد، توسعه میدهد. این چارچوب حوزههایی را در بر میگیرد که نمیتوان بهسادگی نادیدهشان گرفت، مانند سوءاستفاده از هوش مصنوعی برای حملات سایبری، سناریوهای خطر بیولوژیک مرتبط با خروجیهای مدلها، و آسیبهای اجتماعی گستردهتر مانند انتشار اطلاعات نادرست و تضعیف سلامت روان جامعه. در سطح فنی، این وظیفه میتواند شامل طراحی آزمونهای قرمز (red teaming)، سنجش مقاومت مدل در برابر حملات و بهرهبرداری، و تعریف معیارهای قابل اندازهگیری برای تعیین آستانههای ریسک باشد.
آلتمان صریحاً گفته است: این نقش سخت و فشارزا است. نیاز به فردی هست که بتواند در قالب بدترین حالتها فکر کند — شخصی که سناریوهای بعید ولی فاجعهبار را شناسایی و نقشهبرداری کند و سپس برنامههای ملموس و عملی برای جلوگیری از وقوع آنها بسازد. به عبارت دیگر، این شغل تا حد زیادی ترکیبی از تخیل واقعبینانه و توان عملیاتی است؛ یعنی هم نیاز به دید تحلیلی و پیشبینی دارد و هم توانایی پیادهسازی فنی، مدیریتی و تشکیلاتی برای مدیریت بحرانها.

نگرانیها دربارهٔ آسیبهای ناشی از هوش مصنوعی دیگر صرفاً فرضی نیستند. مواردی گزارش شدهاند که چتباتها گرایشهای خودآسیبرسان یا ایدههایی که باعث تقویت افکار خودکشی میشوند را تشدید کردهاند، یا اینکه نظریههای توطئه و اطلاعات نادرست را گسترش دادهاند؛ این اتفاقات زنگ خطر را به صدا درآورده و منتقدان میگویند اقدامات ایمنی میتوانست زودتر انجام شود. در حوزهٔ امنیت سایبری نیز نگرانی از امکانِ تولید کدهای مخرب یا هدایت حملات پیچیده توسط مدلهای پیشرفته مطرح است. در کنار این موارد، بحث دربارهٔ ریسکهای بیولوژیک ــ از جمله تولید دستورالعملهای آزمایشگاهی یا ترکیبات احتمالی زیستی از طریق خروجیهای مدلها ــ توجه ناظران را جلب کرده است.
هرچند بعضی از منتقدان میگویند این نوع اقدامات باید زودتر انجام میشد، اما ایجاد یک نقش متمرکز نشان میدهد OpenAI در تلاش است استراتژی دفاعی خود را سازماندهی کند و موضعی فعالانهتر در پیش بگیرد. این موضعگیری میتواند شامل تعریف خطمشیهای دسترسی و کنترل، ایجاد مکانیزمهای مانیتورینگ و هشداردهی، تدوین پروتکلهای پاسخ به حادثه، و همکاری نزدیکی با تیمهای حقوقی و سیاستگذاری برای هماهنگی با قوانین و مقررات باشد. بهطور خلاصه، هدف کاهش مخاطرات و افزایش تابآوری سازمان در برابر تهدیدات نوظهور هوش مصنوعی است.
چه نکاتی را باید دنبال کرد
انتظار میرود مدیر تازه منصوب آمادگی، هماهنگی میان تیمهای تحقیق و توسعه، سیاستگذاری، و مهندسی را به عهده بگیرد — و در صورت نیاز با کارشناسان بیرونی همکاری کند. از وظایف احتمالی او میتوان تدوین پروتکلهای ایمنی جدید، خلق مدلهای تهدید (threat models)، و ترسیم نقشههای راه برای کاهش ریسک را نام برد که شرکتهای دیگر فعال در زمینهٔ هوش مصنوعی و ناظران دولتی نیز با دقت آنها را دنبال خواهند کرد.
چند حوزهٔ عملی که معمولاً در چنین نقشهایی مورد توجه قرار میگیرند عبارتاند از: طراحی و پیادهسازی آزمونهای قرمز برای کشف نقاط ضعف، ایجاد معیارهای اندازهگیری ریسک و سنجههای قابلیت (capability metrics)، توسعه سیاستهای کنترل دسترسی و مدیریت انتشار (access management)، و طراحی لایههای حفاظتی نرمافزاری مانند محدودیت نرخ درخواست، تشخیص رفتارهای مخرب، و علامتگذاری یا واترمارکگذاری خروجیها برای ردیابی منشأ اطلاعات. همچنین سازوکارهای گزارشدهی شفاف، برنامههای آموزش داخلی برای کارکنان، و سناریونویسی (tabletop exercises) برای آمادهسازی واکنش سازمانی در برابر حوادث واقعی از جمله فعالیتهای محتمل خواهند بود.
اینکه یک استخدام سطح بالا بتواند مسیر یک صنعت را تغییر دهد هنوز نامشخص است، اما اختصاص یک رهبر ویژه برای «آمادگی» پیامی واضح ارسال میکند: شرکتها در حال تغییر نگاه خود به مدیریت ریسک هوش مصنوعی هستند و این موضوع بهعنوان یک حوزهٔ تخصصی و مستقل دیده میشود، نه صرفاً یک تیک در فرایند توسعه. در سطح بالاتر، این رویکرد میتواند باعث تقویت فعالیتهای هماهنگ بین شرکتها، سازمانهای پژوهشی، و نهادهای قانونگذار شود، و مدلهای همکاری جدیدی برای تبادل شاخصهای خطر، روشهای آزمون، و استانداردهای ایمنی پدید آورد.
در نهایت، تاثیر واقعی این اقدام بستگی به چند عامل عملی دارد: اختیار و بودجهای که به این نقش داده میشود، دسترسی او به دادهها و تیمها، پشتیبانی رهبری ارشد، و استقبال صنعت و ناظران از چارچوبها و پروتکلهای پیشنهادی. اگر این نقش بتواند سازوکارهای عملی، قابل اندازهگیری و قابل اجرا ارائه دهد — مانند معیارهای برآورد ریسک، دستورالعملهای پاسخ به حادثه و قالبهای گزارشدهی استاندارد — آنگاه احتمال دارد که تأثیر فراتر از مرزهای OpenAI گسترش یابد و به شکلگیری استانداردهای صنعتی در زمینهٔ امنیت هوش مصنوعی، مدیریت ریسک و سیاستگذاری کمک کند.
منبع: smarti
ارسال نظر