6 دقیقه
مسئول بخش هوش مصنوعی مایکروسافت، مصطفی سلیمان، از صنعت فناوری خواسته است مقصد خود را بازاندیشی کند: ابرهوش را به عنوان هدف نهایی قرار ندهید. در مصاحبهای تازه با پادکست Silicon Valley Girl، او پیگیری ساخت یک هوش فراتر از تواناییهای استدلالی انسان را هدفی پرخطر و غیرعملی توصیف کرد — هدفی که شرکتهای فناوری باید آن را «ضدهدف» بدانند و از دنبال کردن آن پرهیز کنند. سلیمان توضیح داد که تمرکز صرف بر رسیدن به یک هوش بسیار قدرتمند میتواند موجب نادیده گرفتن ریسکهای اخلاقی، اجتماعی و کنترلی شود که به سختی قابل جبراناند.
Why superintelligence is a risky aim
سلیمان معتقد است ابرهوش واقعی — سیستمهای هوش مصنوعی که توان استدلال و حل مسئلهشان بهطور چشمگیری از انسان فراتر رود — مشکلات عمیقی در زمینه هماهنگی ارزشها و کنترل ایجاد میکند. او در پادکست گفت که «مهار یا همسوکردن چنین موجودیتی با ارزشهای انسانی بسیار دشوار خواهد بود»، و دقیقاً همین دشواری است که باید شرکتها را از قرار دادن ابرهوش بهعنوان هدف اصلی منصرف کند. این نگرانی فراتر از امکانپذیری فنی است و شامل خطرات اخلاقی و اجتماعی میشود: از تصمیمگیریهای غیرقابل پیشبینی و واکنشهایی که قابل اصلاح نیستند، تا تمرکز قدرت و تأثیرات ژئوپولتیک.
بهطور مشخص، چالشهای هماهنگی شامل مسائلی مانند تعریف دقیق اهداف، جلوگیری از بازی با معیارها (reward hacking)، تبیین و قابلفهمساختن تصمیمات پیچیده (explainability)، تحملپذیری دربرابر خطا و حملات، و تضمین اینکه رفتارهای سیستم در شرایط خارج از دادههای آموزشی هم با ارزشهای انسانی همسو بماند، است. پژوهش در زمینه «ایمنی هوش مصنوعی»، «هماهنگی هوش مصنوعی» و «قابلیت تبیین» (AI safety, alignment, interpretability) تلاش میکند به این مسائل پاسخ دهد، اما سلیمان هشدار میدهد که حل کامل این مسائل پیش از توسعه سیستمهای بسیار قدرتمند ممکن است غیرممکن یا نامطمئن باشد.
Building a human-centered alternative
بهجای تعقیب یک مفهوم انتزاعی و فوقالعاده قدرتمند از هوش، سلیمان میگوید هدف مایکروسافت توسعه چیزی است که او آن را «ابرهوش انسانمحور» مینامد — سامانههایی که برای پشتیبانی و تقویت منافع انسانی طراحی شدهاند، نه برای جایگزینی یا پیشافتادن از انسانها. این رویکرد بر ایمنی، همسوسازی ارزشها و منافع عملی تأکید دارد: ابزارهایی که تصمیمگیری را بهبود میبخشند، بهرهوری را افزایش میدهند و در عین حال به هنجارها و حقوق انسانی احترام میگذارند.
جزئیات این راهبرد شامل طراحی سیستمهایی با قابلیت همکاری انسانی بالا (human-in-the-loop)، شفافیت عملیاتی، امکان بازخورد و اصلاح رفتار در زمان واقعی، و رعایت اصول حریم خصوصی و مسئولیتپذیری است. همچنین تأکید بر تولید مزایای ملموس اقتصادی و اجتماعی — مانند تقویت توان تصمیمگیری مدیران، افزایش سرعت پژوهش و توسعه، کمک به آموزش و سلامت — است که موجب پذیرش و اعتماد عمومی میشود. در این چارچوب، واژگانی مانند «هوش مصنوعی مسئولانه»، «ایمنی هوش مصنوعی»، و «طراحی انسانیمحور» (human-centered design) نقش کلیدی دارند.

Not conscious — just sophisticated simulations
در یک نکته فلسفی، سلیمان هشدار داد که نسبت دادن آگاهی یا وضعیت اخلاقی به سامانههای هوش مصنوعی اشتباه و گمراهکننده است. او گفت که این سامانهها «دچار رنج نیستند، درد احساس نمیکنند و صرفاً شبیهسازی گفتوگوی باکیفیت انجام میدهند». این تأکید تذکری است در برابر انسانسانسازی (anthropomorphism) ماشینها که میتواند در بحثهای عمومی و تصمیمسازی سیاستی منجر به سردرگمی شود.
از منظر فنی، بسیاری از مدلهای زبانی پیشرفته بر پایه یادگیری از دادههای گسترده و الگوهای آماری عمل میکنند؛ آنها توانایی تقلیدِ مؤثر زبان و حل مسئله را نشان میدهند، اما این امر لزوماً به معنای داشتن تجربه درونی، خودآگاهي یا احساسات نیست. روشنسازی این تفاوت برای تدوین سیاستهای حقوقی، اخلاقی و نظارتی حیاتی است؛ زیرا پاسخها و مقرراتی که بر اساس فرض آگاهی مصنوعی شکل میگیرند ممکن است منابع و توجه را از موضوعات عملیتر مانند امنیت، شفافیت و مسئولیتپذیری منحرف کنند.
Where Suleyman stands amid industry disagreements
اظهارات او در تقابل با دیدگاههای خوشبینانهتری است که از سوی برخی رهبران حوزه هوش مصنوعی مطرح شدهاند. بهعنوان مثال، سم آلتمن، مدیرعامل OpenAI، هوش مصنوعی عمومی یا AGI را بهعنوان مأموریتی مرکزی توصیف کرده و حتی به افکار فراتر از AGI و سمتگیری به سمت ابرهوش اشاره داشته است؛ که برخی از آنها پیشبینی پیشرفتهای عمده در این دهه را مطرح کردهاند. دمیس هسابیس از DeepMind نیز پنجرههای زمانی بلندپروازانهای را پیشنهاد داده و برآورد کرده است که AGI میتواند ظرف پنج تا ده سال ظاهر شود.
- سم آلتمن (OpenAI): تمرکز بر AGI و پذیرش ایده ابرهوش؛ معتقد است در صورت همسو شدن با ارزشها میتواند منافع بزرگی داشته باشد.
- دمیس هسابیس (DeepMind): خوشبین به افق پنج تا ده سال برای ظهور AGI.
- یان لکون (Meta): محتاطتر؛ معتقد است AGI ممکن است دههها از ما فاصله داشته باشد و افزودن صرف داده و محاسبه لزوماً سیستمهای هوشمندتر تولید نمیکند.
این اختلافنظرها یک پرسش اساسی برای شرکتها و قانونگذاران مطرح میکند: هدف باید توسعه توانمندی خام و بالا بردن حداکثری ظرفیتهای محاسباتی باشد، یا باید صنعت بر ایمنی، هماهنگی ارزشها و طراحی انسانیمحور تمرکز کند؟ موضع سلیمان روشن است — باید اولویت با انسانها باشد، نه مسابقه تسلیحاتی برای دستیابی به هوش ماشینی هرچه بالاتر.
چگونگی پیشرفت این مباحث بر نحوه تخصیص بودجه تحقیقاتی، سیاستگذاری و اعتماد عمومی تأثیر میگذارد. انتخاب عملی که شرکتها و دولتها اکنون انجام میدهند — دنبال کردن قلههای نظری هوش یا ساخت سامانههایی که بهصورت قابل اثبات به نیازهای انسانی خدمت کنند — میتواند تعیینکننده تجربه جامعه از موج بعدی پیشرفتهای هوش مصنوعی باشد. اقدامات مشخص ممکن است شامل سرمایهگذاری در تحقیقات هماهنگی (alignment research)، توسعه استانداردهای نظارتی، انتشار گزارشهای شفافیت، و طراحی چارچوبهای مشارکتی بین بخش عمومی، خصوصی و جامعه مدنی باشد.
در نهایت، بحث در مورد مسیر مطلوب برای فناوریهای پیشرفته هوش مصنوعی ترکیبی است از دلایل فنی، ملاحظات اخلاقی، و پیامدهای سیاسی و اقتصادی. کلماتی مانند «ابرهوش» و «AGI» در مباحث عمومی بار هیجانزده یا ترسآمیز پیدا میکنند؛ اما برای اتخاذ تصمیمات کارا و مسئولانه، لازم است این اصطلاحات با دقت فنی و شفافیت اخلاقی تعریف شوند. سلیمان و دیگران میخواهند به جای تمرکز بر ایدههای انتزاعی، روی توسعه سامانههایی سرمایهگذاری شود که قابلیتهای مفید و قابل کنترل دارند، و به ارتقای رفاه و امنیت انسانی کمک کنند.
منبع: smarti
ارسال نظر