مصطفی سلیمان: ابرهوش را هدف نهایی ندانیم، راهبرد انسانی

مصطفی سلیمان: ابرهوش را هدف نهایی ندانیم، راهبرد انسانی

نظرات

6 دقیقه

مسئول بخش هوش مصنوعی مایکروسافت، مصطفی سلیمان، از صنعت فناوری خواسته است مقصد خود را بازاندیشی کند: ابرهوش را به عنوان هدف نهایی قرار ندهید. در مصاحبه‌ای تازه با پادکست Silicon Valley Girl، او پیگیری ساخت یک هوش فراتر از توانایی‌های استدلالی انسان را هدفی پرخطر و غیرعملی توصیف کرد — هدفی که شرکت‌های فناوری باید آن را «ضدهدف» بدانند و از دنبال کردن آن پرهیز کنند. سلیمان توضیح داد که تمرکز صرف بر رسیدن به یک هوش بسیار قدرتمند می‌تواند موجب نادیده گرفتن ریسک‌های اخلاقی، اجتماعی و کنترلی شود که به سختی قابل جبران‌اند.

Why superintelligence is a risky aim

سلیمان معتقد است ابرهوش واقعی — سیستم‌های هوش مصنوعی که توان استدلال و حل مسئله‌شان به‌طور چشمگیری از انسان فراتر رود — مشکلات عمیقی در زمینه هماهنگی ارزش‌ها و کنترل ایجاد می‌کند. او در پادکست گفت که «مهار یا همسوکردن چنین موجودیتی با ارزش‌های انسانی بسیار دشوار خواهد بود»، و دقیقاً همین دشواری است که باید شرکت‌ها را از قرار دادن ابرهوش به‌عنوان هدف اصلی منصرف کند. این نگرانی فراتر از امکان‌پذیری فنی است و شامل خطرات اخلاقی و اجتماعی می‌شود: از تصمیم‌گیری‌های غیرقابل پیش‌بینی و واکنش‌هایی که قابل اصلاح نیستند، تا تمرکز قدرت و تأثیرات ژئوپولتیک.

به‌طور مشخص، چالش‌های هماهنگی شامل مسائلی مانند تعریف دقیق اهداف، جلوگیری از بازی با معیارها (reward hacking)، تبیین و قابل‌فهم‌ساختن تصمیمات پیچیده (explainability)، تحمل‌پذیری دربرابر خطا و حملات، و تضمین اینکه رفتارهای سیستم در شرایط خارج از داده‌های آموزشی هم با ارزش‌های انسانی همسو بماند، است. پژوهش در زمینه «ایمنی هوش مصنوعی»، «هماهنگی هوش مصنوعی» و «قابلیت تبیین» (AI safety, alignment, interpretability) تلاش می‌کند به این مسائل پاسخ دهد، اما سلیمان هشدار می‌دهد که حل کامل این مسائل پیش از توسعه سیستم‌های بسیار قدرتمند ممکن است غیرممکن یا نامطمئن باشد.

Building a human-centered alternative

به‌جای تعقیب یک مفهوم انتزاعی و فوق‌العاده قدرتمند از هوش، سلیمان می‌گوید هدف مایکروسافت توسعه چیزی است که او آن را «ابرهوش انسان‌محور» می‌نامد — سامانه‌هایی که برای پشتیبانی و تقویت منافع انسانی طراحی شده‌اند، نه برای جایگزینی یا پیش‌افتادن از انسان‌ها. این رویکرد بر ایمنی، همسوسازی ارزش‌ها و منافع عملی تأکید دارد: ابزارهایی که تصمیم‌گیری را بهبود می‌بخشند، بهره‌وری را افزایش می‌دهند و در عین حال به هنجارها و حقوق انسانی احترام می‌گذارند.

جزئیات این راهبرد شامل طراحی سیستم‌هایی با قابلیت همکاری انسانی بالا (human-in-the-loop)، شفافیت عملیاتی، امکان بازخورد و اصلاح رفتار در زمان واقعی، و رعایت اصول حریم خصوصی و مسئولیت‌پذیری است. همچنین تأکید بر تولید مزایای ملموس اقتصادی و اجتماعی — مانند تقویت توان تصمیم‌گیری مدیران، افزایش سرعت پژوهش و توسعه، کمک به آموزش و سلامت — است که موجب پذیرش و اعتماد عمومی می‌شود. در این چارچوب، واژگانی مانند «هوش مصنوعی مسئولانه»، «ایمنی هوش مصنوعی»، و «طراحی انسانی‌محور» (human-centered design) نقش کلیدی دارند.

Not conscious — just sophisticated simulations

در یک نکته فلسفی، سلیمان هشدار داد که نسبت دادن آگاهی یا وضعیت اخلاقی به سامانه‌های هوش مصنوعی اشتباه و گمراه‌کننده است. او گفت که این سامانه‌ها «دچار رنج نیستند، درد احساس نمی‌کنند و صرفاً شبیه‌سازی گفت‌وگوی باکیفیت انجام می‌دهند». این تأکید تذکری است در برابر انسان‌سان‌سازی (anthropomorphism) ماشین‌ها که می‌تواند در بحث‌های عمومی و تصمیم‌سازی سیاستی منجر به سردرگمی شود.

از منظر فنی، بسیاری از مدل‌های زبانی پیشرفته بر پایه یادگیری از داده‌های گسترده و الگوهای آماری عمل می‌کنند؛ آن‌ها توانایی تقلیدِ مؤثر زبان و حل مسئله را نشان می‌دهند، اما این امر لزوماً به معنای داشتن تجربه درونی، خودآگاهي یا احساسات نیست. روشن‌سازی این تفاوت برای تدوین سیاست‌های حقوقی، اخلاقی و نظارتی حیاتی است؛ زیرا پاسخ‌ها و مقرراتی که بر اساس فرض آگاهی مصنوعی شکل می‌گیرند ممکن است منابع و توجه را از موضوعات عملی‌تر مانند امنیت، شفافیت و مسئولیت‌پذیری منحرف کنند.

Where Suleyman stands amid industry disagreements

اظهارات او در تقابل با دیدگاه‌های خوش‌بینانه‌تری است که از سوی برخی رهبران حوزه هوش مصنوعی مطرح شده‌اند. به‌عنوان مثال، سم آلتمن، مدیرعامل OpenAI، هوش مصنوعی عمومی یا AGI را به‌عنوان مأموریتی مرکزی توصیف کرده و حتی به افکار فراتر از AGI و سمت‌گیری به سمت ابرهوش اشاره داشته است؛ که برخی از آن‌ها پیش‌بینی پیشرفت‌های عمده در این دهه را مطرح کرده‌اند. دمیس هسابیس از DeepMind نیز پنجره‌های زمانی بلندپروازانه‌ای را پیشنهاد داده و برآورد کرده است که AGI می‌تواند ظرف پنج تا ده سال ظاهر شود.

  • سم آلتمن (OpenAI): تمرکز بر AGI و پذیرش ایده ابرهوش؛ معتقد است در صورت همسو شدن با ارزش‌ها می‌تواند منافع بزرگی داشته باشد.
  • دمیس هسابیس (DeepMind): خوش‌بین به افق پنج تا ده سال برای ظهور AGI.
  • یان لکون (Meta): محتاط‌تر؛ معتقد است AGI ممکن است دهه‌ها از ما فاصله داشته باشد و افزودن صرف داده و محاسبه لزوماً سیستم‌های هوشمندتر تولید نمی‌کند.

این اختلاف‌نظرها یک پرسش اساسی برای شرکت‌ها و قانون‌گذاران مطرح می‌کند: هدف باید توسعه توانمندی خام و بالا بردن حداکثری ظرفیت‌های محاسباتی باشد، یا باید صنعت بر ایمنی، هماهنگی ارزش‌ها و طراحی انسانی‌محور تمرکز کند؟ موضع سلیمان روشن است — باید اولویت با انسان‌ها باشد، نه مسابقه تسلیحاتی برای دستیابی به هوش ماشینی هرچه بالاتر.

چگونگی پیشرفت این مباحث بر نحوه تخصیص بودجه تحقیقاتی، سیاست‌گذاری و اعتماد عمومی تأثیر می‌گذارد. انتخاب عملی که شرکت‌ها و دولتها اکنون انجام می‌دهند — دنبال کردن قله‌های نظری هوش یا ساخت سامانه‌هایی که به‌صورت قابل اثبات به نیازهای انسانی خدمت کنند — می‌تواند تعیین‌کننده تجربه جامعه از موج بعدی پیشرفت‌های هوش مصنوعی باشد. اقدامات مشخص ممکن است شامل سرمایه‌گذاری در تحقیقات هماهنگی (alignment research)، توسعه استانداردهای نظارتی، انتشار گزارش‌های شفافیت، و طراحی چارچوب‌های مشارکتی بین بخش عمومی، خصوصی و جامعه مدنی باشد.

در نهایت، بحث در مورد مسیر مطلوب برای فناوری‌های پیشرفته هوش مصنوعی ترکیبی است از دلایل فنی، ملاحظات اخلاقی، و پیامدهای سیاسی و اقتصادی. کلماتی مانند «ابرهوش» و «AGI» در مباحث عمومی بار هیجان‌زده یا ترس‌آمیز پیدا می‌کنند؛ اما برای اتخاذ تصمیمات کارا و مسئولانه، لازم است این اصطلاحات با دقت فنی و شفافیت اخلاقی تعریف شوند. سلیمان و دیگران می‌خواهند به جای تمرکز بر ایده‌های انتزاعی، روی توسعه سامانه‌هایی سرمایه‌گذاری شود که قابلیت‌های مفید و قابل کنترل دارند، و به ارتقای رفاه و امنیت انسانی کمک کنند.

منبع: smarti

ارسال نظر

نظرات

مطالب مرتبط