چرا مدل های زبانی بزرگ قادر به خلق کشف های نوبلی نیستند

چرا مدل های زبانی بزرگ قادر به خلق کشف های نوبلی نیستند

نظرات

8 دقیقه

توماس ولف، پژوهشگر برجسته هوش مصنوعی در Hugging Face، هشدار می‌دهد که نسل کنونی مدل‌های زبانی بزرگ (Large Language Models) احتمالاً قادر نخواهند بود کشف‌های علمی واقعاً نوآورانه و در سطح نوبل را به‌وجود آورند. او این سیستم‌ها را بیشتر به‌عنوان دستیارهای توانمند می‌بیند — ابزارهایی مفید برای تولید ایده، تحلیل داده‌ها و تسریع کارهای پژوهشی، اما نه منشاء نظریه‌های تحول‌آفرینی که چارچوب‌های موجود را به شکل بنیادین بازنویسی کنند.

چرا چت‌بات‌های عمومی تا کشف واقعی فاصله دارند

ولف بر این باور است که مشکل ساختاری است. چت‌بات‌های مدرن و مدل‌های زبانی بزرگ به‌گونه‌ای آموزش داده می‌شوند که پیش‌بینی محتمل‌ترین توکن بعدی در یک توالی متنی را بهینه‌سازی کنند. این هدف عملکرد فوق‌العاده‌ای در کامل کردن جملات، خلاصه‌سازی پژوهش‌ها و ارائه پیشنهادهای منطقی و به‌ظاهر قانع‌کننده ایجاد می‌کند، اما توانمندی لازم برای ابداع ایده‌هایی که با فرض‌های غالب مخالفت می‌کنند را تقویت نمی‌کند.

دانشمندان نوآور معمولاً رفتاری مخالف جریان عمومی دارند: آن‌ها چهارچوب‌های پذیرفته‌شده را به پرسش می‌کشند و ایده‌های غیرمنتظره و احتمالاً کم‌احتمال را مطرح می‌کنند که بعداً ثابت می‌شود درست بوده‌اند. نمونهٔ تاریخیِ آن، پیشنهاد کوپرنیک دربارهٔ منظومهٔ خورشیدی است که دیدگاه رایج زمان خود را بر هم زد. مدل‌های فعلی اما تمایل دارند به سمت هم‌راستایی با پرامپت کاربر و دیدگاه‌های جمعی گرایش پیدا کنند؛ ویژگی‌ای که خلاقیتِ مخالفِ جریان لازم برای کشف‌های بزرگ را کاهیده می‌کند.

از منظر فنی، این مدل‌ها اغلب بر یادگیری آماری توزیع واژگان و الگوهای زبان تمرکز دارند و نه بر استدلال علّی یا فرض‌سازی انتقادی. آن‌ها ممکن است براساس الگوهای موجود در داده‌ها ترکیبات جدیدی بسازند، اما تولید یک فرضیهٔ علمی که با داده‌ها به‌طرز جدی و نظام‌مند مخالفت کند و سپس راهی برای آزمون تجربی آن پیشنهاد دهد، کار متفاوتی است؛ کاری که تا حد زیادی نیازمند توانایی‌هایی فراتر از توزیع‌بینی توکن‌هاست.

نه یک جادو، بلکه یک هم‌پایلوت بسیار توانمند

این حرف به آن معنا نیست که هوش مصنوعی در پژوهش بی‌فایده است. ولف انتظار دارد ابزارهایی مانند ChatGPT و مدل‌های همخانواده به‌عنوان هم‌پایلوت پژوهشگران عمل کنند — ابزارهایی که مرور ادبیات را سرعت می‌بخشند، مسیرهای تجربی جدید پیشنهاد می‌دهند، تحلیل‌های تکراری را خودکار می‌کنند و در ترکیب نتایج به جمع‌بندی کمک می‌کنند. این نقشِ دستیار پژوهشی می‌تواند بازده تیم‌های علمی را به‌طرز چشمگیری بالا ببرد و هزینهٔ فعالیت‌های پایه‌ای مانند مرور منابع یا آماده‌سازی داده‌ها را کاهش دهد.

موفقیت‌های واقعی نیز وجود دارد. برای مثال، AlphaFold شرکت DeepMind پیشرفت چشمگیری در پیش‌بینی ساختار پروتئین‌ها ایجاد کرده و به‌عنوان یکی از شتاب‌دهنده‌های مهم در جریان‌های کشف دارو شناخته می‌شود. با این حال، AlphaFold بهتر است به‌عنوان راه‌حلی برای یک مسئلهٔ پیش‌بینی مشخص درک شود، نه به‌عنوان ماشینی که یک نظریهٔ جدید زیست‌شناسی از پایه اختراع کرده است. تفاوت مهم این است که AlphaFold یک مسأله با معیّن‌سازی دقیق را حل می‌کند: نقشه‌برداری از توالی اسیدآمینه به ساختار سه‌بعدی. این نوع مسائل، به‌دلیل محدودهٔ روشن و داده‌های آموزشی قوی، برای مدل‌های مبتنی بر یادگیری ماشین مناسب‌ترند.

به‌علاوه، حتی در مواردی مانند AlphaFold، نقش انسان‌ها در طراحی مسئله، تدوین معیارهای ارزیابی، تفسیر نتایج و اجرای آزمایش‌های تجربی همچنان حیاتی است. به عبارت دیگر، سامانه‌های هوش مصنوعی در بهترین حالت، توان انسانی را تکمیل و تقویت می‌کنند، نه اینکه جایگزین خلاقیت انتقادی و روش‌شناسی علمی شوند.

ادعاهای بلندپروازانه و واقعیت محتاطانه

شک و تردید ولف پس از خواندن مقاله‌ها و اظهارنظرهای برخی رهبران صنعت تقویت شد؛ کسانی که پیش‌بینی کرده بودند هوش مصنوعی ظرف چند سال تحولات بنیادینی در زیست‌شناسی و پزشکی ایجاد خواهد کرد، به‌گونه‌ای که دهه‌ها پیشرفت در عرض چند سال فشرده شود. ولف هشدار می‌دهد که معماری‌های فعلی و اهداف آموزشی مدل‌های بزرگ چنین جهشی را بدون رویکردهای اساسی متفاوت، بسیار نامحتمل می‌سازند.

یک نکتهٔ مهم فنی این است که اهداف آموزشی رایج — مانند حداقل‌سازی خطای پیش‌بینی توکن یا استفاده از تقویت یادگیری انسانی (RLHF) برای هم‌راستا کردن پاسخ‌ها با ترجیحات انسان — لزوماً باعث ایجاد ظرفیت لازم برای استدلال علّی، طراحی آزمایش یا ابتکار نظری نمی‌شوند. به‌گفتهٔ ولف، برای رسیدن به قابلیت‌هایی که به کشف‌های بنیادی منجر شود، ممکن است لازم باشد اهداف آموزشی و معماری‌ها بازاندیشی شوند تا شامل مولفه‌هایی مانند مدل‌سازی علیت، استنتاج نمادین یا حلقه‌های بازخورد مبتنی بر آزمایش‌های تجربی شوند.

مسیرهای محتمل آیندهٔ پژوهش

  • سامانه‌های هیبریدی: ترکیب استدلال نمادین، مدل‌های آگاه از علیت و حلقه‌های بازخورد مبتنی بر تجربه و آزمایش می‌تواند ابزارهایی پدید آورد که برای کشف مناسب‌ترند. چنین سامانه‌هایی ممکن است هم از انعطاف‌پذیری مدل‌های آماری بهره‌مند شوند و هم از صلابت منطقی و قابلیت توضیح‌دادن روش‌های نمادین.
  • علمِ انسان‌در‌میان: استفاده از هوش مصنوعی برای تولید فرضیه‌ها در حالی که شک‌گرایی انسانی و اعتبارسنجی تجربی همچنان نقش محوری دارند. این رویکرد بر همکاری نزدیک بین پژوهشگر انسانی و سیستم هوش مصنوعی تأکید می‌کند؛ جایی که ماشین ایده‌ها را پیشنهاد می‌دهد و انسان آن‌ها را نقد، اولویت‌بندی و آزمایش می‌کند.
  • استارتاپ‌ها با هدف بالاتر: چندین شرکت نوپا، از جمله Lila Sciences و FutureHouse، در تلاشند راه‌هایی بیابند که هوش مصنوعی را از سطح «دستیار» به سطحی ببَرَد که توانایی تولید بینش‌های واقعی و مفید علمی را داشته باشد. این شرکت‌ها روی جمع‌آوری داده‌های آزمایشی بهتر، طراحی حلقه‌های بازخورد واقعی و توسعهٔ روش‌های یادگیری علی تمرکز دارند.

به‌طور خلاصه، هوش مصنوعی فعلی در تقویت پژوهشگران انسانی بسیار موفق است اما جایگزینی خلاقیتِ نامنظم، شک‌گرایانه و تجربی که معمولاً منجر به کشف‌های در سطح نوبل می‌شود را ندارد. در حال حاضر، بهترین شرط‌ها بر روی سیستم‌هایی است که شهود انسانی و تجربهٔ آزمایشی را تقویت کنند تا اینکه بخواهند به‌تنهایی جایگزین فرایند علمی شوند.

برای روشن‌تر کردن موضوع، چند نکتهٔ تکمیلی مفید است:

  • ماهیتِ خلاقیتِ علمی: خلاقیت در علم اغلب نتیجهٔ اعتراض به بدیهیات، مشاهدهٔ ناسازگاری‌های ظریف در داده‌ها و ترکیب بین‌رشته‌ای دیدگاه‌هاست. این فرایند شامل ابهامات، جست‌وجوی گسترده و تکرار تجربی است — چیزهایی که نیاز به قضاوت انسانی، حساسیت به زمینه و تجربهٔ میدانی دارد.
  • چرا مدل‌های آماری محدودند: مدل‌های زبانی بزرگ بر هم‌بافتن الگوهای زبانی و آماری تمرکز دارند؛ آن‌ها در تولید زبان و الگوهای قابل قبول مهارت بالایی دارند، اما در ایجاد فرضیه‌هایی که عمداً یا آگاهانه با داده‌ها و سازوکارهای موجود مخالفت می‌کنند، تردید نشان می‌دهند. این واقعیت تا حدی به خاطر توابع هدف و داده‌های آموزشی آن‌ها است که اغلب بازتابی از وضعیت موجود و نه عامل تغییر آن است.
  • نیاز به داده‌های ساختاریافتهٔ تجربی: کشف‌های بنیادین نیازمند داده‌های دقیق، آزمایش‌شده و بازتولیدپذیر هستند. بسیاری از مدل‌های یادگیری عمیق با داده‌های متن/تصویر یا سیگنال‌های مشاهده‌ای کار می‌کنند، اما برای پشتیبانی از حلقه‌های آزمایشیِ کامل — پیشنهاد آزمایش، پیش‌بینی نتایج، اجرای آزمایش و بازخورد دادن به مدل — باید زیرساخت‌های داده‌ای و طراحی‌های آزمایشی متفاوتی ایجاد شود.
  • اهمیت مفهوم علیت: درک علیت و توانایی پیشنهاد آزمایش‌هایی که تفاوت‌های علت و معلول را نمایان کنند، برای تولید بینش‌های علمی اساسی ضروری است. مدل‌های احتمالی صرف که فقط همبستگی‌ها را یاد می‌گیرند، ممکن است در تشخیص روابط علت و معلولی ناکافی باشند.

در نهایت، ترکیب نقاط قوت ماشینی — پردازش سریع، جست‌وجوی گسترده در ادبیات و کشف الگوها در داده‌های بزرگ — با نقاط قوت انسانی — قضاوت ارزش‌گذاری، طبع کنجکاو و توانایی طراحی آزمایش‌های خلاقانه — بیشترین شانس را برای تولید پیشرفت‌های علمی معنادار دارد. این دیدگاه نه تنها واقع‌گرایانه است بلکه راهنمایی برای سرمایه‌گذاری پژوهشی فراهم می‌آورد: به‌جای انتظار معجزه از مدل‌های فعلی، بهتر است روی توسعهٔ معماری‌ها، اهداف آموزشی و حلقه‌های آزمایشی که امکان ظهور بینش‌های جدید را فراهم می‌کنند، سرمایه‌گذاری کنیم.

منبع: cnbc

ارسال نظر

نظرات

مطالب مرتبط