10 دقیقه
سامسونگ اخیراً یک مدل هوش مصنوعی جمعوجور اما توانمند را معرفی کرده است: Tiny Recursion Model یا بهاختصار TRM. این مدل که تنها هفت میلیون پارامتر دارد، نشان میدهد برای رسیدن به عملکرد عالی در استدلال و پاسخدهی همیشه نیاز به افزایش نامحدود اندازه مدل نیست. در ادامه بررسی میکنیم TRM چگونه کار میکند، چرا برای توسعهدهندگان و پژوهشگران اهمیت دارد و چه پیامدهایی میتواند برای آیندهٔ هوش مصنوعی داشته باشد.
چگونه یک مدل کوچک از رقبای عظیم پیشی گرفت
TRM توسط الکسیا ژولیکور-مارتینو در مؤسسهٔ پیشرفتهٔ فناوری سامسونگ (SAIT) توسعه یافته است. برخلاف رویکردهای متداول که لایهها و پارامترها را افزایش میدهند یا چندین شبکه را با هم ترکیب میکنند، TRM از یک ایدهٔ ساده اما هوشمندانه بهره میبرد: بازگشت بازگشتی یا recursive reasoning. به جای تولید یک پاسخ تکمرحلهای، مدل پاسخ خود را چند بار بازبینی و اصلاح میکند تا زمانی که خروجیها پایدار شوند. این چرخهٔ بازخور سبک باعث میشود مدل با مصرف محاسباتی بسیار کمتر، عملکردی رقابتی در بنچمارکها ارائه دهد.
بازگشت بازگشتی؛ راهی ساده برای تقویت استدلال
مفهوم بازگشت بازگشتی در TRM نسبت به ایدههای پیشین مانند Hierarchical Reasoning Model (HRM) سادهتر و جمعوجورتر است. HRM نشان داده بود که هماهنگسازی فرایندهای سریع و کند میتواند قدرت استدلال را افزایش دهد؛ اما TRM این ایده را به یک ساختار دو لایهٔ واحد تقلیل میدهد که خودش را روی پیشبینیهایش بازتکرار میکند. یک مکانیزم توقف کوچک (halting mechanism) تعیین میکند چه زمانی پاسخ «کافی» است و مدل متوقف شود. این رویکرد، معماریای کارآمد و کمهزینه از نظر منابع محاسباتی فراهم میآورد، در حالی که استدلالهای پیچیده و پایدار تولید میکند.
صرفهجویی محاسباتی؛ چرا اندازه همیشه مهم نیست
یکی از پیامدهای مهم TRM کوچک بودن ردپای محاسباتی آن است. مدلهای چندمیلیارد یا چندصد میلیارد پارامتری به خوشههای عظیم GPU، هزینههای بالای انرژی و زیرساختهای پیچیده نیاز دارند که برای بسیاری از شرکتها و مؤسسات پژوهشی غیرقابلدسترس است. TRM اما با هفت میلیون پارامتر قابلیت اجرا روی سختافزارهای کمقدرتتر را بهبود میدهد که این موضوع امکان استقرار مدلهای استدلالی در دستگاههای محلی و محیطهایی با منابع محدود را فراهم میآورد.
سامسونگ علاوه بر تشریح معماری، جزئیات آموزشی و پیکربندیهای مرجع را نیز منتشر کرده تا دیگران بتوانند نتایج را بازتولید یا مدل را برای وظایف خاص خود تطبیق دهند. این رویکرد شفافیت به توسعه سریعتر و کاربردیتر هوش مصنوعی سبک کمک میکند.
نمونههایی از عملکرد TRM در برابر مدلهای بزرگ
در آزمایشهای منتشرشده، TRM توانسته در برخی معیارها از رقبای بزرگتری مانند o3 Mini از OpenAI و Gemini 2.5 Pro از گوگل پیشی بگیرد. این پیروزیها عمدتاً در دستهبندیهای استدلالی و مسائل چندمرحلهای مشاهده شدهاند؛ جاهایی که تکرار پاسخها و بازبینی آنها باعث بهبود کیفیت میشود. نکتهٔ مهم این است که این برتریها با مصرف انرژی و هزینهٔ محاسباتی بسیار کمتر حاصل شده است—عنصری که در شرایط واقعی کاربرد ارزشمند است.
کد باز و نکات عملی برای توسعهدهندگان
یکی از نکات مثبت پیرامون TRM، انتشار کد تحت مجوز MIT است؛ بدین معنی که پژوهشگران و شرکتها میتوانند پروژه را استفاده، تغییر و حتی در محصولات تجاری ادغام کنند. مخزن گیتهاب سامسونگ شامل اسکریپتهای آموزش و ارزیابی، ابزارهای تولید داده و پیکربندیهایی است که در آزمایشها به کار رفتهاند. چنین شفافیتی معمولاً به تسریع نوآوری، بررسی همتا و بهبودهای جمعی کمک میکند.
نیازمندیهای سختافزاری: از L40S تا H100
هرچند هدف TRM کارایی در حداقل سختافزار است، تیم توسعه برای موارد آموزشی سنگینتر به نمونههایی از GPU اشاره کرده است تا توسعهدهندگان راهنمایی داشته باشند. برای نمونه، اشاره به Nvidia L40S بهعنوان سختافزار مورد استفاده در یک اجرای آموزشی سدوکو و همچنین بهرهگیری از Nvidia H100 برای بنچمارکهای سنگین ARC-AGI نشان میدهد که اگر هدفِ آموزشی یا ارزیابیهای شدید باشد، میتوان از کارتهای سطح بالا نیز استفاده کرد. با این حال آزمایشهای پایهٔ TRM بر کمینهٔ محاسبات تأکید دارند تا قابلیت تکرار و پیادهسازی ساده حفظ شود.
معماری فنی TRM؛ چه چیزی زیر پوسته نهفته است
TRM بر پایهٔ یک شبکهٔ دو لایه طراحی شده است که بهصورت تکراری بر روی خروجیهای خود عمل میکند. این لایهها وظیفهٔ تولید و بازبینی پیشبینیها را بر عهده دارند و مکانیزم توقف کوچک تعیین میکند پس از چند تکرار پاسخ نهایی اعلام شود. از نظر مهندسی، مزایای این معماری چندوجهی است:
- کاهش پارامترها: با تمرکز روی بازخورد داخلی بهجای گسترش ساختار، تعداد پارامترها کاهش مییابد.
- افزایش پایداری پاسخ: تکرار و اصلاح خروجیها به کاهش خطاهای موقتی و ناپایداری کمک میکند.
- قابلیت تنظیم بر اساس منابع: با تغییر آستانهٔ توقف یا تعداد بازپرسشها میتوان تعادل بین دقت و سرعت را کنترل کرد.
این خواص به TRM اجازه میدهد در وظایف متنوعی از جمله سوالوپاسخ، حل مسائل منطقی و طبقهبندیهای پیچیده عملکرد مناسبی نشان دهد—همانطور که بنچمارکهای ابتدایی سامسونگ گزارش کردهاند.
بررسی نقش مکانیزم توقف
مکانیزم توقف در TRM یکی از اجزای کلیدی است؛ این مکانیزم بهصورتی سبک وزن تصمیم میگیرد که آیا خروجی کنونی کافی است یا باید یک بازپرسش دیگر انجام شود. این ایده برگرفته از مفاهیم محاسباتی که در الگوریتمهای تکرارشونده کاربرد دارند است و نقش مهمی در تعادل بین دقت و هزینهٔ محاسباتی ایفا میکند. مکانیزم توقف به ویژه در کاربردهای real-time و روی دستگاههای لبهای (edge devices) اهمیت دارد، جایی که هر چرخهٔ اضافه میتواند تأخیر یا مصرف باتری را افزایش دهد.
پیامدها برای توسعهٔ هوش مصنوعی و صنعت
TRM نشان میدهد که نوآوری معماری میتواند بهراحتی با افزایش مقیاس رقابت کند. وقتی هزینههای محاسباتی و نگرانیهای زیستمحیطی افزایش مییابند، بهینهسازی و مدلهای سبکتر تبدیل به گزینههای جذابی میشوند. شرکتها بهدنبال راهکارهایی هستند که قابلیت اجرای واقعی داشته باشند؛ یعنی مدلهایی که قابل استقرار روی سرورهای کوچک، دستگاههای موبایل یا سختافزارهای کنترلی صنعتی باشند. TRM میتواند بهعنوان یک پایه برای سیستمهای استدلالی سبک یا الهامبخش طراحیهای هیبریدی عمل کند.
تصور کنید سازمانهای کوچک بتوانند سیستمهای تحلیل متنی یا پاسخدهی خود را بدون نیاز به ابرکامپیوترها راهاندازی کنند؛ یا دستگاههای پزشکی و صنعتی با مدلهایی تعبیه شده اجرا شوند که از نظر مصرف انرژی و تأخیر مناسب باشند. این چشمانداز با ظهور مدلهایی مانند TRM قابلرؤیتتر میشود.
رقابتپذیری در مقابل «بزرگنماییِ بیش از حد»
یکی از نقدهای معاصر به روند توسعهٔ مدلهای زنجیرهای بزرگ (scale-at-all-cost) این است که تمرکز صرف بر افزایش پارامترها میتواند نوآوریهای مؤثر معماری را کنار بزند. TRM بهنوعی پاسخ به این نگرانی است: با نشان دادن اینکه ترفندهای طراحی و بازخورد هوشمندانه میتوانند عملکرد را بهبود بخشند، این مدل بحث را از صرفاً «بزرگتر بهتر» به «هوشمندتر طراحی کن» تغییر مسیر میدهد. چنین تغییری میتواند تأثیرات زیستمحیطی مثبت و اقتصادی قابلتوجهی بهدنبال داشته باشد.
چگونه میتوان از TRM در پروژهها استفاده کرد؟
برای توسعهدهندگانی که میخواهند TRM را بومیسازی یا آزمایش کنند، چند نکتهٔ عملی وجود دارد:
- مرور مخزن گیتهاب: از اسکریپتهای آموزش و ارزیابی آغاز کنید تا به ساختار دادهها و پیکربندیها آشنا شوید.
- تنظیم پارامتر توقف: بسته به نیاز به دقت یا سرعت، آستانهٔ توقف را تغییر دهید تا تعادل مطلوب بهدست آید.
- آزمایش روی دادههای واقعی: دادههای دامنهٔ خود را بهعنوان ورودی استفاده کنید تا رفتار مدل در شرایط عملی قابلدرک شود.
- ترکیب با مدلهای دیگر: برای وظایف خاص ممکن است ترکیب TRM با اجزای دیگر (برای مثال فیلترهای پیشپردازش یا پسپردازش) مفید باشد.
از آنجا که کد تحت مجوز MIT است، شرکتها میتوانند TRM را در محصولات خود ادغام و سفارشی کنند—پلاگینها، APIها و رابطهای سبک برای استقرار روی دستگاههای لبهای راهکارهای احتمالی هستند.
موارد استفادهٔ بالقوه
TRM میتواند در حوزههای متعددی مفید باشد: پاسخگویی به پرسشهای مشتریان در زمان واقعی، سیستمهای کمک تصمیمگیری پزشکی که باید روی سختافزارهای محلی اجرا شوند، ابزارهای آموزشی هوشمند با هزینهٔ کم، و حتی کاربریهای صنعتی که نیاز به تحیلگرهای متنی و استدلالی در محیطهای با پهنای باند محدود دارند. این گستردگی کاربردها ناشی از ترکیب دقت مناسب و نیاز پایین به منابع است.
انتقادات و محدودیتها
هرچند TRM نوآورانه است، محدودیتهایی هم دارد که باید در نظر گرفته شوند. مدلهای کوچک ممکن است در برخی وظایف بسیار بزرگ مقیاس یا در بار کاریهایی که نیاز به نمایش دانش وسیع دارند، به اندازهٔ مدلهای بزرگ عمل نکنند. همچنین مکانیزم توقف و تکرارهای متعدد میتواند در بعضی موارد بهخطا تصمیم بگیرد که وضعیت پایدار است در حالی که پاسخ نیاز به بازخوانی بیشتری دارد. بنابراین، هر پیادهسازی باید شامل پایش کیفیت و ارزیابیهای مستمر باشد.
علاوه بر این، اگرچه کد باز است، تطبیق و بهینهسازی برای کاربردهای تولیدی همچنان نیازمند تجربه و منابع فنی است که برای برخی تیمها چالشبرانگیز خواهد بود.
چه چیز بعدی برای TRM و پژوهشهای مشابه قابلانتظار است؟
انتظار میرود که مفاهیم بهکاررفته در TRM—بهویژه بازگشت بازگشتی و مکانیزم توقف سبک—در طراحی دیگر مدلهای سبک و هیبریدی بهکار گرفته شوند. ممکن است ترکیب این ایدهها با تکنیکهایی مانند فشردهسازی مدل، یادگیری انتقالی (transfer learning) و یادگیری نیمهنظارتی، نسل جدیدی از مدلهای کارا و قابلاستقرار را پدید آورد. همچنین میدان برای پژوهش در زمینهٔ بهینهسازی انرژی، اندازهگیری پایداری پاسخ و تطبیق روی دستگاههای لبهای باز است.
در نهایت، TRM توجه جامعهٔ پژوهشی را به سمت طراحیهای مبتکرانه جلب میکند و نشان میدهد که بهینهسازیهای هوشمند معماری میتواند هم از نظر علمی و هم از منظر کاربردی ارزشمند باشد.
در جهانی که تقاضا برای دسترسی به هوش مصنوعی کارا و مقرونبهصرفه روزافزون است، مدلهایی مثل Tiny Recursion Model یک گام مؤثر بهسوی آیندهای قابلدسترستر و هوشمندتر هستند.
منبع: sammobile
ارسال نظر