هوش مصنوعی و شکاف های امنیتی در غربالگری توالی های DNA

هوش مصنوعی و شکاف های امنیتی در غربالگری توالی های DNA

نظرات

7 دقیقه

هوش مصنوعی به‌سرعت زیست‌شناسی را متحول می‌کند — از تسریع کشف دارو تا ساده‌سازی طراحی پروتئین‌ها و توالی‌های DNA. با این حال، یک مطالعه قرمز-تیمی جدید نشان می‌دهد ابزارهای مشابه می‌توانند برای تولید توالی‌های سنتتیک طراحی‌شده به‌گونه‌ای استفاده شوند که از سامانه‌های فعلیِ غربالگری DNA عبور کنند و این موضوع یک نقطه ضعف بحرانی در امنیت بیوتکنولوژی را نمایان می‌سازد.

چگونه پژوهشگران دفاع‌ها را آزمودند

محققان مایکروسافت یک آزمایش به‌سبک هکرها را اجرا کردند و از مدل‌های هوش مصنوعی در دسترس عموم برای تولید بیش از 76,000 گونه سنتتیک از پروتئین‌های خطرناک استفاده نمودند، از جمله توالی‌هایی که با توکسین‌ها مانند ریسین در ارتباط‌اند. آن‌ها خودِ پروتئین‌ها را سنتز نکردند؛ بلکه توالی‌های ژنیِ لازم برای کدگذاری این پروتئین‌ها را طراحی کردند و سپس آن توالی‌ها را از طریق چهار سامانه متداولِ ابزارِ غربالگری بیوسکیوریتی (BSS) که تولیدکنندگان DNA به آن‌ها تکیه می‌کنند، عبور دادند.

نرم‌افزارهای غربالگری معمولاً به دنبال تطابق بینِ توالیِ ارسالی و یک پایگاه‌دادهٔ گزینشی از تهدیدهای شناخته‌شده می‌گردند. این روش زمانی که تهدیدها بسیار شبیه ورودی‌های شناخته‌شده باشند، مؤثر است؛ اما نسبت به تغییرات مهندسی‌شده که عملکردِ زیستی را حفظ می‌کنند اما توالی را به‌اندازهٔ کافی تغییر می‌دهند تا از شناسایی فرار کنند، آسیب‌پذیر است.

در عمل، مدل‌های هوش مصنوعی می‌توانند فضای بسیار بزرگی از توالی‌ها را در زمان کوتاهی جست‌وجو کنند و گونه‌هایی را پیشنهاد دهند که از نظر عملکردی مخرب باقی می‌مانند ولی از دید الگوریتم‌های تطبیق مبتنی بر امضاها، متفاوت جلوه می‌کنند. این تفاوت بنیادین بین «همان عملکرد» و «همان توالی» است — و نقطه‌ای است که حمله‌گران ممکن است از آن بهره ببرند.

شکاف‌های بزرگ، اصلاح‌های سریع — و خطرات باقیمانده

نتیجه چشمگیر بود: تعداد قابل‌توجهی از توالی‌های طراحی‌شده با هوش مصنوعی بدون شناسایی شدن از طریقِ BSS عبور کردند. در واکنش، تیم مایکروسافت با فروشندگانِ ابزارهای غربالگری همکاری کرد تا آسیب‌پذیری‌ها را با گسترش پایگاه‌های دادهٔ تهدید و بهبود الگوریتم‌های تشخیص وصله (patch) کنند. در آزمایش پیگیری، سامانه‌های به‌روزرسانی‌شده توانستند حدود 97% از توالی‌های با بالاترین ریسک را شناسایی کنند.

این پیشرفت امیدوارکننده است، اما کامل نیست. حدود 3% از طراحی‌های بالقوه خطرناک هنوز عبور کردند و لازم است توجه کنیم که این آزمایش‌ها بر پایه پیش‌بینی‌های محاسباتی انجام شد نه تولید واقعیِ پروتئین‌ها، بنابراین ریسک عملکردی در دنیای واقعی نامعلوم باقی می‌ماند. با این وجود، این مطالعه یک زنگ هشدار روشن است: با قدرتمندتر شدن ابزارهای طراحیِ مبتنی بر هوش مصنوعی، سیستم‌های دفاعی باید سریع‌تر تکامل یابند.

چرا این موضوع برای امنیت بیوتکنولوژی اهمیت دارد

  • بیشترِ غربالگری‌های تجاریِ DNA به پایگاه‌داده‌های تهدیدِ شناخته‌شده تکیه دارند، بنابراین توالی‌های جدید یا به‌طور جزئی تغییر یافته می‌توانند از شناسایی فرار کنند.
  • هوش مصنوعی می‌تواند فضای عظیمی از توالی‌ها را با سرعت بسیار بالا کاوش کند و گونه‌هایی را بسازد که عملکردِ مضر را حفظ کنند اما به اندازه‌ای متفاوت‌اند که روش‌های تطبیق ساده آن‌ها را نادیده بگیرند.
  • چرخه‌های «پچ و به‌روزرسانی» لازم خواهد شد و این امر یک مسابقهٔ تسلیحاتی مداوم میانِ تکنیک‌های طراحی تهاجمی و سامانه‌های غربالگری دفاعی ایجاد می‌کند.

می‌توان این وضعیت را مانند آنتی‌ویروس برای زیست‌شناسی تصور کرد: امضاها کمک می‌کنند، اما حمله‌کنندگانِ سازگار می‌توانند از چک‌های ایستا عبور کنند. به‌روزرسانی‌های مستمر، مدل‌سازی تهدیدِ بهتر و همکاری گسترده‌تر میان صنعت، دانشگاه و نهادهای مقرراتی برای حفظِ همپایی ضروری خواهند بود.

گام‌های بعدی برای ساخت دفاع‌های مقاوم

متخصصان بر این باورند که راه‌حل چندلایه است. تقویت پایگاه‌های داده و بهبود الگوریتم‌های تشخیص بسیار مهم است، اما به‌تنهایی کافی نیست. لازم است رویکردهای پیشگیرانه‌تری مانند ارزیابی ریسکِ فعال، اجرای منظمِ تمرین‌های قرمز-تیمی (red-teaming) و شفافیتِ بیشتر بین توسعه‌دهندگانِ هوش مصنوعی و تیم‌های بیوسکیوریتی اتخاذ شود.

در سطح فنی، چند راهکار مشخص می‌تواند مقاومتِ کلیِ اکوسیستم را بالا ببرد:

  • گسترش معیارها و امضاها: افزودن ویژگی‌های ساختاری و عملکردی توالی‌ها به‌علاوهٔ تطابق‌های مبتنی بر متابولیسم و ساختار سه‌بعدی پروتئین‌ها، نه فقط شباهت‌های خطیِ پایه‌ها.
  • استفاده از مدل‌های یادگیری عمیقِ تشخیصِ نامعمول: مدل‌هایی که می‌توانند نشانه‌های «ناهماهنگیِ توالی-عملکرد» را شناسایی کنند و صرفاً به تطابق با ورودی‌های شناخته‌شده متکی نباشند.
  • پیاده‌سازی لایه‌های کنترلی انسانی-محور: ترکیب بررسی خودکار با بازرسی‌های تخصصیِ انسانی برای موارد مشکوک، مخصوصاً وقتی پیامدهای بالقوهٔ زیستی بالا است.
  • اشتراک امن داده و اطلاع‌رسانی: سازوکارهایی برای به اشتراک گذاشتن الگوهای جدید تهدید میان تولیدکنندگانِ DNA، شرکت‌های ابزار غربالگری و نهادهای نظارتی بدون افشای اطلاعات حساس.

سیاست‌گذاری و استانداردسازی نیز نقش کلیدی دارند: چارچوب‌هایی که به‌سرعت امکان وصله‌زدن را فراهم می‌کنند، شیوه‌های امنِ به اشتراک‌گذاری داده را تشویق می‌کنند و سازوکاری برای نظارت و پاسخِ سریع در مواجهه با تکنیک‌های جدید طراحی‌شدهٔ بدخواهانه برقرار می‌سازند.

مطالعهٔ مایکروسافت که در نشریهٔ Science منتشر شد، بر نیاز به هوشیاری پافشاری می‌کند: هوش مصنوعی می‌تواند مزایای فوق‌العاده‌ای در پزشکی و پژوهش ایجاد کند، اما هم‌زمان افق تهدیدها را تغییر می‌دهد. چالش این است که ابزارهای امنیتی و حاکمیت‌ها همگام با شتابِ فناوری پیش بروند تا از سوءاستفاده جلوگیری کنند و در عین حال نوآوری‌های مفید را محدود نکنند.

برای درک بهتر ابعاد مسئله، توجه به چند نکتهٔ فنی مفید است:

  1. مکانیسم‌های دور زدنِ تشخیص: یک توالی می‌تواند با تغییر کد ژنتیکیِ مترادف (synonymous codon changes) عملکردِ پروتئینی مشابه را حفظ کند ولی الگوی توالیِ آن‌قدر تغییر کند که الگوریتم‌های مبتنی بر تطابقِ مستقیم را فریب دهد.
  2. پیچیدگیِ عملکردی و پیش‌بینی: وجود یک توالی ژن به‌تنهایی تضمینی برای تولیدِ پروتئینِ فعال نیست؛ عوامل دیگری مانند تنظیم رونویسی، ترجمه و اصلاحات پس از ترجمه تعیین‌کننده‌اند. بنابراین، عبور از سامانهٔ غربالگری به‌معنای قطعاً تولید یک پروتئین خطرناک در عمل نیست، اما ریسکِ تئوریک قابل توجهی را نشان می‌دهد.
  3. نیاز به اعتبارسنجی تجربیِ هدفمند: برای ارزیابی دقیقِ خطر، بایستی برخی نمونه‌ها تحت کنترل‌های آزمایشگاهیِ ایمن تولید و آزموده شوند. این کار باید تحت رویه‌های اخلاقی و حقوقی و در آزمایشگاه‌های با سطوح ایمنی زیستی مناسب انجام گیرد.

در سطح اکوسیستم، پیشنهاد می‌شود شرکت‌های تولیدکنندهٔ DNA یک ترکیب از روش‌های اتوماتیک و انسانی را برای غربالگری به‌کار گیرند، از مدل‌های هوش مصنوعی برای تشخیص الگوهای نادیده استفاده کنند و مستمراً داده‌های تهدید را با همکاران صنعتی و نهادهای نظارتی به اشتراک گذارند.

همچنین سازوکارهای پاسخ‌دهی سریع باید تعریف شوند: تیم‌هایی که در صورت شناساییِ یک موردِ مشکوک بتوانند فوراً آن را پیگیری کنند، ارتباطات شفاف با مشتریان و نهادهای قانونی برقرار کنند و فرآیندهای حقوقی-فنی لازم را آغاز نمایند. این موارد از بروزِ سوءاستفادهٔ احتمالی جلوگیری می‌کنند و زمان پاسخ به تهدیدات نوظهور را کاهش می‌دهند.

در نهایت، پیشگیریِ پایدار نیازمند آموزش و توسعهٔ ظرفیت است: پژوهشگران، مهندسان بیوتکنولوژی، توسعه‌دهندگانِ مدل‌های هوش مصنوعی، و سیاست‌گذاران باید دربارهٔ ریسک‌ها و راهکارها به صورت مشترک آموزش ببینند تا زبان مشترکی برای تشخیص و مدیریت تهدیدها شکل گیرد.

به‌عبارت دیگر، محافظت از زیست‌فناوری در عصر هوش مصنوعی یک مسئولیت جمعی است: ترکیبی از فناوری بهتر، رویه‌های مؤثر، همکاری بین‌بخشی و نظارت حکمرانی می‌تواند به ما کمک کند تا از مزایای هوش مصنوعی بهره‌مند شویم بدون اینکه امنیت عمومی به‌خطر بیفتد.

منبع: techxplore

ارسال نظر

نظرات

مطالب مرتبط