9 دقیقه
نیویورکتایمز دادخواستی رسمی علیه استارتاپ هوش مصنوعی پرپلکسیتی ثبت کرده و مدعی است این شرکت محتوای خبری این روزنامه را «عیناً یا بسیار مشابه» بازتولید و تجاریسازی کرده است. این اقدام حقوقی نمونهای تازه از تشدید تنش بین ناشران سنتی خبر و سرویسهای تولیدکننده متن مبتنی بر هوش مصنوعی است که بحثهای گستردهای درباره حقوق نشر، اخلاق فناوری و مدلهای تجاری جدید رسانهای بهراه انداخته است.
اتهامات: استخراج داده، کپی و دور زدن محافظتها
براساس متن شکایت، پرپلکسیتی بدون کسب مجوز «محتوای نیویورکتایمز را استخراج، تکثیر و توزیع کرده است.» شکایت میگوید هشدارهای مکرر این روزنامه نادیده گرفته شده و ابزارهای جمعآوری داده پرپلکسیتی عمداً اقدام به دورزدن مکانیسمهای دفاعی تایمز کردهاند — از جمله قواعد robots.txt که مشخص میکنند کدام بخشهای یک سایت قابل خزیدن است.
نیویورکتایمز استدلال میکند این رفتار نقض قانون حق تکثیر (کپیرایت) است و انگیزه خوانندگان برای مراجعه به سایت ناشر یا خرید نسخه چاپی را از بین میبرد. شکایت میافزاید پاسخهای تولیدشده توسط پرپلکسیتی گاهی شامل بازتولید کامل یا نزدیک به کامل مقالات میشود، بهطوریکه ضرورت دسترسی مستقیم به محتوای اصلی را از میان میبرد.

از منظر فنی، اتهامات عمدتاً حول محور سه محور است: scraping (خزیدن و استخراج محتوا)، کپیبرداری بدون مجوز و نادیدهگرفتن تنظیمات سطح سایت و سیاستهای حقوقی. نحوه تعامل مدلهای زبانی بزرگ (LLMs) با متنهای محافظتشده وب و سرعت رشد طبقهای از خدمات خلاصهسازی و پاسخگویی هوشمند، مسئله را پیچیدهتر کرده است. همچنین مباحثی درباره اینکه آیا استفاده از متنهای خبری تحت عنوان «استفاده منصفانه» (fair use) قرار میگیرد یا نه، به صورت جدی مطرح شده است؛ موضوعی که در دعاوی حق نشر گذشته نیز تکرار شده است.
نیویورکتایمز از دادگاه چه میخواهد
علاوه بر مطالبه خسارت مالی، نیویورکتایمز از دادگاه درخواست حکم دائمی برای جلوگیری از ادامه رفتار مندرج در شکایت را کرده است. در متن شکایت، پرونده نهفقط بهعنوان یک اختلاف حقوقی که به نقض کپیرایت مربوط است مطرح شده، بلکه بهعنوان یک مناقشه اقتصادی درباره نحوه استفاده سیستمهای هوش مصنوعی از محتوای خبری دارای حق نشر نیز توضیح داده شده است.
حکم دائمی میتواند شامل ممانعت از دسترسی به محتوای محافظتشده، الزام به حذف محتوا یا محدودیتهای فنی برای نحوه جمعآوری دادهها باشد. در عمل، اگر دادگاه با استدلالهای نیویورکتایمز موافقت کند، شرکتهای فعال در حوزه هوش مصنوعی که وب را برای آموزش یا تولید پاسخ میبلعند، ممکن است با الزامهای گستردهتری در زمینه اخذ مجوز، رعایت تنظیمات سایت و پرداخت هزینه مواجه شوند. این موضوع میتواند مدلهای کسبوکار مبتنی بر خلاصهسازی اخبار، تولید محتوای خودکار و سرویسهای پرسش و پاسخ مبتنی بر منابع خبری را بازتعریف کند.
از سوی دیگر، درخواست غرامت مالی و ممنوعیت دائمی نشان میدهد نیویورکتایمز به دنبال جبران خسارت اقتصادی احتمالی است؛ از جمله کاهش بازدید سایت، افت اشتراک دیجیتال یا کاهش فروش نسخه چاپی که ناشی از جایگزینی محتوای اصلی با پاسخهای تولیدشده توسط هوش مصنوعی است.
پاسخ پرپلکسیتی با قرار دادن موضوع در بستر تاریخی
پرپلکسیتی از طریق سخنگویی پاسخ داد که اقدام حقوقی علیه شرکتهای تکنولوژی پدیدهای جدید نیست. در بیانیهای که به وبسایت The Verge ارسال شد آمده است: «از رادیو و تلویزیون تا اینترنت، شبکههای اجتماعی و حالا هوش مصنوعی، ناشران مرتباً شرکتهای فناوری نوظهور را هدف دعاوی قرار دادهاند — و آن دعاوی به ندرت جریان تکاملی فناوری را متوقف کردهاند.»
این پاسخ تلاش دارد پرونده را در چارچوب تغییرات فناوری و مقاومتهای تاریخی صنعت رسانه جا دهد؛ روایتی که فرض میکند هر تحول بزرگ فنی در ابتدا با مخالفتهای حقوقی و تجاری روبهرو میشود و سپس صنعتها راهکارهای جدیدی برای همزیستی یا تطبیق پیدا میکنند. در این چارچوب، پرپلکسیتی احتمالاً روی بحثهایی مثل اهمیت دسترسی آزاد به اطلاعات، مزایای نوآوری مبتنی بر دادههای عمومی و نقش فناوریهای جدید در گسترش دسترسی به اخبار تأکید خواهد کرد.
با این حال، پاسخهای تاریخی الزاماً مسائل حقوقی و اخلاقی مربوط به کپیرایت و اقتصاد انتشار خبر در عصر هوش مصنوعی را حل نمیکنند؛ بهویژه وقتی که شواهدی از بازتولید نزدیک به اصل محتوا یا دورزدن paywallها مطرح است. بهعبارت دیگر، استدلال تاریخی بخش از دفاع است اما مواجهه با مستندات فنی و نمونههای موردی که در شکایت ارائه میشود نیز برای نتیجهگیری قضایی اهمیت دارد.
اهمیت این پرونده برای ناشران و ابزارهای هوش مصنوعی
این شکایت بخشی از موجی از پروندههای حقوقی است که پرپلکسیتی با آن مواجه شده است. گزارشها و تحقیقات نشریاتی مانند Forbes و WIRED در طول سال جاری اشاره کردهاند که سرویس پرپلکسیتی برخی paywallها را دور زده و خلاصههایی تولید کرده که گاهی تا حد نسخه تقریبی مقاله محافظتشده توسعه یافتهاند. روزنامه شیکاگو تریبون نیز پیش از پرونده نیویورکتایمز، شکایتی مشابه علیه پرپلکسیتی ثبت کرده بود که نشان از نگرانی چندین نهاد خبری درباره رویکرد این استارتاپ دارد.
آینده این پرونده میتواند مسیر روشنی برای نحوه تعامل تولیدکنندگان هوش مصنوعی با محتوای خبری تعیین کند. چند سناریوی اصلی وجود دارد:
1. پیروزی ناشران: اگر دادگاهها به نفع ناشران حکم دهند، شرکتهای هوش مصنوعی ممکن است با الزام به اخذ مجوز از ناشران برای استفاده از محتوای خبری روبهرو شوند. در این حالت، مدلهای کسبوکار مبتنی بر خلاصهسازی خودکار ممکن است نیازمند توافقنامههای مالی یا قراردادهای لیسانس شوند و نیز ممکن است ملزومات فنی برای احترام به فایلهای robots.txt و paywallها تعریف شود.
2. پیروزی سرویسهای هوش مصنوعی: اگر دادگاهها در جهت تفسیر محافظهکارانهتر از حقوق نشر عمل کنند یا استفادهای را در زمره «استفاده منصفانه» بدانند، دسترسی و بهرهبرداری از متنهای عمومی وب برای آموزش و تولید محتوا تسهیل میشود. این نتیجه میتواند هزینه دسترسی به دادههای متنی را پایینتر بیاورد و توسعه مدلهای زبانی را تسریع کند، اما در مقابل فشار بر مدلهای درآمدی ناشران افزایش مییابد.
3. راهحل میانه: احتمال قوی دیگری که تحلیلگران به آن اشاره میکنند، ایجاد استانداردها و سازوکارهای میانی است؛ از جمله چارچوبهای حقوقی جدید، توافقهای جمعی بین پلتفرمها و ناشران یا مکانیزمهای پرداخت خرد برای استفاده از مقالات. در این سناریو، هم حقوق ناشران محافظت میشود و هم نوآوری در حوزه هوش مصنوعی ادامه مییابد اما با قواعد شفافتر و عادلانهتر.
علاوه بر تبعات حقوقی و تجاری، این دعوی به سوالات فنی مهمی نیز اشاره میکند: چگونه باید فایلهای robots.txt تفسیر و اجرا شوند؟ آیا دورزدن paywallها جرم محسوب میشود یا صرفاً نقض شرایط استفاده؟ چه مشخصاتی برای اثبات اینکه یک پاسخ هوش مصنوعی «بازتولید اصل محتوا» است وجود دارد و چه معیارهایی برای تمایز بین خلاصهسازی مجاز و کپیبرداری باید به کار رود؟
چه موضوعاتی برای خوانندگان و توسعهدهندگان اهمیت دارد
انتظار میرود این پرونده بر رفتار محصولات و هنجارهای صنعتی تأثیر بگذارد. پرسشهایی که در کوتاهمدت و بلندمدت اهمیت دارند عبارتاند از:
- آیا شرکتهای هوش مصنوعی فیلترها و قراردادهای مجوز سختگیرانهتری را اتخاذ خواهند کرد؟
- آیا ناشران مدلهای جدیدی برای دریافت حقالزحمه یا سهم درآمد از استفاده AI از محتوایشان تدوین خواهند کرد؟
- چگونه بازار محتوا و توزیع خبر تغییر خواهد کرد اگر ابزارهای جستجو و خلاصهسازی بتوانند بدون محدودیت از متون آنلاین استفاده کنند؟
برای توسعهدهندگان، این پرونده یک هشدار عملی است: لازم است مکانیزمهای فنی برای احترام به تنظیمات سایت (مثل robots.txt) و سیاستهای قانونی در پلتفرمها طراحی و مستندسازی شود. همچنین، تیمهای فنی باید سامانههایی برای تشخیص و جلوگیری از بازتولید نزدیک به متن اصلی ایجاد کنند؛ این موضوع هم از دیدگاه رعایت حقوق نشر و هم از منظر اعتبار محصول اهمیت دارد.
برای ناشران و مدیران رسانه، پرونده یادآوری میکند که تنظیم مدلهای درآمدی وابسته به دسترسی مستقیم کاربر (اشتراک، تبلیغات، فروش نسخه چاپی) در مواجهه با تکنولوژیهای جدید آسیبپذیر است. بنابراین لازم است استراتژیهای جدیدی تدوین شود؛ از جمله لایهبندی محتوا، ارائه ارزش افزوده برای مشترکین، و مذاکره درباره لیسانسدهی محتوا به سرویسهای مبتنی بر هوش مصنوعی.
در نهایت، برای خوانندگان عمومی و مخاطبان خبر، نتیجه این پرونده تعیینکننده خواهد بود برای اینکه خبر چطور در دسترس، قابل جستجو و خلاصهپذیر باقی بماند و چه کسانی کنترل و سود استفاده از محتوای خبری را در عصر دیجیتال در اختیار خواهند داشت.
همانطور که تیمهای حقوقی در حال آمادهسازی لوایح و ارائه شواهد هستند، دنیای فناوری و رسانه با دقت این پرونده را دنبال میکند: نتیجه میتواند یک سابقه قضایی مهم درباره نحوه برخورد نسل بعدی ابزارهای هوش مصنوعی با محتوای خبری دارای حق نشر ایجاد کند.
منبع: smarti
ارسال نظر