هوش مصنوعی و تحلیل چهره: پیامدها در استخدام و اعتبار

هوش مصنوعی و تحلیل چهره: پیامدها در استخدام و اعتبار

نظرات

6 دقیقه

پژوهشی تازه از دانشگاه پنسیلوانیا نشان می‌دهد که هوش مصنوعی می‌تواند از تصاویر پروفایل سرنخ‌هایی دربارهٔ شخصیت استخراج کند و از آن برای پیش‌بینی نتیجه‌های شغلی استفاده نماید. این یافته نگرانی‌هایی را دربارهٔ خودکارسازی فرآیند استخدام، تصمیمات اعتباری و وجوه اخلاقی به‌کارگیری تحلیل چهره به‌عنوان نشانه‌ای از قابلیت استخدام مطرح می‌سازد. در این گزارش به روش کار تحقیق، نتایج آماری، پیامدهای حقوقی و اخلاقی، و مسیرهای پژوهشی آینده پرداخته می‌شود تا تصویر کامل‌تری از خطرات و فرصت‌های «تحلیل چهره با هوش مصنوعی» ارائه گردد.

How the study worked — faces, algorithms, and the Big Five

تیم پژوهشی مدل‌های یادگیری ماشینی را بر پایه مطالعات پیشین که ارتباط‌هایی بین ظاهر صورت و صفات شخصیتی گزارش کرده بودند، آموزش داد. آن‌ها ۹۶٬۰۰۰ تصویر پروفایل فارغ‌التحصیلان MBA را از لینکدین گردآوری کردند و از یک سامانهٔ هوش مصنوعی برای برآورد پنج صفت شخصیتی اصلی — گشودگی (Openness)، وجدان‌گرایی (Conscientiousness)، برون‌گرایی (Extraversion)، موافق‌بودن (Agreeableness) و روان‌رنجوری (Neuroticism) — که به‌طور جمعی «بیگ فایو» خوانده می‌شوند، استفاده کردند. این روند شامل پردازش تصاویر، استخراج ویژگی‌های چهره‌ای، و تطبیقِ آماریِ برون‌یابی‌شده‌ها با داده‌های واقعی بازار کار بود.

From pixels to personality scores

سامانهٔ هوش مصنوعی ویژگی‌های ساختاری و ظاهری صورت را اسکن کرد و براساس الگوهای آماری، امتیازهای مشخصی برای هر یک از صفات شخصیتی تولید نمود. پژوهشگران سپس این برآوردها را با متغیرهای واقعی شغلی مانند درآمد، مسیر شغلی، و سایر خروجی‌های بازار کار مقایسه کردند. تحلیل‌ها همبستگی‌های معناداری را نشان دادند: برون‌گراییِ برآوردشده از چهره قوی‌ترین پیش‌بینی‌کنندهٔ افزایش دستمزد بود، در حالی که گشودگیِ برآوردشده در نمونهٔ مورد مطالعه با درآمد کمتر همراه بود. توجه کنید که این همبستگی‌ها لزوماً دلیلی بر رابطهٔ علی نیستند و ممکن است تحت تأثیر متغیرهای میانجی و عوامل جمعیتی قرار داشته باشند.

Why this matters: hiring, lending and algorithmic fairness

تصور کنید سامانه‌هایی برای غربالگری خودکار که لایه‌ای از تحلیل چهره را به رزومه‌ها و مصاحبه‌ها می‌افزایند. بر اساس پوشش خبری در نشریه‌ی The Economist و مقاله‌ای که در SSRN منتشر شده است، شرکت‌هایی که به انگیزه‌های مالی پاسخ می‌دهند ممکن است از چنین ابزارهایی برای بهینه‌سازی تصمیمات استخدام، اجاره یا اعطای اعتبار استفاده کنند. این چشم‌انداز برای بسیاری نگران‌کننده است: ردّ داوطلبان تنها به‌خاطر پیش‌بینی الگوریتمیِ «صفات نامطلوب» از روی ظاهر چهره می‌تواند موجب نهادینه‌شدن تبعیض و نقض مقررات ضدتبعیض شود.

نویسندگان مقاله بر احتیاط تأکید می‌کنند و خروجی مدل را به‌عنوان یک منبع اطلاعاتی تکمیلی توصیف می‌نمایند، نه به‌عنوان مدرک قطعی از شخصیت یا سرنوشت شغلی فرد. زمینهٔ تحلیل چهره برای صفات رفتاری هنوز نوپا است و دقت آن در میان جمعیت‌ها و زمینه‌های مختلف متغیر است. خطاها می‌توانند نابرابری‌های اجتماعی را تشدید کنند، مخصوصاً اگر کارفرمایان، بانک‌ها یا موجران استنتاج‌های الگوریتمی را قطعی فرض نمایند. از منظر عدالت الگوریتمی، ابزارهای برون‌یابی شخصیت از شناخت چهره با ریسک‌های متعددی مانند سوگیری‌های نمونهٔ آموزشی، تبعیضِ ساختاری، و کاستی‌های ارزیابی بیرونی همراه است.

Possible benefits, real risks and unintended consequences

طرفداران این روش معتقدند که در برخی سناریوها ممکن است تحلیل چهره مفید واقع شود؛ برای نمونه، در موقعیت‌هایی که داده‌های مالی یا تاریخی محدود است، ابزارهایی برای ارزیابی ریسک اعتباری یا تطابق شغلی می‌توانند به تصمیم‌گیری کمک کنند. با این حال مقاله هشدار می‌دهد که استفاده گسترده از ابزارهای تحلیل چهره ممکن است پیامدهای رفتاری بلندمدتی داشته باشد: مردم ممکن است برای «فریب» سامانه‌های خودکار ظاهر خود را به‌صورت دیجیتال تغییر داده یا حتی به جراحی‌های زیبایی روی آورند تا نتایج الگوریتمی را به نفع خود رقم بزنند؛ پدیده‌ای که تبعات فرهنگی و روان‌شناختی قابل‌توجهی دارد.

علاوه بر این، چالش‌های حقوقی و فنی نیز قابل توجه‌اند. ابزارهای شناسایی چهره و برون‌یابی صفات با قوانین حریم خصوصی، مقررات ضدتبعیض و قوانین نوظهور در زمینهٔ سامانه‌های تصمیم‌گیرِ خودکار تلاقی دارند. بدون شفافیت محکم، قابلیت حسابرسی مستقل و سازوکارهای تضمین انصاف، استقرار این فناوری‌ها می‌تواند به آسیب‌های گسترده منجر شود. پرسش‌هایی دربارهٔ مسئولیت‌پذیری (accountability)، ورود نهادهای نظارتی، و نیاز به استانداردهای اندازه‌گیری منصفانه (fairness metrics) در این حوزه مطرح است.

What to watch next

پژوهشگران در حال ادامهٔ آزمایش‌ها هستند تا مشخص شود آیا سیگنال‌های استنباط‌شده از چهره در بازارهای شغلی مختلف و میان گروه‌های جمعیتی گوناگون ارزش پیش‌بینی‌کنندهٔ پایدار دارند یا خیر. بازتولید مستقل نتایج، داده‌های باز و مباحثهٔ سیاست‌گذاری عمومی برای تعیین کاربردهای مشروع—در صورت وجود—برای برون‌یابی شخصیت توسط هوش مصنوعی در استخدام یا اعتبارسنجی ضروری خواهد بود. مطالعات آینده باید دامنهٔ نمونه‌ها را گسترش دهند، اثر متغیرهای میانجی مانند موقعیت جغرافیایی، نژاد، جنسیت، سن و سطح تحصیلات را کنترل کنند، و آزمایش‌های بین‌المللی برای سنجش تعمیم‌پذیری انجام دهند.

در حال حاضر، این مطالعه یادآورِ آن است که یادگیری ماشین می‌تواند الگوهایی را بیابد که ممکن است برای انسان‌ها مشهود نباشد—اما الگو لزوماً مدرک نیست. سیاست‌گذارانی که به چارچوب‌های قانونی می‌اندیشند، کارفرمایانی که قصد استفاده از فناوری‌های تحلیل رفتاری را دارند و تکنولوژیست‌هایی که این سامانه‌ها را توسعه می‌دهند، باید سود بالقوه را در برابر خطراتی مانند خدشه‌دار شدن انصاف، نقض حریم خصوصی، و خدشه‌دار شدن خودمختاری فردی بسنجند. توصیه می‌شود پارامترهای شفافیت، امکان اعتراض (contestability)، و بررسی انسانیِ نتایج الگوریتمی جزو الزامات هر کاربرد عملی باشند.

به‌علاوه، ارتقای سواد دیجیتال در میان کارفرمایان و مصرف‌کنندگان سرویس‌های استخدامی و اعتباری، تقویت نهادهای نظارتی و تشویق به پژوهش‌های میان‌رشته‌ای میان علوم کامپیوتر، روان‌شناسی، حقوق و جامعه‌شناسی می‌تواند به کاهش مخاطرات کمک کند. در نهایت، اگرچه تحلیل چهره با هوش مصنوعی پتانسیل‌هایی دارد، اما تا زمانی که استانداردهای اخلاقی و قانونی قوی پیاده نشده‌اند، کاربردهای عملی آن باید با محدودیت‌ها و شروط محافظه‌کارانه همراه باشد.

منبع: smarti

ارسال نظر

نظرات