6 دقیقه
پژوهشی تازه از دانشگاه پنسیلوانیا نشان میدهد که هوش مصنوعی میتواند از تصاویر پروفایل سرنخهایی دربارهٔ شخصیت استخراج کند و از آن برای پیشبینی نتیجههای شغلی استفاده نماید. این یافته نگرانیهایی را دربارهٔ خودکارسازی فرآیند استخدام، تصمیمات اعتباری و وجوه اخلاقی بهکارگیری تحلیل چهره بهعنوان نشانهای از قابلیت استخدام مطرح میسازد. در این گزارش به روش کار تحقیق، نتایج آماری، پیامدهای حقوقی و اخلاقی، و مسیرهای پژوهشی آینده پرداخته میشود تا تصویر کاملتری از خطرات و فرصتهای «تحلیل چهره با هوش مصنوعی» ارائه گردد.
How the study worked — faces, algorithms, and the Big Five
تیم پژوهشی مدلهای یادگیری ماشینی را بر پایه مطالعات پیشین که ارتباطهایی بین ظاهر صورت و صفات شخصیتی گزارش کرده بودند، آموزش داد. آنها ۹۶٬۰۰۰ تصویر پروفایل فارغالتحصیلان MBA را از لینکدین گردآوری کردند و از یک سامانهٔ هوش مصنوعی برای برآورد پنج صفت شخصیتی اصلی — گشودگی (Openness)، وجدانگرایی (Conscientiousness)، برونگرایی (Extraversion)، موافقبودن (Agreeableness) و روانرنجوری (Neuroticism) — که بهطور جمعی «بیگ فایو» خوانده میشوند، استفاده کردند. این روند شامل پردازش تصاویر، استخراج ویژگیهای چهرهای، و تطبیقِ آماریِ برونیابیشدهها با دادههای واقعی بازار کار بود.
From pixels to personality scores
سامانهٔ هوش مصنوعی ویژگیهای ساختاری و ظاهری صورت را اسکن کرد و براساس الگوهای آماری، امتیازهای مشخصی برای هر یک از صفات شخصیتی تولید نمود. پژوهشگران سپس این برآوردها را با متغیرهای واقعی شغلی مانند درآمد، مسیر شغلی، و سایر خروجیهای بازار کار مقایسه کردند. تحلیلها همبستگیهای معناداری را نشان دادند: برونگراییِ برآوردشده از چهره قویترین پیشبینیکنندهٔ افزایش دستمزد بود، در حالی که گشودگیِ برآوردشده در نمونهٔ مورد مطالعه با درآمد کمتر همراه بود. توجه کنید که این همبستگیها لزوماً دلیلی بر رابطهٔ علی نیستند و ممکن است تحت تأثیر متغیرهای میانجی و عوامل جمعیتی قرار داشته باشند.
Why this matters: hiring, lending and algorithmic fairness
تصور کنید سامانههایی برای غربالگری خودکار که لایهای از تحلیل چهره را به رزومهها و مصاحبهها میافزایند. بر اساس پوشش خبری در نشریهی The Economist و مقالهای که در SSRN منتشر شده است، شرکتهایی که به انگیزههای مالی پاسخ میدهند ممکن است از چنین ابزارهایی برای بهینهسازی تصمیمات استخدام، اجاره یا اعطای اعتبار استفاده کنند. این چشمانداز برای بسیاری نگرانکننده است: ردّ داوطلبان تنها بهخاطر پیشبینی الگوریتمیِ «صفات نامطلوب» از روی ظاهر چهره میتواند موجب نهادینهشدن تبعیض و نقض مقررات ضدتبعیض شود.

نویسندگان مقاله بر احتیاط تأکید میکنند و خروجی مدل را بهعنوان یک منبع اطلاعاتی تکمیلی توصیف مینمایند، نه بهعنوان مدرک قطعی از شخصیت یا سرنوشت شغلی فرد. زمینهٔ تحلیل چهره برای صفات رفتاری هنوز نوپا است و دقت آن در میان جمعیتها و زمینههای مختلف متغیر است. خطاها میتوانند نابرابریهای اجتماعی را تشدید کنند، مخصوصاً اگر کارفرمایان، بانکها یا موجران استنتاجهای الگوریتمی را قطعی فرض نمایند. از منظر عدالت الگوریتمی، ابزارهای برونیابی شخصیت از شناخت چهره با ریسکهای متعددی مانند سوگیریهای نمونهٔ آموزشی، تبعیضِ ساختاری، و کاستیهای ارزیابی بیرونی همراه است.
Possible benefits, real risks and unintended consequences
طرفداران این روش معتقدند که در برخی سناریوها ممکن است تحلیل چهره مفید واقع شود؛ برای نمونه، در موقعیتهایی که دادههای مالی یا تاریخی محدود است، ابزارهایی برای ارزیابی ریسک اعتباری یا تطابق شغلی میتوانند به تصمیمگیری کمک کنند. با این حال مقاله هشدار میدهد که استفاده گسترده از ابزارهای تحلیل چهره ممکن است پیامدهای رفتاری بلندمدتی داشته باشد: مردم ممکن است برای «فریب» سامانههای خودکار ظاهر خود را بهصورت دیجیتال تغییر داده یا حتی به جراحیهای زیبایی روی آورند تا نتایج الگوریتمی را به نفع خود رقم بزنند؛ پدیدهای که تبعات فرهنگی و روانشناختی قابلتوجهی دارد.
علاوه بر این، چالشهای حقوقی و فنی نیز قابل توجهاند. ابزارهای شناسایی چهره و برونیابی صفات با قوانین حریم خصوصی، مقررات ضدتبعیض و قوانین نوظهور در زمینهٔ سامانههای تصمیمگیرِ خودکار تلاقی دارند. بدون شفافیت محکم، قابلیت حسابرسی مستقل و سازوکارهای تضمین انصاف، استقرار این فناوریها میتواند به آسیبهای گسترده منجر شود. پرسشهایی دربارهٔ مسئولیتپذیری (accountability)، ورود نهادهای نظارتی، و نیاز به استانداردهای اندازهگیری منصفانه (fairness metrics) در این حوزه مطرح است.
What to watch next
پژوهشگران در حال ادامهٔ آزمایشها هستند تا مشخص شود آیا سیگنالهای استنباطشده از چهره در بازارهای شغلی مختلف و میان گروههای جمعیتی گوناگون ارزش پیشبینیکنندهٔ پایدار دارند یا خیر. بازتولید مستقل نتایج، دادههای باز و مباحثهٔ سیاستگذاری عمومی برای تعیین کاربردهای مشروع—در صورت وجود—برای برونیابی شخصیت توسط هوش مصنوعی در استخدام یا اعتبارسنجی ضروری خواهد بود. مطالعات آینده باید دامنهٔ نمونهها را گسترش دهند، اثر متغیرهای میانجی مانند موقعیت جغرافیایی، نژاد، جنسیت، سن و سطح تحصیلات را کنترل کنند، و آزمایشهای بینالمللی برای سنجش تعمیمپذیری انجام دهند.
در حال حاضر، این مطالعه یادآورِ آن است که یادگیری ماشین میتواند الگوهایی را بیابد که ممکن است برای انسانها مشهود نباشد—اما الگو لزوماً مدرک نیست. سیاستگذارانی که به چارچوبهای قانونی میاندیشند، کارفرمایانی که قصد استفاده از فناوریهای تحلیل رفتاری را دارند و تکنولوژیستهایی که این سامانهها را توسعه میدهند، باید سود بالقوه را در برابر خطراتی مانند خدشهدار شدن انصاف، نقض حریم خصوصی، و خدشهدار شدن خودمختاری فردی بسنجند. توصیه میشود پارامترهای شفافیت، امکان اعتراض (contestability)، و بررسی انسانیِ نتایج الگوریتمی جزو الزامات هر کاربرد عملی باشند.
بهعلاوه، ارتقای سواد دیجیتال در میان کارفرمایان و مصرفکنندگان سرویسهای استخدامی و اعتباری، تقویت نهادهای نظارتی و تشویق به پژوهشهای میانرشتهای میان علوم کامپیوتر، روانشناسی، حقوق و جامعهشناسی میتواند به کاهش مخاطرات کمک کند. در نهایت، اگرچه تحلیل چهره با هوش مصنوعی پتانسیلهایی دارد، اما تا زمانی که استانداردهای اخلاقی و قانونی قوی پیاده نشدهاند، کاربردهای عملی آن باید با محدودیتها و شروط محافظهکارانه همراه باشد.
منبع: smarti
ارسال نظر