سرنوشت کارجویان در دستان هوش مصنوعی
استارتآپهای کوچک و پلتفرمهای حرفهای بزرگ از هوش مصنوعی برای یافتن و استخدام نیروهای جدید استفاده میکنند، اما استفاده از این ابزارها میتوانند تصمیمگیریهای سوگیرانه را تقویت کنند.
به گزارش تفاهم آنلاین به نقل از ایسنا، توری پادمجرسکی (Torrey Podmajersky)، مشاور تجربه کاربری در سیاتل، یک ایمیل شخصی در ماه ژانویه از استخدامکنندهای به نام جنی جانسون (Jennie Johnson) دریافت کرد. در این پیام آمده بود که جانسون یک پروفایل شغلی برای پادمجرسکی ایجاد کرده و چند کار منطبق با پروفایل او را پیشنهاد داده است، اما این پروفایل بسیار گسترده بود و چندین بخش مهم از تاریخچه حرفهای او در آن حذف شده بود. پادمجرسکی که در وهله اول به دنبال کار نبود، متوجه شد که این یک کلاهبرداری است.
به نقل از اسای، تا زمانی که تا پایین صفحه نرفته بود، متوجه نشد جانسون حتی یک انسان هم نیست. ایمیل از یک ربات هوش مصنوعی آمده بود. شرکت سازنده، آن را به عنوان «هوش مصنوعی نماینده یک مربی شغلی حرفهای» توصیف کرده بود. پادمجرسکی به یاد میآورد: که احساس ناخوشایندی را تجربه کرده زیرا متوجه شده است که این هوش مصنوعی برای ایجاد احساس دیده شدن، خاص بودن، مراقبت و حمایت طراحی شده و همه اینها دروغ بوده است.
داگلاس همیلتون (Douglas Hamilton)، یک مدیر بازنشسته فروش و بازاریابی در آلبانی، نیویورک نیز یک ایمیل از جنی جانسون دریافت کرد. همیلتون خلاصه کار ربات را این گونه توصیف میکند: نقشهای اشتباه، صنعت اشتباه، سطح اشتباه. او ایمیل را باز کرده بود، زیرا عکس استخدامکننده که در مکاتبات برای استخدام نامعمول بود، توجه او را جلب کرد. آن عکس نیز به صورت مصنوعی ساخته شده بود.
ربات جنی جانسون، بخشی از یک ابزار توسعهیافته توسط شرکت مولد هوش مصنوعی هایپرلیپ (Hyperleap) است که در چند ماه اخیر ایمیلهای ناخواستهای را برای بسیاری از متخصصان ارسال کرده است. این تنها یک نمونه از این است که چگونه پلتفرمهای استخدام، از استارتآپهای کوچک گرفته تا لینکدین، بهطور فزایندهای از هوش مصنوعی برای یافتن، فیلتر کردن و استخدام افراد جدید استفاده میکنند. با پیچیدهتر شدن این ابزارها، کارشناسان نگرانند که مسیریابی در بازار کار برای جویندگان کار، بیشتر فاقد صفات انسانی شده و تعصبات موجود تقویت شود.
شرکت هایپرلیپ، مستقر در پارک سیتی، یوتا، جنی جانسون را به عنوان یک ابزار کاریابی آنلاین ایجاد کرد که خلاصههای خودکار شغل را برای کاربرانی که در این سرویس ثبتنام میکنند، ارسال میکند. مدیر عامل شرکت، کوین هولبرت (Kevin Holbert)، میگوید این سیستم هوش مصنوعی اطلاعیههای شغلی آنلاین و وبسایتهای کسبوکار را بررسی میکند تا یک پایگاه داده قابل جستجو بسازد. سپس پروفایل لینکدین، رزومه و سابقه کاری افراد را بررسی میکند و این اطلاعات را با پایگاه داده خود تطبیق میدهد تا فرصتهای شغلی را به افراد پیشنهاد دهد.
به گفته هولبرت، اگرچه هر کسی میتواند در این سرویس ثبتنام کند، افرادی مانند پادمجرسکی و همیلتون ایمیلهای ناخواسته خود را در طول کمپینهای اولیه هایرپلیپ دریافت کردند تا با مشارکت یک پلتفرم شغلی، کاربران جدیدی را به دست آورند. او میگوید هرکسی که در آن پلتفرم ثبتنام میکرد، هشدارهایی را از ربات جنی جانسون نیز دریافت میکرد، اگرچه نه پادمجرسکی و نه همیلتون به یاد نمیآورند که در آن زمان در هیچ پلتفرم شغلی ثبتنام کرده باشند. هولبرت میگوید که شرکت از آن زمان این مشارکت را متوقف کرده است و آنها همچنان به پاک کردن لیست خود و حذف کاربرانی که درگیر نیستند، ادامه میدهند.
خدماتی مانند جنی جانسون گسترش طبیعی فناوری خودکار است که استخدامکنندگان بیش از یک دهه از آن استفاده میکنند. ریگان گراس (Regan Gross) از انجمن مدیریت منابع انسانی (SHRM) که به متخصصان منابع انسانی در مورد شیوههای استخدام مشاوره میدهد، میگوید: اینها شامل نرم افزار ردیابی متقاضی میشوند که رزومهها را برای یافتن کلمات کلیدی بررسی میکند. بیش از ۹۷ درصد از شرکتهای فورچون ۵۰۰ (فهرستی از ۵۰۰ مورد از بزرگترین شرکتهای آمریکایی از نظر درآمدزایی ) در حال حاضر به چنین ابزارهایی برای بررسی متقاضیان متکی هستند و یک نظرسنجی در سال ۲۰۲۲ نشان داد که ۴۲ درصد از سازمانهای مورد بررسی با ۵۰۰۰ کارمند یا بیشتر گزارش دادهاند که از خودکار شدن یا حضور هوش مصنوعی در فعالیتهای مرتبط با منابع انسانی، از جمله استخدام استفاده میکنند.
گراس مزایای بالقوهای را در برخی از این ابزارها میبیند، اما میگوید که آنها محدودیتهای مخصوص به خود را دارند. به عنوان مثال، در حالی که برنامههای کاربردی هوش مصنوعی میتوانند در انجام وظایف اساسی مانند خلاصه کردن مهارتهای متقاضی کمک کنند، اما هنوز نمیتوانند شخصیت و ویژگیهای منحصربهفردی را که برای استخدامکنندگان مهم است، به تصویر بکشند. گراس پیشبینی میکند که استفاده گسترده از هوش مصنوعی، جویندگان کار را مجبور میکند راههای جدیدی برای متمایز کردن خود بیابند.
برنامههای کاربردی هوش مصنوعی به طور پیوسته فرآیند استخدام را خودکار میکنند. به عنوان مثال، پلتفرمهای بزرگتری مانند لینکدین اکنون میتوانند به طور خودکار تجربه کاری و مهارتهای افراد جویای کار را با مشاغل موجود مطابقت دهند. برخی از آنها، از جمله ZipRecruiter، چتباتهای انسانی نیز ارائه میدهند که میتوانند به سؤالات مربوط به یک شغل پاسخ دهند، با نامزدهای بالقوه تماس بگیرند و ارزیابیهای شخصیتی را انجام دهند. هوش مصنوعی مولد جدید حتی به کارفرمایان این امکان را میدهد که بخشهای کامل فرآیند استخدام از جمله جستجوی نامزدها و انجام مصاحبههای از پیش برنامهریزی شده را به الگوریتمها برون سپاری کنند.
هولبرت میگوید هایپرلیپ یک شخصیت انسانی برای هوش مصنوعی خودساخته است تا برقراری ارتباط با آن را راحتتر کند و مردم در مواجهه با آن طبیعیتر عمل کنند.
زهیرا جاسر (Zahira Jaser) که در مورد رفتار سازمانی در مدرسه بازرگانی دانشگاه ساسکس در انگلستان تحقیق میکند، میگوید که عدم شفافیت در فرآیند استخدام خودکار میتواند اثر معکوس داشته باشد.
جاسر معتقد است که عدم اطمینان کارجو در مورد اینکه آیا با یک انسان سر و کار دارد یا خیر، بر عملکرد نامزدها در طول فرآیند استخدام تأثیر میگذارد و همچنین میتواند مانع از دریافت اطلاعات دقیق از رفتار عادی نامزدها شود. او در تحقیقات خود در مورد مصاحبههای مبتنی بر هوش مصنوعی دریافته است که متقاضیان معمولا اگر فکر میکنند به جای انسان با یک ربات آنلاین صحبت میکنند، رفتار طبیعی کمتری از خود نشان میدهند. برای مثال، آنها نگاه ثابتی روی صفحه نمایش خواهند داشت و از حرکت دادن دستان خود خودداری میکنند.
تحقیقات جاسر همچنین نشان میدهد که مصاحبههای مبتنی بر هوش مصنوعی اغلب نامزدهایی را که فارغالتحصیلان نسل اول هستند، با لهجه صحبت میکنند یا از پیشزمینه کمتری برخوردارند، نادیده میگیرند.
فارغالتحصیلان نسل اول به کسانی گفته میشود که پدر و مادر آنها فاقد تحصیلات آکادمیک هستند.
جاسر اضافه میکند که بدون نظارت کافی انسانی، این سیستمهای استخدام مبتنی بر هوش مصنوعی میتوانند تعصبات موجود را تقویت کنند. او میگوید: بهکارگیری این نوع سیستمها ممکن است از منظر کنترل هزینهها عالی باشد، اما اگر کنترل نشود، ممکن است مشکلاتی در مورد تنوع ایجاد کند.
النور دراگ (Eleanor Drage)، محقق اخلاق هوش مصنوعی در دانشگاه کمبریج میگوید: توسعهدهندگان ابزارهای استخدام هوش مصنوعی اغلب گفتهاند که الگوریتمهایشان این پتانسیل را دارد که از انسانها عینیتر باشند؛ اگر این ابزارها بر روی دادههایی که به اندازه کافی فراگیر و متنوع هستند، آموزش ببینند. اما چنین ادعاهایی گمراهکننده هستند و نشاندهنده عدم درک نحوه عملکرد سوگیرانه در دنیای واقعی است.
دراگ افزود: از آنجایی که سیستمهای استخدام مبتنی بر هوش مصنوعی بر اساس گرایشها و شیوههای استخدام در گذشته آموزش دیدهاند که غالبا مغرضانه و تبعیضآمیز بودهاند، آنها همیشه همان الگوها را تکرار میکنند، حتی اگر شرکتها به صراحت عواملی مانند نژاد و جنسیت را حذف کنند.
جاسر میگوید: اگرچه تبلیغات پیرامون این ابزارهای استخدام هوش مصنوعی در حال حاضر زیاد است، بسیاری از دپارتمانهای منابع انسانی منتظر هستند تا قبل از استفاده از آنها، کارایی این ابزارها ثابت شود. او افزود: امیدواریم آنها به طور انبوه پذیرفته نشوند، مگر در صورتی که مفید، منصفانه و قابل اعتماد بودن آنها ثابت شود.