您的位置:首頁 > 聚焦 >

【破解職場歧視,促進平等就業(yè)4】算法之下,如何尋求公平就業(yè)機會

【破解職場歧視,促進平等就業(yè)4】

算法之下,如何尋求公平就業(yè)機會(主題)

工人日報-中工網(wǎng)記者 李娜

閱讀提示

近年來,算法歧視、“大數(shù)據(jù)殺熟”等算法不合理應用導致的問題備受關(guān)注。為了防范化解安全風險,國家相關(guān)部門出臺了有針對性的管理規(guī)定。

不少專家認為,在數(shù)字時代,隨著算法參與用工管理過程,就業(yè)歧視手段更隱蔽、損害更難以察覺,勞動者對此難以獲知、難以證實,其中最為明顯的就是性別歧視給現(xiàn)行勞動法律法規(guī)帶來的新挑戰(zhàn)。

“大數(shù)據(jù)?算法?搞不懂!”4月24日晚10時,27歲的葉莉跑滿12小時派單后剛剛下班,在成都市中心一個總計有80余人的外賣送餐員站點,作為僅有的2名女性從業(yè)者之一,除了接單、送餐,關(guān)于平臺背后的一切“高科技”,她都不感興趣。只是每每工資入賬時,心里便不由得慶幸,“去年回家過年的人多,要不是平臺招人急切,我可能還得不到這份工作呢!”

在共享經(jīng)濟平臺用工模式下,葉莉?qū)ζ浍@取工作機會的艱難無暇多想。但這一潛在問題卻引起了學界的廣泛關(guān)注。不少專家認為,在數(shù)字時代,隨著算法參與用工管理過程,就業(yè)歧視手段更隱蔽、損害更難以察覺,勞動者對此難以獲知、難以證實,其中最為明顯的就是性別歧視給現(xiàn)行勞動法律法規(guī)帶來的新挑戰(zhàn)。

警惕求職中的“黑箱”淘汰

“女性有更多輕松一點的職業(yè)選擇,不適合這風吹日曬雨淋的粗活”。成都市一街道片區(qū)快遞員站點近百名從業(yè)者中98%為男性,作為主力隊伍中的一員,趙明認為團隊中女性稀少,緣于行業(yè)特殊性,女性不愿意進入這一領(lǐng)域。對此葉莉并不認同。

“只要掙錢多,誰還怕吃苦呢!”葉莉?qū)W歷不高,在競爭激烈的大城市尋一份合心意的工作并不容易,外賣送餐時間靈活、薪水可觀,于她而言十分珍惜。但即便在人員緊缺的年關(guān),仍險些與這份工作失之交臂,“無外乎擔心女性身子柔弱,體力活堅持不下來”。

趙明和葉莉各持己見,任誰也沒有想過平臺運轉(zhuǎn)的背后,掌控大數(shù)據(jù)排列組合的算法正在影響他們的求職就業(yè)。

近年來,算法歧視、“大數(shù)據(jù)殺熟”等算法不合理應用導致的問題備受關(guān)注。為了防范化解安全風險,國家相關(guān)部門出臺了有針對性的管理規(guī)定,但這僅是針對消費者端口的管控。有學者認為,由于算法具有較強的自主性,當勞動者資質(zhì)、工作時間、生物數(shù)據(jù)、移動位置、勞動成果等各項信息均被充分數(shù)字化后,算法的自動化決策在招聘、任務分配、勞動評估甚至解雇決策中,或?qū)a(chǎn)生難以察覺的歧視結(jié)果。

北京大學法學院助理教授閻天在專注于勞動法學的研究中敏銳察覺到這一問題。在他看來,與傳統(tǒng)算法不同,隨著大數(shù)據(jù)和機器學習技術(shù)的應用,當代算法自主獲取信息能力極大提升,不僅會在自學中不斷變化,其內(nèi)容也可能無法被程序員、更無法被公眾理解,成為某種意義上的“黑箱”,并可能嵌入設(shè)計者和雇主固有的性別歧視,進一步加劇固有的性別不平等。

算法歧視更隱秘且難以規(guī)制

“共享經(jīng)濟下,彈性的工作時間、靈活的就業(yè)方式對女性有著天然吸引力,曾被認為能夠促進兩性就業(yè)平等、賦權(quán)女性經(jīng)濟能力,現(xiàn)實并非如此”。北京科技大學文法學院副教授張凌寒在調(diào)查研究中發(fā)現(xiàn),雖然總體來說共享經(jīng)濟為社會創(chuàng)造了更多勞動和收入機會,但卻更多地分配給了男性勞動者。

“這也意味著我們針對性別歧視的法律防御體系存在失靈的風險。”閻天告訴記者,由于算法可以從數(shù)據(jù)中準確推測求職者婚育狀況等信息,其自主性也讓性別因素在算法決策中扮演的角色難以確定。

因此,我國現(xiàn)有法律對反就業(yè)歧視中關(guān)于性別歧視的規(guī)定,不足以應對算法歧視可能產(chǎn)生的情形。

記者在采訪過程中發(fā)現(xiàn),我國相關(guān)法律中,關(guān)于性別歧視的規(guī)定均是針對直接性別歧視,如阻止獲知求職者婚育狀況、禁止將性別因素納入人事決策等,但數(shù)字時代的隱性性別歧視很難通過主觀意圖得到證明。

現(xiàn)行勞動保障法律制度受到挑戰(zhàn)

面對算法歧視對于女性公平就業(yè)的挑戰(zhàn),學界前瞻性地提出了一系列對策,其中部分獲得政府初步采納。比如個人信息保護法中將求職者婚育信息確定為“敏感個人信息”,用人單位在處理這類信息時必須“具有特定目的和充分的必要性”“取得個人單獨同意”“取得相關(guān)行政許可”以及禁止算法獲取某些便于推測女性婚育狀況的數(shù)據(jù)等。但絕大多數(shù)被認為是治標之策,非治本之道。

針對這一現(xiàn)實問題,張凌寒認為,應該對傳統(tǒng)法律制度作出擴大解釋,便于女性勞動者在算法自動化決策做出不利的人事決策時,尋求主動性別歧視的救濟;將算法納入勞動法規(guī)的合法性和合理性審查范圍,便于法院審查用人單位利用算法參與用工管理過程中是否存在性別歧視的行為;擴大對性別歧視的結(jié)果認定,將間接性別歧視納入勞動法規(guī)制對象中。

“針對算法在就業(yè)歧視中所起作用的討論屬于‘治未病’范疇,其背后的發(fā)病機理更應得到關(guān)注”。閻天稱,國家調(diào)整生育政策、放開“三孩”背景下,就業(yè)歧視的“病根”在于生育成本分擔的不公。隨著其與算法歧視之間的因果聯(lián)系愈發(fā)突顯,如何消除“病根”,更為值得深思。

標簽: 共享經(jīng)濟 算法歧視 公平就業(yè) 大數(shù)據(jù)殺熟 黑箱淘汰

相關(guān)閱讀