Ryan He on Nostr: 監控資本主義 ...
監控資本主義
https://zh.wikipedia.org/wiki/%E7%9B%91%E8%A7%86%E8%B5%84%E6%9C%AC%E4%B8%BB%E4%B9%89雇主利用你的個人資料,推算你最低願意接受多少薪資
https://www.marketwatch.com/story/employers-are-using-your-personal-data-to-figure-out-the-lowest-salary-youll-accept-c2b968fbMarketWatch 指出,企業正把原本用在商品上的「監控式定價」帶進勞動市場,演變成所謂的「監控式薪資」:雇主不再只看學經歷、年資與市場行情,而是用人工智慧 (AI) 和演算法分析求職者與員工的個人資料,推算他最低願意接受多少薪資。勞工倡議者說,判斷依據可能包括是否申辦過發薪日貸款、信用卡負債高低、郵遞區號、瀏覽行為,以及公開社群媒體透露的工會傾向或懷孕可能性。這使薪資談判從能力與表現的比較,轉成對個人經濟壓力與生活處境的估算,也讓歧視更容易隱藏在演算法後面。
加州大學爾灣分校法學教授 Veena Dubal 與技術策略顧問 Wilneida Negrón 在 2025 年檢視 500 家勞資管理 AI 公司後發現,醫療、客服、物流與零售業已有不少企業向提供這類工具的廠商採購服務,報告點名的客戶包含 Intuit、Salesforce、Colgate-Palmolive、Amwell 與 Healthcare Services Group。不過報告並未直接斷言所有客戶都已用演算法監控薪資,而是警告這些工具正讓企業更容易把壓低成本置於透明與公平之上。部分公司已否認有用這些工具決定薪酬;同時,International Data Corporation (IDC,國際資料公司) 的調查顯示,2022 年員工超過 500 人的公司裡,近 70% 已使用某種員工監看系統,顯示這類資料蒐集與行為追蹤已相當普遍。
這種作法在零工醫護與叫車平台尤其明顯。報導引述研究指出,部分護理排班平台會依護理師過去接班頻率、回應速度、先前接受過的價碼等資料,為同一班次開出不同報酬,等於把曾願意接受低薪的人長期鎖在較低薪帶;ShiftKey 否認使用債務或資料仲介資料來訂薪。類似爭議也出現在 Uber 和 Lyft,司機反映同一時間、同一路程,不同人看到的底價可能不同,且通常要多人拒單後,價格才會往上調整。Uber 則表示車資演算法主要依時間、距離與需求條件,不會依司機個人特徵或過往行為決定薪資。批評者認為,這些制度本質上是在衡量一個人的「絕望程度」,再精準地把加薪、獎金或接案報酬壓到最低,同時部分工具還會結合生產力追蹤、顧客互動紀錄,甚至工作時的聲音與影像監看。
立法端目前仍落後於技術擴張。紐約州最近要求企業若以演算法搭配個人資料來訂消費價格,必須揭露;科羅拉多州則提出更進一步的法案,擬禁止企業利用發薪日貸款紀錄、定位資料、Google 搜尋行為等私密資料,來設定個別化薪資或價格,但仍保留以可衡量績效決定薪酬的空間。討論串裡,許多人把焦點放在資料來源與議價權失衡:有人指出 Equifax (美國大型信用評分與徵信公司) 旗下的 The Work Number 會保存薪資與就業驗證資料,且要凍結檔案往往還得再上傳更多個資,引發強烈反感;也有人認為,市場本來就會替薪資找到區間,員工自己也會查薪資行情,但更多留言反駁說,真正的問題不只是企業也在做功課,而是當雇主掌握薪資史、信用狀態與生活脆弱度後,資訊不對稱會明顯削弱勞工談判力,並讓懷孕、健康、年齡、種族或宗教等本來不該碰觸的歧視因素,透過演算法間接滲入決策。整體輿論因此傾向贊成更強的薪資透明規範、工會集體談判與對資料仲介的限制,而不是把這類工具視為正常的市場效率。
👥 45 則討論、評論 💬
https://news.ycombinator.com/item?id=47655466Published at
2026-04-07 02:05:49 UTCEvent JSON
{
"id": "8e4e33d09bc930616cd9e3606a3a8fe41c4105e398615956ffd14e1382b25257",
"pubkey": "20856760c693f55200b97b98b35c6ffaa6af89ee52bae39d09503133ab76f5ad",
"created_at": 1775527549,
"kind": 1,
"tags": [
[
"proxy",
"https://mistyreverie.org/notes/akrjkmebugkv00vr",
"activitypub"
],
[
"client",
"Mostr",
"31990:6be38f8c63df7dbf84db7ec4a6e6fbbd8d19dca3b980efad18585c46f04b26f9:mostr",
"wss://relay.ditto.pub"
]
],
"content": "監控資本主義\nhttps://zh.wikipedia.org/wiki/%E7%9B%91%E8%A7%86%E8%B5%84%E6%9C%AC%E4%B8%BB%E4%B9%89\n\n雇主利用你的個人資料,推算你最低願意接受多少薪資 https://www.marketwatch.com/story/employers-are-using-your-personal-data-to-figure-out-the-lowest-salary-youll-accept-c2b968fb\n\nMarketWatch 指出,企業正把原本用在商品上的「監控式定價」帶進勞動市場,演變成所謂的「監控式薪資」:雇主不再只看學經歷、年資與市場行情,而是用人工智慧 (AI) 和演算法分析求職者與員工的個人資料,推算他最低願意接受多少薪資。勞工倡議者說,判斷依據可能包括是否申辦過發薪日貸款、信用卡負債高低、郵遞區號、瀏覽行為,以及公開社群媒體透露的工會傾向或懷孕可能性。這使薪資談判從能力與表現的比較,轉成對個人經濟壓力與生活處境的估算,也讓歧視更容易隱藏在演算法後面。\n\n加州大學爾灣分校法學教授 Veena Dubal 與技術策略顧問 Wilneida Negrón 在 2025 年檢視 500 家勞資管理 AI 公司後發現,醫療、客服、物流與零售業已有不少企業向提供這類工具的廠商採購服務,報告點名的客戶包含 Intuit、Salesforce、Colgate-Palmolive、Amwell 與 Healthcare Services Group。不過報告並未直接斷言所有客戶都已用演算法監控薪資,而是警告這些工具正讓企業更容易把壓低成本置於透明與公平之上。部分公司已否認有用這些工具決定薪酬;同時,International Data Corporation (IDC,國際資料公司) 的調查顯示,2022 年員工超過 500 人的公司裡,近 70% 已使用某種員工監看系統,顯示這類資料蒐集與行為追蹤已相當普遍。\n\n這種作法在零工醫護與叫車平台尤其明顯。報導引述研究指出,部分護理排班平台會依護理師過去接班頻率、回應速度、先前接受過的價碼等資料,為同一班次開出不同報酬,等於把曾願意接受低薪的人長期鎖在較低薪帶;ShiftKey 否認使用債務或資料仲介資料來訂薪。類似爭議也出現在 Uber 和 Lyft,司機反映同一時間、同一路程,不同人看到的底價可能不同,且通常要多人拒單後,價格才會往上調整。Uber 則表示車資演算法主要依時間、距離與需求條件,不會依司機個人特徵或過往行為決定薪資。批評者認為,這些制度本質上是在衡量一個人的「絕望程度」,再精準地把加薪、獎金或接案報酬壓到最低,同時部分工具還會結合生產力追蹤、顧客互動紀錄,甚至工作時的聲音與影像監看。\n\n立法端目前仍落後於技術擴張。紐約州最近要求企業若以演算法搭配個人資料來訂消費價格,必須揭露;科羅拉多州則提出更進一步的法案,擬禁止企業利用發薪日貸款紀錄、定位資料、Google 搜尋行為等私密資料,來設定個別化薪資或價格,但仍保留以可衡量績效決定薪酬的空間。討論串裡,許多人把焦點放在資料來源與議價權失衡:有人指出 Equifax (美國大型信用評分與徵信公司) 旗下的 The Work Number 會保存薪資與就業驗證資料,且要凍結檔案往往還得再上傳更多個資,引發強烈反感;也有人認為,市場本來就會替薪資找到區間,員工自己也會查薪資行情,但更多留言反駁說,真正的問題不只是企業也在做功課,而是當雇主掌握薪資史、信用狀態與生活脆弱度後,資訊不對稱會明顯削弱勞工談判力,並讓懷孕、健康、年齡、種族或宗教等本來不該碰觸的歧視因素,透過演算法間接滲入決策。整體輿論因此傾向贊成更強的薪資透明規範、工會集體談判與對資料仲介的限制,而不是把這類工具視為正常的市場效率。\n\n👥 45 則討論、評論 💬\nhttps://news.ycombinator.com/item?id=47655466",
"sig": "c4e2949a7448b0d1e02cb46a3e017b4f69f9aa2411f431dc7fb82d8495e9ef0b0aaea0ca9c9a53df7b24944ea00305cfb2f5d1b8c510b70eb19acecc11770d02"
}