【業鑫說法】面試官不是人?AI 決定你飯碗的 7 個法律真相
2026-05-14
77
AI 決定你的飯碗?揭開招募黑盒子的法律真相 隨著 78% 的企業導入 AI 篩選,面試官可能不再是「人」。本篇將帶你解析 AI 招募背後的法律雷區,以及數位面試時代的生存策略。
78% 的履歷沒被「人」看過就刷掉!
調查數據顯示近八成企業已經導入 AI 招募。你的第一關是演算法。
若履歷還在寫「吃苦耐勞」這種模糊字眼,在 AI 眼裡可能就是無效數據。
面對人工智能,你得學會「演算法友善」的溝通術,否則連 HR 的面都見不到。
顏值打分?小心踩《就服法》地雷!
AI 面試可能會分析應試者臉部細微表情。
若因求職者顏面神經失調、不習慣看鏡頭而給低分,即構成《就業服務法》第 5 條「容貌、五官、身心障礙」歧視。
雇主可以推給 AI?不,演算法的偏見,就是雇主違法的鐵證!
聲音太細被刷掉?隱形的性別歧視
AI 若偏好沈穩低頻音,認為有權威感,恐導致女性或陰柔氣質者被誤殺,這可能會違反《性別平等工作法》第 7 條。
若演算法參數內含性別刻板印象,企業最高可罰 150 萬,若應徵者能舉證,雇主還得負損害賠償責任。
雇主注意:你解釋得出演算法邏輯嗎?
法律上雇主常常必須負「舉證責任」。
當被應徵者質疑就業或性別歧視時,雇主不能雙手一攤說「AI 決定的」。
若你無法解釋評分權重,或證明演算法沒有「系統性偏見」,在法庭上雇主往往是敗訴方。
AI 是工具,不是你的法律擋箭牌。
破解 AI 面試:講「機器聽得懂的話」
請求職者放下情緒鋪陳!
✅ 引用JD:把《Job Description 》中職缺技術專有名詞原封不動埋進回答。
✅ 數據化:AI 讀不懂「成效很好」,但讀得懂「業績成長 30%」。
這不是投機,是為了讓演算法精準抓取你的價值標籤。
你的硬體設備 = 你的職場專業度
這很現實,在線上面試的場合,如果你的手機或筆電收音含糊、背光鏡頭背光,可能導致會AI 誤判你「溝通能力差」或「自信不足」。
為了避免造成技術性冤案,在設備上請打亮燈光、調好麥克風。
在數位面試時代,硬體設備的穩定度,就是你專業形象的一部分,值得投資並好好設定。
人類複核(Human-in-the-loop)是最後防線
給企業的忠告:絕對別讓 AI 做最終的「拒絕」決定。
必須保留 人類HR 複核,確保沒有遺珠因為演算法偏見而被錯殺。
科技應提升效率,而非製造冷血的就業障礙。
人工智慧基本法(草案)也規定,必須強化人工智慧決策之可驗證性及人為可控性。(第10條)
守法,是有溫度的招募底線。
下一步你可以這麼做
如果你覺得這篇對你的求職朋友或HR同事有幫助,請點擊「分享」,讓更多人避開 AI 招募的法律誤區!
作者:陳業鑫
更多陳業鑫律師相關資訊,都在【業鑫法律事務所】
