שיתוף

שילוב הבינה המלאכותית במשאבי אנוש, החל מסינון מועמדים וניהול ביצועים ועד לתכנון  ארגוני, מספק יתרונות עצומים ויעילים.

עם זאת, טכנולוגיה עוצמתית זו מביאה איתה סיכונים משפטיים ואתיים משמעותיים.

כדי למנף את הבינה המלאכותית ביעילות תוך הגנה על העובדים והארגון, ולשמור על הגורם האנושי, על מנהלי משאבי אנוש לפתח באופן יזום מדיניות בינה מלאכותית במשאבי אנוש המתמקדת בשקיפות, הוגנות ופיקוח אנושי.

להלן 3 סיבות לצורך בשמירה על הגורם האנושי בשילוב הבינה המלאכותית:

1 הבטחת תאימות והגינות לחוק:

עמוד התווך הראשון של כל מדיניות בינה מלאכותית במשאבי אנוש חייב להיות עמידה במסגרות משפטיות קיימות ומתפתחות, במיוחד המסגרות הנוגעות לאי-אפליה.

אלגוריתמים של בינה מלאכותית יכולים להנציח ואף להגביר הטיות היסטוריות הקיימות בנתוני ההדרכה (למשל, מין, גזע, גיל).

המדיניות חייבת לחייב ביקורות אלגוריתמיות קבועות וקפדניות כדי לזהות ולמתן באופן יזום הטיות מערכתיות בהחלטות גיוס, קידום ושכר.

מבחינה משפטית, המדיניות חייבת לקבוע במפורש שכל כלי הבינה המלאכותית המשמשים עומדים בחוקי איסור אפליה.

המדיניות חייבת לקבוע פרוטוקולים מחמירים לאיסוף, אחסון ושימוש בנתוני עובדים על ידי מערכות בינה מלאכותית, תוך הבטחת עמידה בתקנות כמו GDPR או CCPA.

יש ליידע את העובדים במדויק אילו נתונים מעבדת הבינה המלאכותית וכמה זמן הם נשמרים. אנונימיזציה ומזעור נתונים צריכים להיות נהלי חובה.

2 שמירה על פיקוח ואחריות אנושית:

כדי למנוע ממערכות בינה מלאכותית להפוך ל'קופסאות שחורות' של החלטות בלתי ניתנות לערעור, המדיניות חייבת לשלב שיקול דעת ואחריות אנושית.

עבור החלטות הכרוכות בסיכון גבוה, כגון בחירות גיוס סופיות, פיטורים או צעדים משמעתיים, הבינה המלאכותית חייבת לתפקד כעוזר, ולא כמקבל ההחלטות הסופי.

המדיניות צריכה לחייב מנהל משאבי אנוש מיומן, לסקור ולאשר את כל ההמלצות הקריטיות של הבינה המלאכותית.

לעובדים יש זכות להבין כיצד התקבלה החלטה בנוגע לקריירה שלהם. המדיניות חייבת לדרוש שמערכות הבינה המלאכותית בהן נעשה שימוש, יהיו מסוגלות לספק הסבר ברור ותמציתי של נימוקיהן, כמו למשל, מדוע מועמד דורג גבוה או מדוע הוצע דירוג ביצועים.

זה לא רק בונה אמון אלא גם מאפשר למנהלים לערער על תוצאות אלגוריתמיות פגומות.

3 קידום שקיפות ואמון עובדים:

בניית מדיניות המבוססת על תקשורת פתוחה, הינה חיונית לאמון העובדים.

יש ליידע את העובדים במלוא הפרטים לגבי היכן, מתי וכיצד נעשה שימוש בבינה מלאכותית בתהליכי משאבי אנוש.

גילוי נאות זה צריך להיות משולב במדריכים לעובדים, במודעות דרושים ובמסמכי הערכת ביצועים.

המדיניות חייבת לקבוע תהליך ברור ונגיש המאפשר לעובדים לערער על החלטה שהתקבלה בסיוע בינה מלאכותית.

זה מבטיח שהטכנולוגיה משרתת את האנשים ולא להיפך, ובכך מחזק את מחויבותה של מחלקת משאבי האנוש להגינות ולהגנת העובדים.

הודות לפורמליזציה של אמצעי הגנה אנושיים ומשפטיים אלה, מדיניות בינה מלאכותית במשאבי אנוש יכולה לוודא שהטכנולוגיה תישאר שותפה אתית ואסטרטגית ולא סיכון בלתי מנוהל.

כנס הלמידה, ההדרכה והפיתוח הארגוני

אין תגובות

השאר תגובה