Βρισκόμαστε σε ένα καθοριστικό σημείο καμπής όπου η τεχνολογία επαναπροσδιορίζει τον πυρήνα της εργασίας. Στον τομέα του Ανθρώπινου Δυναμικού, η συζήτηση γύρω από την Τεχνητή Νοημοσύνη συχνά παραβλέπει το πιο ουσιαστικό κομμάτι: τον ίδιο τον άνθρωπο. Όταν ένα σύστημα φιλτράρει βιογραφικά ή προτείνει προαγωγές, ο κίνδυνος ψηφιοποίησης των ανθρώπινων προκαταλήψεων κάτω από τον μανδύα της «αντικειμενικότητας» είναι τεράστιος. Σε αυτό το νέο τοπίο, το HR καλείται να λειτουργήσει όχι ως απλός χειριστής αλγορίθμων, αλλά ως ο απόλυτος θεματοφύλακας της Δικαιοσύνης, βάζοντας όρια σε όσα δεν πρέπει ποτέ να αυτοματοποιηθούν πλήρως. Διαβάστε ολόκληρο το άρθρο της Ρεβέκκας Πιτσίκα*.
«Σε έναν κόσμο που αλλάζει διαρκώς, όπου η τεχνολογία προκαλεί αλλεπάλληλες ναταράξεις και ο ψηφιακός μετασχηματισμός επιταχύνεται με ρυθμούς που δύσκολα προλαβαίνουμε να αφομοιώσουμε, η είσοδος της Τεχνητής Νοημοσύνης δεν είναι απλώς ένα ακόμη βήμα εξέλιξης. Είναι σημείο καμπής.
Η AI σηματοδοτεί την αρχή μιας εποχής όπου τίποτα δεν θα είναι όπως χθες — και κανείς δεν μπορεί να προβλέψει με βεβαιότητα πώς θα είναι αύριο. Δεν αλλάζει μόνο τα εργαλεία μας. Αλλάζει τον τρόπο σκέψης, τον τρόπο λήψης αποφάσεων, ακόμη και τη δομή της εργασιακής πυραμίδας.
Ένας από τους πρώτους τομείς που βιώνουν αυτή τη μετάβαση είναι το HR.
Η Τεχνητή Νοημοσύνη έχει ήδη εισχωρήσει δυναμικά στη Διοίκηση Ανθρώπινου Δυναμικού: screening βιογραφικών, predictive analytics για αποχωρήσεις, chatbots για εργαζομένους και αλγόριθμοι που «προτείνουν» προαγωγές.
Η δημόσια συζήτηση, όμως, επικεντρώνεται σχεδόν αποκλειστικά στις δυνατότητες της τεχνολογίας. Το πραγματικό ερώτημα δεν είναι αν η AI μπορεί να χρησιμοποιηθεί στο HR. Το ερώτημα είναι αν το πρόβλημα της AI στο HR είναιτεχνολογικό.
Η απάντηση είναι ξεκάθαρη: όχι.
Το πρόβλημα δεν είναι η τεχνολογία. Είναι οργανωσιακό, ηθικό και θεσμικό.
Συχνά ακούμε ότι «ο αλγόριθμος δεν έχει προκαταλήψεις». Στην πραγματικότητα, η AI εκπαιδεύεται σε δεδομένα που φέρουν ιστορικές ανισότητες. Αν στο παρελθόν προάγονταν συγκεκριμένοι τύποι ανθρώπων ή αποκλείονταν άλλοι από ευκαιρίες, η AI δεν διορθώνει την παθογένεια. Την αναπαράγει — και συχνά την κλιμακώνει.
Η διαφορά είναι ότι τώρα η μεροληψία ντύνεται με τον μανδύα της «επιστημονικής ακρίβειας». Και αυτό την καθιστά πιο δύσκολο να αμφισβητηθεί.
Πολλοί οργανισμοί υποστηρίζουν ότι η AI απλώς «υποστηρίζει» τις αποφάσεις. Όταν όμως ένας αλγόριθμος φιλτράρει το 90% των CVs, προτείνει shortlist, βαθμολογεί performance και προβλέπει ποιος θα αποχωρήσει, τότε δεν υποστηρίζει απλώς. Καθορίζει το πλαίσιο μέσα στο οποίο λαμβάνεται η απόφαση — δημιουργώντας μια ψευδαίσθηση αντικειμενικότητας.
Και εδώ γεννάται το κρίσιμο ερώτημα: Ποιος πραγματικά αποφασίζει;
Όταν η ανθρώπινη κρίση περιορίζεται σε τυπική επικύρωση μιας πρότασης συστήματος, η ευθύνη διαχέεται. Αν ένας υποψήφιος απορριφθεί και ρωτήσει «γιατί;», ποιος απαντά; Το HR; Ο vendor; Ή ο αλγόριθμος;
Η έλλειψη τεκμηριωμένης και κατανοητής εξήγησης δεν είναι τεχνικό ζήτημα. Είναι ζήτημα δικαιοσύνης και εμπιστοσύνης. Όταν δεν μπορείς να εξηγήσεις μια απόφαση, χάνεις τη νομιμοποίησή σου να τη λαμβάνεις. Το HR δεν μπορεί να κρύβεται πίσω από τη φράση «έτσι το έβγαλε το σύστημα». Αν το κάνει, παραιτείται από τον ρόλο του ως θεματοφύλακας των ανθρώπων.
Σήμερα, πολλοί οργανισμοί επενδύουν σε AI χωρίς να έχουν απαντήσει σε βασικά ερωτήματα διακυβέρνησης:
Ποιες αποφάσεις δεν επιτρέπεται να αυτοματοποιηθούν;
Πότε απαιτείται υποχρεωτικά ανθρώπινη παρέμβαση;
Ποιος ελέγχει την ποιότητα των δεδομένων;
Ποιος αξιολογεί το bias του συστήματος;
Χωρίς σαφείς απαντήσεις, η AI μετατρέπεται από εργαλείο αποτελεσματικότητας σε πηγή πολυεπίπεδου ρίσκου.
Η AI δεν διορθώνει κακές δομές. Τις αποκαλύπτει και τις ενισχύει.
Σε έναν οργανισμό χωρίς ξεκάθαρα κριτήρια αξιολόγησης, χωρίς κουλτούρα διαλόγου και χωρίς εμπιστοσύνη στη διοίκηση, η AI δεν φέρνει διαφάνεια. Αυτοματοποιεί τη σύγχυση.
Γι’ αυτό και ο ρόλος του HR αλλάζει ριζικά. Στην εποχή της Τεχνητής Νοημοσύνης, το HR δεν μπορεί να είναι απλός χρήστης εργαλείων. Πρέπει να γίνει κριτής αποφάσεων, φύλακας ορίων και μεταφραστής τεχνολογίας σε ανθρώπινο αντίκτυπο.
Το πιο δύσκολο ερώτημα που καλείται να απαντήσει δεν είναι τεχνολογικό. Είναι βαθιά ηθικό:
Ποια απόφαση δεν πρέπει ποτέ να είναι πλήρως αυτοματοποιημένη; Η πρόσληψη; Η απόλυση; Η προαγωγή;
Αυτές δεν είναι data problems. Είναι πράξεις ευθύνης.
Το μέλλον δεν είναι AI-first. Είναι AI-with-accountability.
Το μέλλον του HR δεν θα κριθεί από το πόσο εξελιγμένα είναι τα συστήματά του, αλλά από το πόσο ξεκάθαρη είναι η ανθρώπινη ευθύνη πίσω από κάθε απόφαση.
Η AI μπορεί να κάνει το HR πιο γρήγορο. Δεν πρέπει όμως να το κάνει σιωπηλό.
Γιατί στο τέλος της ημέρας, οι εργαζόμενοι δεν ζητούν τέλειους αλγόριθμους.
Ζητούν δίκαιες αποφάσεις, διαφάνεια και κάποιον να τους κοιτά στα μάτια και να πει:
«Αυτή την απόφαση την πήραμε εμείς.»
Και αυτό, όσο εξελιγμένη κι αν γίνει η τεχνολογία, θα παραμένει ανθρώπινη ευθύνη»
*Η Ρεβέκκα Πιτσίκα είναι Managing Partner της N2 Growth Greece
Πηγή: www.protothema.gr
