Της Μάχης Τσώκου*
Στα Πολιτικά, ο Αριστοτέλης υποστηρίζει ότι αν τα εργαλεία μπορούσαν να λειτουργούν αυτόνομα, οι αφέντες δεν θα χρειάζονταν υπηρέτες και οι μηχανές θα αναλάμβαναν την εργασία και την παραγωγή. Ανάλογα με τη χρήση της, η Τεχνητή Νοημοσύνη αυτοματοποιεί ορισμένες εργατικές και διοικητικές πτυχές. Μπορεί όμως και να λαμβάνει κριτικές αποφάσεις.
Μέχρι τώρα, η κρίση θεωρούνταν χαρακτηριστικό της ανθρώπινης φύσης και ύπαρξης, πριν από την εμφάνιση των Μεγάλων Γλωσσικών Μοντέλων (Large Language Models, «LLMs»). Τα συστήματα αυτά είναι προγράμματα Τεχνητής Νοημοσύνης σχεδιασμένα για να κατανοούν, να παράγουν και να συνοψίζουν την ανθρώπινη γλώσσα, προβλέποντας την επόμενη λέξη σε μια ακολουθία. Έχουν την ικανότητα να συνδυάζουν πληροφορίες, να αναλύουν δεδομένα και να αναγνωρίσουν πρότυπα. Στη συνέχεια δε, παράγουν αποτελέσματα με βάση τις πιθανότητες και από λέξη σε λέξη, δημιουργούν προτάσεις κατανοητές στους ανθρώπους.
Αυτό που διακρίνει αυτή τη διαδικασία από την ανθρώπινη κρίση είναι η συνάφειά της με το συγκείμενο. Οι άνθρωποι λαμβάνουν αποφάσεις με βάση τις αναμνήσεις, τα κοινωνικά ερεθίσματα, την αντίληψή και την ικανότητά τους να αναλογίζονται αβέβαιες πτυχές του μέλλοντος. Τα μεγάλα γλωσσικά μοντέλα, αντιθέτως, δεν προβαίνουν σε συλλογιστική βασισμένη σε αξίες, ούτε λαμβάνουν υπόψη τις συνέπειες που προκύπτουν από το συγκεκριμένο πλαίσιο. Ως εκ τούτου, αποφασίζουν σχετικά με ζητήματα που άπτονται της ανθρώπινης αξιοπρέπειας και αξιοπιστίας με τρόπο διαφορετικό από αυτόν που θα ακολουθούσε ένας άνθρωπος. Αυτή η διάκριση μεταξύ των γνωστικών διαδικασιών αποκτά μεγάλη σημασία όταν τα συστήματα χρησιμοποιούνται, όχι μόνο για να μας βοηθήσουν, αλλά και για να παράγουν αποφάσεις οι οποίες, όταν εφαρμόζονται, έχουν συνέπειες στον πραγματικό κόσμο.
Αυτό το κενό στην αυτοματοποιημένη λήψη αποφάσεων έχει αναγνωριστεί από τους συννομοθέτες της Ευρωπαϊκής Ένωσης και έχει ενσωματωθεί στον Γενικό Κανονισμό Προστασίας Δεδομένων (ΓΚΠΔ). Η νομοθεσία για την προστασία των δεδομένων προβλέπει δικαιώματα και υποχρεώσεις σε σχέση με την επεξεργασία δεδομένων προσωπικού χαρακτήρα. Μεταξύ των ουσιαστικών αρχών της, όπως η νομιμότητα και η διαφάνεια, ρυθμίζει επίσης τη χρήση συστημάτων αυτοματοποιημένης λήψης αποφάσεων.
Ο ΓΚΠΔ απαγορεύει τις αποφάσεις που επηρεάζουν τα υποκείμενα των δεδομένων, οι οποίες βασίζονται αποκλειστικά σε αυτοματοποιημένη επεξεργασία. Οι αποφάσεις αυτές πρέπει να έχουν νομικά ή παρόμοια αποτελέσματα για το εν λόγω φυσικό πρόσωπο. Για παράδειγμα, μια τράπεζα χρησιμοποιεί αλγόριθμο για την έγκριση ή την απόρριψη αιτήσεων δανείου. Η νομοθεσία παρέχει στα πρόσωπα το δικαίωμα να αμφισβητήσουν τέτοιες αποφάσεις και να ζητούν ανθρώπινη παρέμβαση. Η παρέμβαση αυτή δεν πρέπει να αποτελεί τελική έγκριση ή «σφραγίδα», αλλά ο επόπτης πρέπει να αξιολογεί ανεξάρτητα την υπόθεση και να εκτιμά τα αποτελέσματα του συστήματος, έχοντας επίσης κατά νου τους περιορισμούς και τη φύση του «μαύρου κουτιού”» των αλγορίθμων.
Η διασφάλιση αυτή αντικατοπτρίζει σαφώς ότι τα πιθανολογικά αποτελέσματα που αποτελούν αποφάσεις συστημάτων Τεχνητής Νοημοσύνης, πρέπει να θεωρούνται μόνο ως εισροές για τη διαβούλευση από τον άνθρωπο. Η Τεχνητή Νοημοσύνη αποτελεί λοιπόν ενισχυτικό εργαλείο και όχι υποκατάστατο της ανθρώπινης συλλογιστικής διαδικασίας, δημιουργώντας νέες δυνατότητες χωρίς να τις εξαντλεί. Για τον λόγο αυτό, επιβάλλεται ο ουσιαστικός έλεγχος των αποτελεσμάτων και των δράσεών της, αλλά και η τοποθέτηση πλαισίων εφαρμογής και εποπτείας της από τις αρμόδιες αρχές.
Νομικού, (LLM Law and Technology, LLB European Law, CIPP/E)







