Θα
λειτουργούν οι μηχανές με τεχνητή νοημοσύνη ως πρόσωπα με συνείδηση; Απαντήσεις
για τα δικαιώματα και τις ευθύνες των μηχανών με τεχνητή νοημοσύνη ως πρόσωπα
με συνείδηση δίνει ο καθηγητής Γνωσιολογίας και Ηθικής Φιλοσοφίας, Στέλιος
Βιρβιδάκης. Androids in the 2004 film I, Robot. Photograph: Allstar/20TH CENTURY FOX
Στην
υποβλητική ταινία «2001-Οδύσσεια του Διαστήματος» του Στάνλεϊ Κιούμπρικ, ο
υπολογιστής HAL
9000 εκλιπαρεί τον άνθρωπο Ντέιβ να μην τον αποσυνδέσει: «Φοβάμαι Ντέιβ. Μην το
κάνεις».
Στην
τηλεοπτική σειρά Star
Trek: The Next Generation, ο κυβερνοεπιστήμονας Μπρους Μάντοξ ζητά
να διαλύσει το ανθρωποειδές Data
στα επιμέρους μέρη του, προκειμένου να αντιληφθεί πώς λειτουργεί. Όμως, η
Τεχνητή Νοημοσύνη στον ποζιτρονικό εγκέφαλο του Data αντιδρά. Το ανθρωποειδές
φοβάται ότι το πείραμα μπορεί να σημάνει την καταστροφή του και η υπόθεση
καταλήγει στo Δικαστήριο του Starfleet, όπου εξετάζεται το δικαίωμα της
Τεχνητής Νοημοσύνης να διαχειρίζεται τον «εαυτό» της.
Ήδη
από το 1968, όταν γυρίστηκε η ταινία του Κιούμπρικ, το ερώτημα απασχολεί
επιστήμονες πληροφορικής, νομικούς και φιλοσόφους: θα λειτουργούν κάποτε οι μηχανές ως «πρόσωπα» με ανθρώπινα
χαρακτηριστικά; Κι αν ναι, ποιο πρέπει να είναι το ηθικό τους status και τα
δικαιώματά τους και ποια η ηθική τους ευθύνη;
«Η
ίδια η κατανόηση της έννοιας του προσώπου είναι ένα τεράστιο ζήτημα είτε μιλάμε
για μηχανές είτε όχι» σημειώνει μιλώντας στο ΑΠΕ – ΜΠΕ ο καθηγητής Γνωσιολογίας
και Ηθικής Φιλοσοφίας του Εθνικού και Καποδιστριακού Πανεπιστημίου Αθηνών
(Τμήμα Ιστορίας και Φιλοσοφίας της Επιστήμης) Στέλιος Βιρβιδάκης και συνεχίζει:
«Για
παράδειγμα, τους φιλοσόφους απασχολεί το αν θα θεωρήσουμε πρόσωπο ένα δυνάμει
πρόσωπο, όπως ένα ανεπτυγμένο ανθρώπινο έμβρυο. Όταν λέμε ότι κάποιος είναι
πρόσωπο, του αναγνωρίζουμε ηθικό δικαίωμα στον αυτοπροσδιορισμό και αυτό
προϋποθέτει συνείδηση και αυτοσυνειδησία, αίσθηση εαυτού, ενός εαυτού που
διαθέτει ορθολογικότητα, μπορεί να θέτει σκοπούς και να προσπαθεί να τους
εκπληρώνει».
Mindar is the new
android priest at Kodaiji temple in Kyoto, Japan. NurPhoto via Getty Images
Πώς όμως μπορεί να κρίνει
κάποιος αν μια μηχανή θα έχει κάποτε αυτό που λέμε υποκειμενική αίσθηση, δηλαδή
την αίσθηση τού να νιώθεις ότι είσαι «αυτός», «αυτό το ον»;
«Αυτό
θα μπορούσαμε να το καταλάβουμε μόνο αν μπαίναμε μέσα στο ρομπότ. Και βέβαια το
ίδιο ερώτημα έχει τεθεί και για τα ζώα από έναν από τους πλέον καταξιωμένους
σύγχρονους αμερικανούς φιλοσόφους, τον Τόμας Νέιγκελ, στο δοκίμιό του Πώς
είναι να είσαι νυχτερίδα; ο
οποίος υποστηρίζει ότι η υποκειμενική σκοπιά της συνείδησης δεν μπορεί να
εξηγηθεί πλήρως από οποιαδήποτε επιστήμη επιχειρήσει να τη συλλάβει από έξω. Το
ζήτημα είναι λοιπόν αν θα μπορούσαμε να πούμε ότι οι μηχανές θα αποκτήσουν
κάποτε πραγματική αίσθηση του εγώ τους. Η αίσθηση αυτή πηγαίνει πέρα από τη
νοητική ικανότητα, τη νοημοσύνη που ήδη επιτρέπει στις μηχανές να επιλύουν
προβλήματα πολύ ταχύτερα από τον άνθρωπο και φαίνεται να συνίσταται σε δύο
κυρίως πράγματα: Πρώτον, στην αυτεπίγνωση, στην ικανότητα να διαμορφώνει ένα ον
σύλληψη του εαυτού του και να αναφέρεται σε αυτήν με εκφράσεις όπως εγώ πιστεύω
ότι…, εγώ επιτελώ. Δεύτερον, στο υποκειμενικό αίσθημα συνειδητότητας: κάπως
είμαι, κάπως νιώθω. Για να θεωρηθούν οι μηχανές πρόσωπα από οντολογική σκοπιά
πρέπει να διαθέτουν κατ’ αρχήν αυτά τα χαρακτηριστικά» εξηγεί.
Ο
λειτουργισμός και το νοητικό πείραμα του Κινέζικου Δωματίου
Can a computer
really understand a new language? Marcus Du Sautoy tries to find out using the
Chinese Room Experiment. Taken
from The Hunt for AI.
Κατά
τον κ. Βιρβιδάκη, η φιλοσοφική θεωρία του νου, που μας επιτρέπει να πάμε
ευκολότερα στην παραδοχή ότι οι μηχανές ενδέχεται κάποτε να αποκτήσουν
συνείδηση και άρα, κατ΄επέκταση, να θεωρηθούν πρόσωπα και να έχουν ηθικό status
και δικαιώματα, είναι ο λειτουργισμός.
Philosopher John
Searle goes through the "Chinese room argument" to prove that no
matter how powerful computers are, they aren't minds. Professor Searle explains
that while the computer can very rapidly manipulate formal, syntactical objects
(such as words), the mind understands the meanings behind those objects.
Professor Searle adds that this distinction in no way minimizes the power and
value of computers. It simply proves that a computer cannot be thought of as a
mind.
«Βάσει
του λειτουργισμού οι συνειδητές νοητικές διαδικασίες δεν είναι τίποτα
περισσότερο από ένα σύνολο λειτουργιών επεξεργασίας εισερχόμενων δεδομένων
(input), που οδηγούν στην εκδήλωση κάποιων αντιδράσεων, στη γλώσσα της
πληροφορικής "εξερχομένων στοιχείων" (output). Κατά τον λειτουργισμό,
η συνειδητότητα στον άνθρωπο, αλλά και σε άλλα νοήμονα όντα, δεν είναι τίποτα
περισσότερο από χειρισμός συμβόλων, κατά την αλληλεπίδραση με το περιβάλλον
τους, και άρα οι μηχανές μπορούν να αποκτήσουν συνειδητότητα, γιατί κι αυτές
σύμβολα χειρίζονται» σημειώνει, υπενθυμίζοντας ωστόσο ότι όσοι δεν αποδέχονται
αυτή την προοπτική ως πιθανή, επικαλούνται το νοητικό πείραμα του «Κινέζικου Δωματίου»
του Αμερικανού φιλοσόφου John Searle.
Αν όμως κάποια στιγμή οι
μηχανές θεωρηθούν πρόσωπα, τότε δε θα πρέπει πέρα από δικαιώματα να τους
αποδίδεται και ηθική ευθύνη για τις πράξεις τους;
Would a robot kill
a human being? Many people ask themselves this question. Sophia is one of the
most famous AI worldwide. We have her as a guest and ask her the trolley
problem. How will the AI answer this moral question? How would you solve the
trolley problem?
«Για
να απαντηθεί το ερώτημα περί ηθικής ευθύνης, πρέπει να δούμε όχι απλώς πώς
είναι οι μηχανές από μόνες τους, αλλά και τον τρόπο με τον οποίο θα ενταχθούν
στην ανθρώπινη ζωή. Θα έχουν σχέση υπηρετική ή ισότιμη; Τι είδους
δραστηριότητες και ευθύνες θα τους αποδώσουμε; Ο καταλογισμός της ηθικής
ευθύνης λοιπόν, έχει να κάνει με τον ρόλο που θα τους αναθέσουμε: θα είναι
υπηρετικός, συμμετοχικός, συντροφικός; Η ευθύνη συνδέεται πολύ ως έννοια και με
την ελευθερία. Αν οι μηχανές έχουν έστω και λίγη ελευθερία κάποιας μορφής, τότε
πρέπει να τους αποδίδεται ευθύνη. Εδώ μπαίνει στη μέση και το δίκαιο. Οι
μηχανές, από τη στιγμή που θα ενταχθούν ουσιαστικά στη ζωή μας και τους θεσμούς
μας, από τη στιγμή που θα αναλάβουν ρόλους κοινωνικούς (γκουβερνάντα,
χειρουργός), ακόμη και αν δεν έχουν πλήρη ελευθερία, θα πρέπει να έχουν ηθική
ευθύνη. Και βέβαια, εδώ μπαίνουν στη συζήτηση και οι δύσκολες αποφάσεις: όταν η
μηχανή σε μια πολεμική σύγκρουση ή κατά την προσπάθεια εξουδετέρωσης
επικίνδυνων τρομοκρατών χρειαστεί να ρίξει έναν πύραυλο με παράπλευρες
απώλειες, θα μετρήσει απλά κεφάλια που θα χαθούν και κεφάλια που θα σωθούν,
έτσι ώστε να προκύψει μεγιστοποίηση της ωφέλειας, χωρίς να υπολογίσει τους
αριθμούς ως ανθρώπους με εγγενή αξία και με πλήρη δικαιώματα; Θα κάνει δηλαδή
ένα ψυχρό ωφελιμιστικό calculus ή θα είναι μια καντιανή μηχανή με δεοντοκρατική
ηθική; Και τελικά η ευθύνη θα μετατεθεί στον προγραμματιστή της ή μήπως θα
μετακινηθεί από τον προγραμματιστή στη μηχανή;»
«Μηχανές
σαν κι εμένα» και η απώλεια της αίσθησης μοναδικότητας του ανθρώπου
Τι νόημα έχουν άραγε αυτά τα
ερωτήματα σήμερα; Κι αν το σενάριο περί εξίσωσης μηχανής – ανθρώπου
επαληθευτεί, πώς μπορεί να βοηθήσει η φιλοσοφία τον άνθρωπο να διαχειριστεί την
απώλεια της μοναδικότητάς του ως του ευφυέστερου όντος στον πλανήτη;
Aaron Mininger, a
graduate student in the University of Michigan Computer Science and Engineering
Department, teaches a robot a task using natural language to convey
instructions. Photo
Credit: University of Michigan/John Laird
«Η
φιλοσοφία ως επιστήμη άλλοτε αντιμετωπίζεται με υποτίμηση κι άλλοτε με
υπερτίμηση. Στην πραγματικότητα δεν είναι ούτε άχρηστη, ούτε παντοδύναμη. Είναι
πολύ χρήσιμη, υπό την έννοια ότι επιβάλλει αναστοχαστική εγρήγορση πριν από την
πράξη. Η φιλοσοφία διδάσκει εγρήγορση και περίσκεψη και για αυτό μπορεί να
βοηθήσει, π.χ., τον νομικό, να θεσπίσει ορθότερους κανόνες για την ένταξη της
μηχανής στη ζωή μας. Άλλωστε, η φιλοσοφία ανέκαθεν ασχολείτο με ζητήματα
οριακά, για τα οποία δεν έχουμε πλήρη κατανόηση, ακόμη και ικανοποιητικούς
ορισμούς των εμπλεκόμενων εννοιών και δεν μπορούμε ακόμα να βρούμε τελικές
απαντήσεις. Μπορούμε να αποκλείσουμε ότι με την εξέλιξή τους, οι μηχανές θα
αποκτήσουν κάποτε γνωρίσματα που θα τις κάνουν παρόμοιες με τους ανθρώπους;
Discomforting
directions … Ian McEwan. Photograph: Andrew Francis Wallace/Toronto Star via
Getty Images
Στο
βιβλίο Μηχανές σαν κι εμένα του
Ίαν Μακ Γιούαν, η μηχανή ξεκινά έχοντας μια υπηρετική θέση και σιγά-σιγά, λόγω
των δυνατοτήτων της -νοημοσύνη και ικανότητα να αισθανθεί πράγματα-
μετατρέπεται σε σύμβουλο και σύντροφο, φαίνεται να εξομοιώνεται με τον κύριό
της. Η εξίσωση ανθρώπου και μηχανής, αν και δύσκολο να συμβεί, δεν μπορεί να
αποκλειστεί. Και αν συμβεί, ίσως θα δυσκολευόμαστε πια στην αυτοκατανόησή μας
ως ανθρώπων, ενδέχεται να προκύψει μια μεταβολή, μια αλλοίωση στη σχέση του
ανθρώπου με τους άλλους και με τον ίδιο του τον εαυτό» σημειώνει.
Μαθητευόμενοι
μάγοι, Λουδίτες ή οπαδοί της σύνεσης;
We already live
among robots: tools and machines like dishwashers and thermostats so integrated
into our lives that we'd never think to call them that. What will a future with
even more robots look like? Social scientist Leila Takayama shares some unique
challenges of designing for human-robot interactions -- and how experimenting
with robotic futures actually leads us to a better understanding of ourselves.
Προσθέτει
ότι όλα εξαρτώνται από τον ποιο ρόλο θα δώσουμε στις μηχανές. «Θα μπορούσαν,
π.χ., να είναι σε εξάρτηση, αλλά όχι σε πλήρη ισοτιμία με τον δημιουργό τους
και το δίκαιο θα μπορούσε να ενσωματώσει κανόνες για να μη μας βλάψουν. Η δική
που άποψη είναι επιφυλακτική, αλλά όχι κινδυνολογική. Κάποια στιγμή στο μακρινό
μέλλον, ναι, μπορεί αυτό να συμβεί. Αυτό που χρειάζεται για να γίνει ομαλή
μετάβαση σε αυτό τον θαυμαστό νέο κόσμο είναι να μη βιαστούμε, να επιδιώξουμε
να ενταχθούν οι μηχανές συνετά και προοδευτικά στη ζωή μας, να ενταχθούν με
πολλή προσοχή οι απαραίτητοι κανόνες για την αντιμετώπισή τους στο νομικό
πλαίσιο, κι αυτό είναι θέμα πολιτικό και δικαιακό. Αν η ταχύτητα ανάπτυξης της
τεχνολογίας είναι τέτοια που δεν μπορούμε να την ελέγξουμε και να κάνουμε την
αλλαγή σταδιακά, τότε είμαστε απλά μαθητευόμενοι μάγοι. Αν όλο αυτό όμως γίνει
προοδευτικά, τότε το σοκ μπορεί να είναι διαχειρίσιμο και η μετάβαση δεν θα
γίνει με τρόπο που θα φέρει την καταστροφή. Δεν πρέπει να αντιμετωπίζουμε αυτά
τα πράγματα με τεχνοφοβία, σαν Λουδίτες» καταλήγει ο κ.Βιρβιδάκης.
Πηγές: https://builtin.com/artificial-intelligence/artificial-intelligence-future - https://www.theguardian.com/books/2019/apr/11/machines-like-me-by-ian-mcewan-review - https://www.lifo.gr/now/tech_science/271942/tha-leitoyrgoyn-oi-mixanes-me-texniti-noimosyni-os-prosopa-me-syneidisi
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου