Από τους νόμους του Ασίμοφ στη διακήρυξη του Ασιλομάρ

Οι 23 Εντολές της Τεχνητής Νοημοσύνης

Από τους νόμους του Ασίμοφ στη διακήρυξη του Ασιλομάρ
O Ισαάκ Ασίμοφ (Φωτογραφία: digitaltrends.com)

Ξεχάστε τους τρεις νόμους της ρομποτικής, όπως τους είχε περιγράψει ο Ισαάκ Ασίμοφ. Η πραγματικότητα είναι τόσο πολύπλοκη που χρειάζονται 23 εντολές τις οποίες πρέπει να τηρήσει ο κόσμος της τεχνητής νοημοσύνης, αν δεν θέλουμε η τεράστια πρόοδος των τελευταίων ετών να εξελιχθεί σε μια σκοτεινή δυστοπία.

Επιστήμονες από τον χώρο της τεχνητής νοημοσύνης συγκεντρώθηκαν στο Ασιλομάρ, μια μικρή πόλη στις καλιφορνέζικες ακτές, κάπου στα 160 χιλιόμετρα νότια του Σαν Φρανσίσκο, όπου κατέληξαν σε 23 προϋποθέσεις ή κανόνες προκειμένου η τεχνολογική εξέλιξη να μην αποβεί σε βάρος της ευημερίας των ανθρώπων. Δεν πρόκειται για κάποιον θεωρητικό κίνδυνο, υπάρχει ένας εκτεταμένος προβληματισμός στην επιστημονική κοινότητα για τις άμεσες επιπτώσεις από την αυτοματοποίηση και τα συστήματα machine learning στους ανθρώπους. Ναι, οι μηχανές θα πάρουν τη θέση των ανθρώπων σε πάρα πάρα πολλούς τομείς και όπως έχουμε δει σε ανάλογες στιγμές στο παρελθόν αυτό θα δημιουργήσει ανακατατάξεις στις κοινωνίες μας, το ερώτημα όμως αν θέλουμε να συμβεί κάτι τέτοιο, δεδομένου ότι οι άνθρωποι δεν φημιζόμαστε για τον ειρηνικό τρόπο μετάβασης από ένα καθεστώς σε ένα άλλο.

Ετσι, οι επιστήμονες προσπαθούν να διαμορφώσουν μια χάρτα υποχρεώσεων και αυτο-δέσμευσης. Δεν είναι η πρώτη φορά που η μικρή πόλη του Ασιλομάρ γίνεται το επίκεντρο επιστημονικών προβληματισμών. Το 1975, 42 χρόνια πριν, γενετιστές και λίγοι και εκλεκτοί δημοσιογράφοι συγκεντρώθηκαν για να συζητήσουν τα δεοντολογικά αλλά και νομικά ζητήματα που δημιουργούσε η επανάσταση της γενετικής. Μόλις δύο χρόνια πριν οι επιστήμονες είχαν αρχίζει να πειραματίζονται με ιούς “πειράζοντας” το DNA τους και η συγκέντρωση είχε ως τελικό σκοπό να διαμορφωθεί ένα πλαίσιο αυτο-ρύθμισης με βάση ένα πολύ απλό σκεπτικό: Αν εμείς δεν θέσουμε τα όρια θα έρθουν οι πολιτικοί και αυτό δεν θα είναι καλό για το έργο μας.

Η συγκέντρωση που έγινε τον περασμένο χειμώνα στο Ασιλομάρ είχε ένα ευρύτερο κοινό αλλά δεν υπήρχαν εκπρόσωποι του Τύπου, οπότε η πληροφόρηση έρχεται αποκλειστικά από τους διοργανωτές και τους επιστήμονες που μετείχαν σε αυτό. Μια πιο “κρύα” ματιά δεν υπάρχει για να περιγράψει τι συνέβη. Η συνάντηση του 2017, κατέληξε, λοιπόν σε μια σειρά οδηγιών, ας τις πούμε εντολές, τις οποίες μπορείς να δεις εδώ.

Πολλές από αυτές είναι αφιερωμένες στο πώς θα επιτευχθεί η ομαλή συνεργασία μεταξύ των επιστημόνων, πώς θα αποφύγουν τον ανούσιο ανταγωνισμό και πως θα διασφαλίσουν την προστασία αλλά και την ορθή εξέλιξη των δημιουργημάτων τους. Θα τα προσπεράσουμε όλα αυτά για να πάμε στο σημείο 14, εκεί που λέει για την ανάγκη τα οφέλη από τις τεχνολογίες τεχνητής νοημοσύνης να μοιράζονται ευρύτερα σε όσο το δυνατόν περισσότερους ανθρώπους.

Παράλληλα, το σημείο 16 αναφέρει ότι οι άνθρωποι θα πρέπει να είναι σε θέση να επιλέγουν πότε θα αναθέτουν τη λήψη αποφάσεων σε συστήματα τεχνητής νοημοσύνης και πότε όχι, ενώ το σημείο 18 μοιάζει περισσότερο με ευχή καθώς αναφέρει πως θα πρέπει να αποφευχθεί μια κούρσα εξοπλισμών για την ανάπτυξη θανατηφόρων αυτόνομων όπλων και ως κατακλείδα το σημείο 23 επισημαίνει την ανάγκη η “υπερεφυία” όπως χαρακτηριστικά σημειώνει πρέπει να αναπτύσσεται για την εξυπηρέτηση όλης της ανθρωπότητας και να μην περιορίζεται στο όφελος ενός κράτους ή ενός οργανισμού.

Ναι, ωραία, αλλά πώς θα γίνουν όλα αυτά. Μπορεί μια χάρτα δικαιωμάτων που θα δεσμεύει τους επιστήμονες της τεχνητής νοημοσύνης και των γειτονικών χώρων να έχει αποτέλεσμα, όταν σε κάποιες χώρες η έρευνα και ανάπτυξη είναι μια αυστηρά κρατικοποιημένη υπόθεση ή όταν στον Λευκό Οίκο κάθεται κάποιος που, όπως και να το κάνουμε, δεν φαίνεται να έχει ως προτεραιότητά του τα θέματα που θέτει η επιστημονική κοινότητα;

Υπάρχουν και άλλα κενά σημεία.. Ποιος λογοδοτεί σε ποιον αν δεν τηρήσει τις κατευθυντήριες οδηγίες του Ασιλομάρ; Πώς διασφαλίζεται η δεοντολογική επάρκεια όσων θα μετέχουν σε προγράμματα τεχνητής νοημοσύνης με άλλη ιδιότητα, ως χρηματοδότες για παράδειγμα;

Ακολουθούν και άλλα ερωτήματα, καθημερινής φύσεως. Υπάρχει κάποιο επίπεδο εξέλιξης στο οποίο όταν φτάσει η τεχνητή νοημοσύνη μπορούμε με βεβαιότητα να της εναποθέσουμε την υγεία και την ευημερία μας; Πρόκειται για ένα ερώτημα που επανέρχεται με διάφορες μορφές όπως για παράδειγμα στην υπόθεση του αυτόνομου οχήματος που έχει να επιλέξει μεταξύ του να σκοτώσει πεζούς ή τους επιβαίνοντες στο όχημα.

Όταν οι άνθρωποι που βρεθούν σε μια τέτοια κατάσταση έχουν κάνει μια επιλογή συνήθως καλούνται να λογοδοτήσουν και να διαπιστωθεί εάν μπορούσαν να αποτρέψουν το συμβάν ή όχι, πώς θα συμπεριφερθεί η κοινωνία μας στο αυτόνομο όχημα; Αν υπεύθυνος για το όχημα είναι ο ιδιοκτήτης του ή εκείνος που βρίσκεται στην μπροστά αριστερή θέση (αν υποθέσουμε πως μιλάμε για όχημα που κινείται στις ΗΠΑ ή την ηπειρωτική Ευρώπη) θα “έδινε τα κλειδιά” στο εξελιγμένο σύστημα τεχνητής νοημοσύνης ή θα έπαιρνε την υπόθεση -και το τιμόνι- στα χέρια του; Τελικά, έχουν δικαίωμα ηθικής οι μηχανές; Ερωτήσεις που δεν παίρνουν μονολεκτικές απαντήσεις..

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ,

Σχόλια

ΠΑΡΑΚΑΛΩ ΠΕΡΙΜΕΝΕΤΕ. ΦΟΡΤΩΝΟΝΤΑΙ ΠΕΡΙΣΣΟΤΕΡΑ...

Home