Ποιος θα φταίει όταν ο HAL σκοτώσει ξανά;
Abstract
Δεν διατίθεται περίληψη
Article Details
- How to Cite
-
Γούναρης Ά. (2020). Ποιος θα φταίει όταν ο HAL σκοτώσει ξανά;. Εργαστήριο Φιλοσοφία-Διακυβέρνηση-Οικονομία "Ηθική", (12), 4–10. https://doi.org/10.12681/ethiki.22772
- Issue
- No. 12 (2019)
- Section
- Άρθρα
Οι Συγγραφείς που δημοσιεύουν εργασίες τους σε αυτό το περιοδικό συμφωνούν στους παρακάτω όρους:
- Οι Συγγραφείς διατηρούν τα Πνευματικά Δικαιώματα και χορηγούν στο περιοδικό το δικαίωμα της πρώτης δημοσίευσης ενώ ταυτόχρονα τα πνευματικά δικαιώματα της εργασίας προστατεύονται σύμφωνα με την Creative Commons Attribution License που επιτρέπει σε τρίτους - αποδέκτες της άδειας να χρησιμοποιούν την εργασία όπως θέλουν με την προϋπόθεση της διατήρησης των διατυπώσεων που προβλέπονται στην άδεια σχετικά με την αναφορά στον αρχικό δημιουργό και την αρχική δημοσίευση σε αυτό το περιοδικό.
- Οι Συγγραφείς μπορούν να συνάπτουν ξεχωριστές, και πρόσθετες συμβάσεις και συμφωνίες για την μη αποκλειστική διανομή της εργασίας όπως δημοσιεύτηκε στο περιοδικό αυτό (π.χ. κατάθεση σε ένα ακαδημαϊκό καταθετήριο ή δημοσίευση σε ένα βιβλίο), με την προϋπόθεση της αναγνώρισης και την αναφοράς της πρώτης δημοσίευσης σε αυτό το περιοδικό.
- Το περιοδικό επιτρέπει και ενθαρρύνει τους Συγγραφείς να καταθέτουν τις εργασίες τους μέσω διαδικτύου (π.χ. σε ένα ακαδημαϊκό καταθετήριο ή στους προσωπικές τους ιστοσελίδες) πριν και μετά από τις διαδικασίες της δημοσίευσης, καθώς αυτό μπορεί να οδηγήσει σε παραγωγική ανταλλαγή ιδεών και σκέψεων καθώς επίσης και σε γρηγορότερη και μεγαλύτερη χρήση και ευρετηρίαση της δημοσιευμένης εργασίας (See The Effect of Open Access).
Downloads
Download data is not yet available.
References
Ο Δρ. Άλκης Γούναρης είναι επιστημονικός συνεργάτης, ερευνητής και διδάσκων στο ΕΚΠΑ. alkisg@philosophy.uoa.gr, www.alkisgounaris.gr
Arthur C. Clarke, 2001: A Space Odyssey, New American Library, NY, 1968.
Ευρετικοί ή ευριστικοί μηχανισμοί ονομάζονται οι υπολογιστικές τεχνικές επίλυσης προβλημάτων οι οποίες για οικονομία χρόνου αξιολογούν και προκρίνουν ενδιάμεσες καταστάσεις απορρίπτοντας τις υπόλοιπες. Στην ΤΝ παρότι οι τεχνικές αυτές κωδικοποιούνται αλγοριθμικά, δεν θεωρούνται «ακριβώς» αλγόριθμοι, καθώς οι αλγόριθμοι οδηγούν πάντα σε ακριβή αποτελέσματα, ενώ οι μηχανισμοί αυτοί προσομοιάζουν περισσότερο την ανθρώπινη «διαισθητική» σκέψη και την «σταθμισμένη εικασία».
Hubert L. Dreyfus, «Why Heideggerian AI Failed and How Fixing It Would Require Making it More Heideggerian», Philosophical Psychology Vol. 20 No. 2 (2007): σσ. 247-268.
Daniel C. Dennett, “When Hal Kills, Who’s to Blame? Computer Ethics”, Hal’s Legacy: 2001’s Computer as Dream and Reality, D. Stork, (επ.), MA: MIT Press, Cambridge, 1997, σσ. 351-365.
Είναι χαρακτηριστικό ότι ένα αποθηκευτικό μέσο χωρητικότητας ψηφιακών δεδομένων μερικών megabyte την εποχή εκείνη, κόστιζε περισσότερο απ’ ό,τι κοστίζει σήμερα ένας σκληρός δίσκος ενός terabyte. Με τα ίδια χρήματα δηλαδή το 2019 αγοράζεις έναν δίσκο 100.000 φορές μεγαλύτερης χωρητικότητας απ’ ό,τι το 1997 -άρα κάθε μονάδα αποθηκευμένης πληροφορίας κοστίζει 1/100.000 λιγότερο απ’ ό,τι πριν από είκοσι χρόνια. Ακόμα μεγαλύτερη, είναι η διαφορά στο κόστος της
υπολογιστικής ικανότητας. Ενδεικτικά ένα gigaFLOP υπολογιστικής ισχύος κόστιζε το 1997 $30.000 και το 2017 $0,03 δηλαδή 1/1.000.000 λιγότερα χρήματα μέσα σε δύο δεκαετίες. Οι σχέσεις αυτές είναι ενδεικτικές της αλματώδους εξέλιξης στην αγορά των υπολογιστών τα τελευταία χρόνια. Για τη σχέση κόστους - αποθήκευσης δεδομένων χρονολογικά βλ. https://jcmit.net/memoryprice.htm. Για τη σχέση κόστους -υπολογιστικής ικανότητας χρονολογικά βλ. https://en.wikipedia.org/wiki/FLOPS.
Ορισμένως, η παραδοχή του Dennett ότι η υψηλή νοημοσύνη συνεπάγεται ηθική συμπεριφορά, εκκινεί από την αποδοχή μιας ισοδυναμίας των όρων νόηση (cognition) και νοημοσύνη (intelligence) επί τη βάσει της υπολογιστικής ικανότητας. Πρόκειται για μια παραδοχή που δεν είναι ευρέως αποδεκτή, καθώς η μεν νοημοσύνη μπορεί να οριστεί ως η ικανότητα επίτευξης πολύπλοκων στόχων και είναι συνεπώς άρρηκτα συνδεδεμένη με την υπολογιστική ικανότητα, η δε νόηση ορίζεται ως
η ικανότητα του νοήμονος όντος να μαθαίνει, να αντιλαμβάνεται και να κατανοεί, να προβαίνει σε αξιολογικές κρίσεις και να λαμβάνει αποφάσεις, να νοηματοδοτεί κτλ., διαδικασίες δηλαδή που δεν συνδέονται απαραίτητα με την υπολογιστική ικανότητα. Για τις μεταφυσικές διαφορές Νόησης (Cognition) και Νοημοσύνης (Intelligence) βλέπε περισσότερα στο: Γούναρης, Άλκης, «Ανθρώπινη Νόηση και Τεχνητή Νοημοσύνη: Αναζητώντας τις θεμελιώδεις διαφορές του νοήματος στα όρια της
μεταφυσικής», (2013). https://alkisgounaris.gr/gr/research/human-cognition-artificial-intelligence/ DOI: 10.13140/RG.2.2.17433.67681.
Ο Dennett παραπέμπει στη Γενεαλογία της Ηθικής (πρώτη πραγματεία, παράγραφος 6) όπου κατά την «ιερατική» ζωή, αναδεικνύονται η μοχθηρία και η κακία ως χαρακτηριστικά υπεροχής του ανθρώπου έναντι των υπόλοιπων ζώων. Φρειδερίκος Νίτσε, Η Γενεαλογία της Ηθικής, Εκδοτική Θεσσαλονίκης, σελ.74.
Το επιχείρημα αυτό αναπτύσσεται με πολύ γλαφυρό τρόπο στο Mark Rowlands, O Φιλόσοφος και ο Λύκος, Εκδόσεις του Εικοστού Πρώτου, 2010. Σύμφωνα με αυτό, στην ιστορία της εξέλιξης του πιθήκου, η ικανότητά του να ξεγελάει τους άλλους πιθήκους αναπτύχθηκε παράλληλα με την αυξανόμενη ικανότητά του να καταλαβαίνει πότε οι άλλοι προσπαθούν να τον ξεγελάσουν (σελ. 79). Αυτό το γεγονός οδήγησε τον σοφό πίθηκο στη σύναψη κοινωνικών συμβολαίων και υιοθέτησης
ηθικών κανόνων (σσ. 147-149). Ο ανθρώπινος πολιτισμός και η ίδια η ανθρώπινη νοημοσύνη είναι προϊόντα μιας πορείας βασισμένης στο ψέμα και την εξαπάτηση (σελ.150). Αντίθετα ο Λύκος δεν έχει ανάγκη ηθικών κανόνων. Είναι ευθύς, παρορμητικός, εκρηκτικός, αλλά συγχωρεί και ξεχνάει εύκολα.
Ο Dennett διευκρινίζει ότι δεν είναι απαραίτητο ο δράστης να αισθάνεται ενοχές ή μεταμέλεια –ή γενικώς να αισθάνεται κάτι– για μια ηθικά μεμπτή πράξη. Ένας επαγγελματίας δολοφόνος αποτελεί ένα καλό παράδειγμα τέτοιας περίπτωσης.
Για το κενό ευθύνης στην ΤΝ βλέπε: Matthias, A, “The responsibility gap: Ascribing responsibility for the actions of learning automata”, Ethics and Information Technology, 6 (2004): σσ. 175–183.
Στην ψυχολογία του κοινού νου (folk psychology) τα κριτήρια αυτά σχετίζονται με τις πεποιθήσεις, τις επιθυμίες κτλ. – όροι που οδηγούν τους φιλοσόφους σε ατέρμονες συζητήσεις για το τι σημαίνει πεποίθηση, ποιος την έβαλε εκεί, τι σημαίνει επιθυμία, βούληση κ.ο.κ. Αυτός είναι, κατά τη γνώμη μου, ένας ατελέσφορος τρόπος προσέγγισης του προβλήματος.
Το κλασικό πρόβλημα του ακυβέρνητου οχήματος αποτελεί ένα νοητικό πείραμα που εισηγήθηκε η Philippa Foot [Philippa Foot, “The Problem of Abortion and the Doctrine of the Double Effect”,Virtues and Vices, Basil Blackwell, (επ.), Oxford, 1978, που εμφανίστηκε αρχικά στο Oxford Review, Number 5 (1967)] και ανέπτυξε εκτενώς η Judith Thompson (Judith J. Thomson, “Killing, Letting Die, and th Trolley Problem”, The Monist 59 (1976): σελ. 204). Στο νοητικό αυτό πείραμα αναδεικνύεται η διαφορά συλλογιστικής των δεοντοκρατικών και των ωφελιμιστικών θεωριών στην επίλυση διλημμάτων. Στη σύγχρονη βιβλιογραφία συνδέεται με τα διλήμματα που προκύπτουν από την κατασκευή αυτόνομων
οχημάτων και αυτόνομων οπλικών συστημάτων.
Sarah Buss and Andrea Westlund, “Personal Autonomy”, The Stanford Encyclopedia of Philosophy (Spring 2018 Edition), Edward N. Zalta (επ.), URL = <https://plato.stanford.edu/archives/spr2018/entries/personal-autonomy/>.
Μοιάζει πραγματικά χωρίς νόημα –και πραγματική πρόκληση– στην έρευνα της ΤΝ, η σύλληψη (πόσο μάλλον η κατασκευή) μιας ευφυούς μηχανής χωρίς κανέναν απολύτως σκοπό – χωρίς αποστολή.
Nick Bostrom, Ethical Issues in Advanced Artificial Intelligence, I. Smit, et al ed., Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, Vol. 2, Institute of Advanced Studies in Systems Research and Cybernetics, 2003, σσ. 12-17.
Michael Anderson and Susan L. Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent”, AI Magazine 28 (4) (2007): σσ. 15-26.
Περισσότερα για τη διαφήμιση του Lexus που γράφτηκε από ΤΝ εδώ: https://www.thedrum.com/news/2018/11/16/lexus-reveals-ad-created-ai-it-gimmick-no-will-it-win-any-awards-probably-not.
Περισσότερα για την πρώτη ΤΝ που κρίνει διαφημίσεις εδώ: https://www.adweek.com/creativity/does-pearl-the-first-a-i-ad-awards-juror-know-a-thing-about-creativity/.
Περισσότερα για την πρώτη ΤΝ που θα βαθμολογεί αθλητές στους Ολυμπιακούς Αγώνες του 2020 εδώ: http://www.asahi.com/ajw/articles/AJ201812030005.html.
Περισσότερα για το μέλλον των πολεμικών επιχειρήσεων με μη επανδρωμένες μηχανές στο: Riza M. Shane, Killing without Heart: Limits on Robotic Warfare in an Age of Persistent Conflict, University of
Nebraska Press, Potomac Books, 2013, DOI: 10.2307/j.ctt1ddr7mb.
Max Tegmark, Life 3.0., Εκδοτικός Οίκος Τραυλός, Αθήνα, 2018, σσ. 177-178.
Για μια επισκόπηση της συζήτησης περί της ηθικής ευθύνης στην πληροφορική, βλέπε: Merel Noorman, “Computing and Moral Responsibility”, The Stanford Encyclopedia of Philosophy, Edward N. Zalta (επ.), (Spring 2018 Edition), URL = <https://plato.stanford.edu/archives/spr2018/entries/computing-responsibility/>.
Μπορούμε να υποστηρίξουμε ότι αναζητώντας ή μιλώντας για ηθική ευθύνη της ΤΝ ή των ρομπότ διαπράττουμε σφάλμα κατηγορίας. Αποδίδουμε ιδιότητες ενός είδους σε ένα άλλο, κάνοντας κακή χρήση της γλώσσας και της λογικής.