Γράφοντας τον αλγόριθμο του Καλού: Η Τεχνητή Νοημοσύνη ως μηχανή απόδοσης Δικαιοσύνης


Δημοσιευμένα: Δεκ 10, 2024
Ενημερώθηκε: 2024-12-10
Λέξεις-κλειδιά:
Ηθική της Τεχνητής Νοημοσύνης; Εισηγητικά Συστήματα Τ.Ν.; Ρυθμιστικά Συστήματα Τ.Ν.; Δικαστικές Εφαρμογές Τεχνητής Νοημοσύνης, Machine Ethics;
Άλκης Γούναρης
Γιώργος Κωστελέτος
Περίληψη

Ένα από τα πιο ενδιαφέροντα και προκλητικά ζητήματα της Ηθικής της Τ.Ν. που θα κληθούμε να αντιμετωπίσουμε στο άμεσο μέλλον έχει να κάνει με την κατασκευή και χρήση υπολογιστικών συστημάτων για ρυθμιστικούς σκοπούς και, συγκεκριμένα, συστημάτων Τ.Ν. που θα προβαίνουν στη λήψη αποφάσεων ηθικής ή νομικής φύσης, συμμετέχοντας καθοριστικά στη λειτουργία απόδοσης Δικαιοσύνης. Η λήψη αποφάσεων per se, δεν συνιστά εν πρώτοις οξύ πρόβλημα, καθώς ήδη εφαρμογές Τ.Ν., που χρησιμοποιούμε στην καθημερινότητά μας, λαμβάνουν αποφάσεις οι οποίες ενδεχομένως να έχουν εμμέσως κάποιον ηθικό αντίκτυπο, όμως τα κριτήρια λήψης των αποφάσεών τους δεν είναι ηθικά ή νομικά και o ρόλος τους παραμένει κατά βάση εισηγητικός. Σε αντίθεση με τέτοιου τύπου «Εισηγητικά Συστήματα Τ.Ν.», στο μέλλον είναι πολύ πιθανό να δημιουργηθούν «Ρυθμιστικά Συστήματα Τ.Ν», δηλαδή συστήματα που δεν θα εισηγούνται απλώς, αλλά θα λαμβάνουν τα ίδια αποφάσεις, με βάση ηθικά κριτήρια ή κριτήρια δικαίου εν γένει, και θα μπορούν να χρησιμοποιηθούν στο άμεσο μέλλον για νομοθετικό έργο, απόδοση δικαιοσύνης, καθορισμό κυβερνητικών ή εταιρικών πολιτικών ή ακόμα και για αξιολόγηση της καθημερινής μας συμπεριφοράς.
Πρέπει να διευκρινιστεί, δε, ότι, σε αντιδιαστολή προς τα Ρυθμιστικά Συστήματα Τ.Ν., τα Εισηγητικά Συστήματα Τ.Ν, όπως οι νομικές εφαρμογές που χρησιμοποιούνται επί του παρόντος, προβαίνουν σε εισηγήσεις τις οποίες ο αλληλεπιδρών με τα συστήματα αυτά άνθρωπος δεν είναι υποχρεωμένος να ακολουθήσει, παρ’ ότι σε ορισμένες περιπτώσεις αισθάνεται «ότι πρέπει» να ακολουθήσει λόγω της επάρκειας και του βαθμού πληρότητας των συστημάτων αυτών. Στην περίπτωση, ωστόσο, των Ρυθμιστικών Συστημάτων Τ.Ν., οι «έξοδοί» (output) τους δύναται να είναι αποφάσεις με τις οποίες οι άνθρωποι θα είναι υποχρεωμένοι να συμμορφώνονται απαρέγκλιτα, ακόμα και επί τη βάσει ενός θεσμικού πλαισίου που θα επιβάλλει στους ανθρώπους την ευθυγράμμιση με τις αποφάσεις των Ρυθμιστικών Συστημάτων Τ.Ν. Όπως δείχνουμε στο παρόν δοκίμιο, η επιλογή, ως προς το αν οι «έξοδοι» αυτές θα έχουν τον χαρακτήρα απλών εισηγήσεων ή αναπόδραστων αποφάσεων, ισοδυναμεί ουσιαστικά με μια επιλογή ως προς τον βαθμό αυτονομίας που θα διακρίνει τα εν λόγω συστήματα. Αν οι «έξοδοι» συνιστούν απλές εισηγήσεις, τότε έχουμε μια περιορισμένη αυτονομία από μέρους του Ρυθμιστικού Συστήματος Τ.Ν., καθώς καθότι θα εξακολουθεί η όποια εισήγηση, ως τέτοια, να επιζητά την τελική αξιολόγηση και τελικά έγκριση ή απόρριψη από τον άνθρωπο χρήστη —π.χ. από έναν νομοθέτη ή δικαστή. Απεναντίας, αν οι «έξοδοι» αποτελούν αποφάσεις προς αναπόδραστη εκτέλεση, τότε ο ρόλος ανθρώπινου παράγοντα, νομοθέτη ή δικαστή, καθίσταται κενός περιεχομένου και ως εκ τούτου έχουμε απόλυτη αυτονομία του συστήματος Τ.Ν.

Λεπτομέρειες άρθρου
  • Ενότητα
  • Άρθρα
Λήψεις
Τα δεδομένα λήψης δεν είναι ακόμη διαθέσιμα.
Αναφορές
Anderson, Michael., Susan L. Anderson. “A Prima Facie Duty Approach to Machine Ethics: Machine Learning of Features of Ethical Dilemmas, Prima Facie Duties, and Decision Principles through a dialogue with Ethicists.” In Anderson, Michael., & Suzan L. Anderson, eds. Machine Ethics. Cambridge University Press, 2011.
Anderson, Michael., and Susan L. Anderson. “Machine ethics: Creating an ethical intelligent agent.” AI magazine 28, 4 (2007): 15-15 https://doi.org/10.1609/aimag.v28i4.2065
Anderson, Michael., Anderson, Susan L., Gounaris, Alkis., and George Kosteletos. “Towards Moral Ma-chines: A Discussion with Michael Anderson and Susan Leigh Anderson.” Conatus - Journal of Philosophy 6, 1 (2021): 177-202. doi: https://doi.org/10.12681/cjp.26832
Αριστοτέλης. Ηθικά Νικομάχεια.
Arkin, Ronald C. “The Case of Ethical Autonomy in Unmanned Systems.” Journal of Military Ethics 9, 4 (2010): 332-341.
Ashrafian, Hutan. “Artificial Intelligence and Robot Responsibilities: Innovating Beyond Rights.” In Science and Engineering Ethics 21, 2 (2015): 317-326.
Avramides, Anita. “Other Minds.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta. 2020. https://plato.stanford.edu/archives/win2020/entries/other-minds/
Awad, Edmond., Dsouza, Sohan., Kim Richard et al. “The Moral Machine experiment.” Nature 563 (2018): 59–64. https://doi.org/10.1038/s41586-018-0637-6 European Commission. High-Level Expert Group on Artificial Intelligence. Ethics Guidelines for Trustworthy AI. HLEG, 2019. https://www.aepd.es/sites/default/files/2019-12/ai-ethics-guidelines.pdf
Bentham, Jeremy. An Introduction to the Principles of Morals and Legislation, edited by J. Burns & H. Hart. Clarendon Press, 1789.
Bentham, Jeremy. An Introduction to the Principles of Morals and Legislation. 2017. https://www.earlymoderntexts.com/assets/pdfs/bentham1780.pdf
Bostrom, Nick. “Existential Risks.” Journal of Evolution and Technology 9 (2002) και “Superintelligence: Paths, Dangers, Strategies.” (2014).
Bostrom, Nick. “The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents. Minds and Machines.” 22, 2 (2012): 71-85.
Bratman, Michael. Structures of Agency: Essays. Oxford University Press, 2007. https://doi.org/10.1093/acprof:oso/9780195187717.001.0001.
Bryson, Johana J., Diamantis, Michalis E., and Thomas D. Grant. “Of, for, and by the people: the legal lacuna of synthetic persons.” Artificial Intelligence and Law 25, no.3 (2017): 273-291. https://doi.org/10.1007/s10506-017-9214-9.
Bryson, Johana. J. “Robots should be slaves.” Close Engagements with Artificial Companions: Key social, psychological, ethical and design issues 8 (2010): 63-74.
Γούναρης, Άλκης., Γιώργος Κωστελέτος. “Όπλα Τεχνητής Νοημοσύνης: Προβλήματα Απόδοσης Ηθικού Καθεστώτος στις Αυτόνομες Μηχανές.” Στο Όψεις της Εφαρμοσμένης Επιστήμης και Τεχνολογίας – Διερευνώντας το αξιακό τοπίο της Τεχνοεπιστήμης, επ. Κώστας Θεολόγου, Ευγενία Τζαννίνη. Ελληνοκεδοτική, 2022.
Chalmers, David J. The Singularity: A Philosophical Analysis. 2010. https://consc.net/papers/singularity.pdf
Christian, Brian. The Alignment Problem: Machine Learning and Human Values. W. W. Norton & Company, 2020.
Christiano, Paul. “Ambitious vs. narrow value learning.” 2015. https://ai-alignment.com/ambitious-vs-narrow-value-learning-99bd0c59847e
Coeckelbergh, Mark. “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability.” In Science and Engineering Ethics. 2019. https://coeckelbergh.net/wp-content/uploads/2019/10/2019_10_28-ai-responsibility-relational-explainability-coeckelbergh.pdf
Collingridge, David. The social control of technology. St. Martin, 1980.
Council of Europe. “AD HOC Committee on Artificial Intelligence (CAHAI).” https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da
Davis, Martin. Computability and Unsolvability. McGraw-Hill, 1958.
Delvaux, Mady. “DRAFT REPORT with recommendations to the Commission on Civil Law Rules on Robotics.” In Committee on Legal Affairs. European Parliament, 2014-2019, (2016).
Dennett, Daniel C. “Are we explaining consciousness yet?.” In Cognition 79, 1 (2001):221-37.
Dreyfus, Hubert. What Computers Still Can't Do: A Critique of Artificial Reason. MIT Press, 1992.
Elder, Alexis. “Robot friends for autistic children: Monopoly money or counterfeit currency?.” In Robot ethics 2.0: From autonomous cars to artificial intelligence, edited by Patrick Lin, Ryan Jen-kins and Keith Abney. Oxford University Press, 2017.
European Commission. Ethics guidelines for trustworthy AI. Office for Official Publications of the European Communities, 2019.
Evas, Tatjana. “European framework on ethical aspects of artificial intelligence, robotics and related technologies.” European Parliamentary Research Service, 2020. https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654179/EPRS_STU(2020)654179_EN.pdf
Feenberg, Andrew. “Subversive Ra-tionalization: Technology, Power, and Democracy.” In Technology and the Politics of Knowledge, edited by Andrew Feenberg and Alastair Hannay. Indiana University Press, 1995.
Frankfurt, Harry. The Importance of What We Care About. Cambridge University Press, 1988. https://doi.org/10.1017/CBO9780511818172.
Gibson, James J. The ecological approach to visual perception. Houghton Mifflin, 1979.
Goertzel, Ben. “Intelligence, Mind and Self-Modification: Defining the Core Concepts of AI.” 2002. https://www.goertzel.org/papers/IntelligenceAndSelfModification.htm
Gounaris, Alkis. “Can we literally talk about artificial moral agents?.” Presentation for the 6th Panhellenic Conference in Philosophy of Science. Department of History and Philosophy of Science – NKUA, Athens, Greece, 2020. DOI: 10.13140/RG.2.2.13671.47520. Retrieved [25/12/2020] from https://alkisgounaris.gr/en/archives
Gounaris, Alkis., and George Kosteletos. “Licensed to Kill: Autonomous Weapons as Persons and Moral Agents.” In Personhood, edited by Dragan Prole and Goran Rujiević. Hellenic-Serbian Philosophical Dialogue Series, vol. 2. Novi Sad: The NKUA Applied Philosophy Research Lab Press, 2020. https://doi.org/10.12681/aprlp.82.
Gounaris, Alkis. “Why do we need a Unified Theory of Embodied Cognition?.” Presentation for the 94th Joint Session of the Mind Association and the Aristotelian Society. University of Kent, Online Open Session, 2020. DOI: 10.13140/RG.2.2.11933.74729
Grace, Katja. “Superintelligence 20: The value-loading problem. Nick Bostrom.” 2015. https://www.lesswrong.com/posts/FP8T6rdZ3ohXxJRto/superintelligence-20-the-value-loading-problem
Graham, Jesse., Nosek, Brian A., Haidt, Jonathan., Iyer, Ravi., Koleva, Spassena., and Peter H. Ditto. “Mapping the moral domain.” Journal of Personality and Social Psychology 101, no.2 (2011): 366-385. https://doi.org/10.1037/a0021847.
Gunkel, David J. “The other question: can and should robots have rights?.” In Ethics and Information Technology 20, 2 (2018): 87-99.
Güzeldere, Güven. “The many faces of consciousness: A field guide.” In Block, Ned., Flanagan, Owen., & Güven Güzeldere, eds. The Nature of Consciousness: Philosophical Debates. MIT Press, 1997.
Haidt, Jonathan., and Craig Joseph. “Intuitive ethics: How innately prepared intuitions generate culturally variable virtues.” Daedalus 133, no.4 (2004): 55-66. https://www.jstor.org/stable/20027945.
Hao, Karen. “Should a self-driving car kill the baby or the grandma? Depends on where you’re from.” MIT Technology Review, (accessed November 2024). https://www.technologyreview.com/2018/10/24/139313/a-global-ethics-study-aims-to-help-ai-solve-the-self-driving-trolley-problem/
Hauser, Mark D., Young, Liane., and Fiery Cushman. “Reviving Rawls’s Linguistic Analogy: Operative Principles and the Causal Structure of Moral Actions”. In Moral Psychology, vol. 2, The Cognitive Science of Morality: Intuition and Diversity, edited by Walter Sinott-Armstring. MIT Press, 2008.
Heidegger, Martin. Τα Βασικά Προβλήματα της Φαινομενολογίας. 1999.
Horn, Robert Ε. “The Turing Test: Mapping and Navigating the Debate.” In Parsing the Turing Test, edited by Robert Epstein, Gary Roberts and Grace Beber. Springer Science, 2009. https://doi.org/10.1007/978-1-4020-6710-5
Kant, Immanuel. Τα θεμέλια της Μεταφυσικής των Ηθών. Δωδώνη, 1984.
Königs, Peter. “What is techno-optimism?.” Philosophy & Technology 35, no.3 (2022): 63-68. https://doi.org/10.1007/s13347-022-00555-x.
Kurzweil, Ray. The Singularity Is Near: When Humans Transcend Biology. 2005.
Κωστελέτος, Γεώργιος. “Η Μουσική Δοκιμασία Turing.” Μουσικολογία 15 (2015): 290-300.
Levy, David. “The ethical treatment of artificially conscious robots.” International Journal of Social Robotics 1, 3 (2009): 209-216 https://doi.org/10.1007/s12369-009-0022-6
Lillemäe, Eleri., Talves, Kairi., and Wolfgang W. Wagner. “Public perception of military AI in the context of techno-optimistic society.” AI & SO-CIETY (2023):1-15. https://doi.org/10.1007/s00146-023-01785-z.
Marchant, Gary E., Allenby, Braden R., Joseph R. Herkert, eds. The Growing Gap Between Emerging Technologies and Legal-Ethical Oversight. The Pacing Problem. 2011 https://doi.org/10.1007/978-94-007-1356-7
McCarthy, John., Patrick J. Hayes. “Some Philosophical Problems from the Standpoint of Artificial Intelligence.” In Meltzer, Bernard., & Donald M. Michie, eds. Machine Intelligence 4. Edinburgh University, 1969. https://www-formal.stanford.edu/jmc/mcchay69.pdf
Merleau-Ponty, Maurice. Phenomenology of Perception. 1962.
Mill, J. Stuart. Ωφελιμισμός. Μτφρ. Φιλήμων Παιονίδης. Πόλις, 2013.
Minsky, Marvin. Computation: Finite and Infinite Machines. Prentice-Hall, 1967.
Moore, George E. Principia Ethica. 1903.
Moore, Gordon E. “Cramming more components onto integrated circuits.” In Electronics Volume 38, Number 8 (1965). https://www.intel.com/content/www/us/en/newsroom/resources/moores-law.html
Πελεγρίνης, Θεοδόσης. Ηθική Φιλοσοφία. Ελληνικά Γράμματα, 1997.
Πελεγρίνης, Θεοδόσης. Λεξικό Φιλοσοφίας. Ελληνικά Γράμματα, 2004.
Piaget, Jean. “The theory of stages in cognitive development.” In D. R. Green, M. P. Ford & G. B. Flamer, Measurement and Piaget. McGraw-Hill, 1971.
Pinto-Bustamante, Boris J., Riaño-Moreno, Julián C., Clavijo-Montoya, Hernando A., Cárdenas-Galindo, Maria A., and Wilson D. Campos-Figueredo. “Bioethics and artificial intelligence: between deliberation on values and ration-al choice theory.” Frontiers in Robotics and AI 10 (2023):1140901. https://doi.org/10.3389/frobt.2023.1140901
Ross, William David. The right and the good. Oxford University Press, 1930.
Schwitzgebel, Eric., Mara Garza. “A Defense of the Rights of Artificial Intelligences.” 2015. https://doi.org/10.1111/misp.12032
Searle, John. “Minds, Brains and Programs.” In Behavioral and Brain Sciences. 1980.
Shapiro, Lawrence. Embodied Cognition. Routledge, 2019.
Sinnott-Armstrong, Walter. “Framing Moral Intuitions”. In Moral Psychology, vol. 2, The Cognitive Science of Morality: Intuition and Diversity, edited by Walter Sinott-Armstring. MIT Press, 2008. https://doi.org/10.7551/mitpress/7573.001.0001 .
Skelton, Anthony. “William David Ross.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta. Spring, 2022. https://plato.stanford.edu/archives/spr2022/entries/william-david-ross/
Sparrow, Robert. “Killer Robots.” Journal of Applied Philosophy 24, no.1 (2007): 62-77. https://doi.org/10.1111/j.1468-5930.2007.00346.x
Steunebrink, Bas R., Thorisson, Kristinn R., and Jurgen Schmidhuber. “Growing Recursive Self-Improvers.” (2016). https://people.idsia.ch/~steunebrink/Publications/AGI16_growing_recursive_self-improvers.pdf
Stuart, Russell., and Peter Norvig. Τεχνητή Νοημοσύνη: Μια σύγχρονη προσέγγιση. Κλειδάριθμος, 2005.
Sudmann, Andreas., Ed. The Democratization of Artificial Intelligence. 2019. https://doi.org/10.14361/9783839447192
Sudmann, Andreas., Ed. The Democratization of Artificial Intelligence: Net Politics in the Era of Learning Algorithms. Transcript Verlag, 2019. https://doi.org/10.14361/9783839447192.
Taylor, Jessica., Eliezer Yudkowsky et al. “Alignment for Advanced Machine Learning Systems.” (2016) https://intelligence.org/files/AlignmentMachineLearning.pdf
Tegmark, Max. Life 3.0: being human in the age of artificial intelligence. Knopf, 2017.
Tegmark, Max. Life 3.0: Τι θα σημαίνει να είσαι άνθρωπος στην εποχή της τεχνητής νοημοσύνης;. Εκδόσεις Τραυλός, 2018.
The World Commission on the Ethics of Scientific Knowledge and Technology. “The Precautionary Principle.” (2005). https://unesdoc.unesco.org/ark:/48223/pf0000139578
Vinge, Vernor. The Technological Singularity. 1993. https://cmm.cenart.gob.mx/delanda/textos/tech_sing.pdf
Warren, Mary Anne. “On the Moral and Legal Status of Abortion.” In White, J., ed. Contemporary Moral Problems. Wadsworth/Thompson Learning, 2003. https://spot.colorado.edu/~norcross/Ab3.pdf
Wiener, Norbert. “Some Moral and Technical Consequences of Automation.” Science (1960). https://www.science.org/doi/10.1126/science.131.3410.1355
Williams, Bernard. Η Ηθική και τα όρια της Φιλοσοφίας. Mτφρ. Χρυσούλα Γραμμένου. Εκδόσεις Αρσενίδης, 2006.
Wittgenstein, Ludwig. Tractatus Logico-Philosophicus. 1922.
Yampolskiy, Roman V. “Artificial Intelligence Safety Engineering: Why Machine Ethics is a Wrong Approach.” In Philosophy and Theory of Artificial Intelligence, edited by Vincent C. Müller. Springer, 2012.
Yudkowsky, Eliezer. “Artificial Intelligence as a Positive and Negative Factor in Global Risk.” In Global Catastrophic Risks, edited by Nick Bostrom and Milan M. Ćirković. Oxford University Press, 2008.
Yudkowsky, Eliezer. “The Value Loading Problem.” EDGE, July 12, 2021. https://www.edge.org/response-detail/26198
Ziouvelou, Xenia., Karkaletsis, Vangelis., and George Giannakopoulos et al. “Democratising AI. A Nation-al Strategy for Greece.” Institute of Informatics and Telecommunication of the National Centre for Scientific Research Demokritos, 2020. http://democratisingai.gr/index.html