ปัญญาประดิษฐ์กับความรับผิดชอบทางจริยธรรม: ประเด็นปัญหาทางปรัชญา
Main Article Content
บทคัดย่อ
ความก้าวหน้าของปัญญาประดิษฐ์ได้ก่อให้เกิดข้อถกเถียงเรื่องความรับผิดชอบทางจริยธรรม มนุษย์มีแนวโน้มที่จะใช้ให้ปัญญาประดิษฐ์ทำงานแทนตนเองมากขึ้น ในแง่หนึ่งปัญญาประดิษฐ์สามารถเรียนรู้และตัดสินใจได้เอง ทว่ามันก็ไม่สามารถรับผิดชอบทางจริยธรรมอันเป็นอิสระจากมนุษย์ได้ คำถามที่น่าสนใจก็คือว่า หากปฏิบัติการของปัญญาประดิษฐ์นำไปสู่ผลร้ายทางจริยธรรมที่คาดไม่ถึง เราจะทำความเข้าใจเรื่องความรับผิดชอบทางจริยธรรมของปัญญาประดิษฐ์ได้อย่างไร บทความวิจัยนี้ใช้วิธีการวิจัยเชิงเอกสาร มีวัตถุประสงค์มุ่งศึกษาและวิเคราะห์ประเด็นปัญหาเรื่องปัญญาประดิษฐ์กับความรับผิดชอบทางจริยธรรม และอภิปรายเพื่อนำเสนอมุมมองทางปรัชญาของผู้เขียนเพื่อพยายามแก้ปัญหาเรื่องช่องว่างของความรับผิดชอบทางจริยธรรม ผลการวิจัยมีข้อเสนอหลัก 2 ข้อ กล่าวคือ (1) ผู้เขียนสนับสนุนแนวคิดที่ว่าความรับผิดชอบทางจริยธรรมจำเป็นต้องยึดโยงกับการเป็นผู้กระทำการทางจริยธรรมในแบบที่ไม่ใช้กรอบคิดแบบดั้งเดิม กล่าวคือ ไม่ได้กำหนดความรับผิดชอบไปที่ปัจเจกบุคคลและคุณลักษณะแบบมนุษย์ของปัจเจกบุคคล และ (2) สืบเนื่องจากเหตุผลแรก ผู้เขียนจึงเสนอว่ามโนทัศน์เรื่องการเป็นผู้กระทำการทางจริยธรรมในฐานะที่เป็นปฏิสัมพันธ์ร่วมกันระหว่างมนุษย์กับปัญญาประดิษฐ์เป็นสิ่งจำเป็นต่อความรับผิดชอบทางจริยธรรม แม้ว่าแนวคิดนี้จะยังคงมีแนวโน้มยึดโยงอยู่กับการเป็นผู้กระทำการ และความเป็นสาเหตุซึ่งสอดคล้องกับวิธีคิดแบบมองย้อนกลับหลัง แต่เราก็ควรพยายามปรับให้แนวคิดนี้ให้มีความสอดคล้องกับวิธิคิดเรื่องความรับผิดชอบทางจริยธรรมในแบบที่มองไปข้างหน้าด้วยเช่นกัน
Downloads
Article Details

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
References
Anderson, M., & Anderson, S. L. (Eds.). (2011). Machine ethics. Cambridge: Cambridge University Press.
Bernáth, L. (2021). Can autonomous agents without phenomenal consciousness be morally responsible? Philosophy & Technology, 34(4), 1363-1382. doi: 10.1007/s13347-021-00462-7
Coeckelbergh, M. (2020a). AI ethics. Cambridge: The MIT Press.
Coeckelbergh, M. (2020b). Artificial Intelligence, responsibility attribution, and relational justification of explainability. Science and Engineering Ethics, 26(4), 2051-2068. doi: 10.1007/s11948-019-00146-8
Coeckelbergh, M. (2020c). Introduction to philosophy of technology. Oxford: Oxford University Press.
Dodig-Crnkovic, G., & Persson, D. (2008). Sharing moral responsibility with robots: A pragmatic approach. In A. Holst, P. Kreuger, & P. Funk (Eds.), Proceedings of the 2008 conference on Tenth Scandinavian Conference on Artificial Intelligence: SCAI 2008 (pp. 165-168). Amsterdam: IOS Press.
Floridi, L. (2016). Faultless responsibility: On the nature and allocation of moral responsibility for distributed moral actions. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 374(2083), 20160112. doi: 10.1098/rsta.2016.0112
Floridi, L., & Sanders, J. W. (2004). On the morality of artificial agents. Minds and Machines, 14(3), 349-379.
Gogoshin, D. L. (2021). Robot responsibility and moral community. Frontiers in Robotics and AI, 8, 768092. doi: 10.3389/frobt.2021.768092
Gunkel, D. J. (2020). Mind the gap: Responsible robotics and the problem of responsibility. Ethics and Information Technology, 22(4), 307-320. doi: 10.1007/s10676-017-9428-2
Hakli, R., & Mäkelä, P. (2019). Moral responsibility of robots and hybrid agents. The Monist, 102(2), 259-275. doi: 10.1093/monist/onz009
Hanson, F. A. (2009). Beyond the skin bag: On the moral responsibility of extended agencies. Ethics and Information Technology, 11(1), 91-99. doi: 10.1007/s10676-009-9184-z
Johnson, D. G. (2015). Technology with no human responsibility? Journal of Business Ethics, 127(4), 707-715. Retrieved from http://www.jstor.org/stable/24702822
Jonas, H. (1984). The imperative of responsibility: In search of an ethics for the technological age. Chicago: University of Chicago Press.
Matthias, A. (2004). The responsibility gap: Ascribing responsibility for the actions of learning automata. Ethics and Information Technology, 6(3), 175-183. doi: 10.1007/s10676-004-3422-1
Nyholm, S. (2020). Humans and robots: Ethics, agency, and anthropomorphism. London: Rowman & Littlefield Publishing Group.
Owe, A., & Baum, S. D. (2021). Moral consideration of nonhumans in the ethics of artificial intelligence. AI and Ethics, 1(4), 517-528. doi: 10.1007/s43681-021-00065-0
Porter, Z. L. M., Habli, I., Monkhouse, H. & Bragg, J. E. (2018). The moral responsibility gap and the increasing autonomy of systems. Retrieved November 25, 2022, from https://eprints.whiterose.ac.uk/133488/
Russell, S. J. (2019). Human compatible: Artificial intelligence and the problem of control. New York: Viking.
Schweikard, D. P., & Schmid, H. B. (2021). Collective intentionality. Retrieved November 25, 2022, from https://plato.stanford.edu/archives/fall2021/entries/collective-intentionality
Sharkey, A. (2017). Can robots be responsible moral agents? And why should we care? Connection Science, 29(3), 210-216.
Tegmark, M. (2018). Life 3.0: Being human in the age of artificial intelligence. New York: Penguin Books.
Telakivi, P. (2021, July 13). AI-extenders and moral responsibility [Video file]. Retrieved from https://www.youtube.com/watch?v=Buna320NbhE&t=6s
Tigard, D. (2021). Artificial moral responsibility: How we can and cannot hold machines responsible. Cambridge Quarterly of Healthcare Ethics, 30(3), 435-447. doi: 10.1017/S0963180120000985
Tigard, D. W. (2020). There is no techno-responsibility gap. Philosophy & Technology 34(3), 589–607. doi: 10.1007/s13347-020-00414-7
Tigard, D. W., Conradie, N. H., & Nagel, S. K. (2020). Socially responsive technologies: Toward a co-developmental path. AI & SOCIETY, 35(4), 885–893. doi: 10.1007/s00146-020-00982-4
Verbeek, P. P. (2005). What things do: Philosophical reflections on technology, agency, and design. Pennsylvania: Pennsylvania State University Press.
Wallach, W., & Allen, C. (2009). Moral machines. Oxford: Oxford University Press.
Zerilli, J., Danaher, J., Maclaurin, J., Gavaghan, C., Knott, A., Liddicoat, J., & Noorman, M. E. (2021). A citizen’s guide to artificial intelligence. Cambridge: The MIT Press.