ปัญหา รถเข็น ไร้คนขับ : ระบบ AI ในอนาคตจะสร้างทางเลือกที่มีจริยธรรมมากที่สุดสำหรับเราทุกคนได้อย่างไร

ปัญหา รถเข็น ไร้คนขับ : ระบบ AI ในอนาคตจะสร้างทางเลือกที่มีจริยธรรมมากที่สุดสำหรับเราทุกคนได้อย่างไร

หุ่นยนต์ขาดมโนธรรมทางศีลธรรมและปฏิบัติตาม “จริยธรรม” ที่ตั้งโปรแกรมไว้ในนั้น ซึ่งแตกต่างจากมนุษย์ ในขณะเดียวกัน ศีลธรรมของมนุษย์ก็แปรปรวนอย่างมาก สิ่งที่ “ถูกต้อง” ที่จะทำในทุกสถานการณ์จะขึ้นอยู่กับคนที่คุณขอ เพื่อให้เครื่องจักรช่วยเราได้ เต็มศักยภาพ เราต้องแน่ใจว่าเครื่องจักรนั้นประพฤติตนอย่างมีจริยธรรม ดังนั้นคำถามจึงเกิดขึ้น: จริยธรรมของนักพัฒนาและวิศวกร AI มีอิทธิพลต่อการตัดสินใจของ AI อย่างไร

จินตนาการถึงอนาคตด้วยรถยนต์ไร้คนขับที่ไร้คนขับ หากทุกอย่าง

เป็นไปตามที่ตั้งใจไว้ การเดินทางในช่วงเช้าจะเป็นโอกาสในการเตรียมตัวสำหรับการประชุมในแต่ละวัน ติดตามข่าวสาร หรือนั่งพักผ่อน

แต่ถ้ามีอะไรผิดพลาดล่ะ? รถเข้าใกล้สัญญาณไฟจราจร แต่จู่ๆ เบรกก็ล้มเหลวและคอมพิวเตอร์ต้องทำการตัดสินใจในเสี้ยววินาที มันสามารถหักเลี้ยวเข้าชนเสาที่อยู่ใกล้เคียงและฆ่าผู้โดยสารได้ หรือขับต่อไปและฆ่าคนเดินถนนที่อยู่ข้างหน้า

คอมพิวเตอร์ที่ควบคุมรถจะสามารถเข้าถึงข้อมูลที่จำกัดซึ่งรวบรวมผ่านเซ็นเซอร์ของรถเท่านั้น และจะต้องตัดสินใจบนพื้นฐานของสิ่งนี้ แม้จะดูน่าทึ่ง แต่เรายังเหลืออีกไม่กี่ปีข้างหน้าที่จะเผชิญกับภาวะที่กลืนไม่เข้าคายไม่ออกเช่นนี้

โดยทั่วไป รถยนต์ไร้คนขับจะให้การขับขี่ที่ปลอดภัยกว่า แต่อุบัติเหตุจะเป็นสิ่งที่หลีกเลี่ยงไม่ได้ โดยเฉพาะอย่างยิ่งในอนาคตอันใกล้ เมื่อรถยนต์เหล่านี้จะใช้ถนนร่วมกันกับคนขับและผู้ใช้ถนนคนอื่นๆ

เทสลายังไม่ได้ผลิตรถยนต์อัตโนมัติเต็มรูปแบบแม้ว่าจะมีแผนที่จะผลิตก็ตาม ในสถานการณ์การชนกัน รถยนต์ของ Tesla จะไม่ทำงานหรือปิดใช้งานระบบเบรกฉุกเฉินอัตโนมัติ (AEB) โดยอัตโนมัติหากมีคนขับอยู่ในการควบคุม

กล่าวอีกนัยหนึ่ง การกระทำของผู้ขับจะไม่หยุดชะงัก แม้ว่าตัวเขาเองจะก่อให้เกิดการชนก็ตาม แต่หากรถตรวจพบการชนที่อาจเกิดขึ้นรถจะส่งการแจ้งเตือนไปยังคนขับเพื่อดำเนินการ

อย่างไรก็ตาม ในโหมด “ขับเคลื่อนอัตโนมัติ” รถควรเบรกโดยอัตโนมัติสำหรับคนเดินถนน บางคนแย้งว่าหากรถสามารถป้องกันการชนได้ ก็มีหน้าที่ทางศีลธรรมที่จะต้องแทนที่การกระทำของคนขับในทุก

สถานการณ์ แต่เราต้องการรถยนต์ที่เป็นอิสระในการตัดสินใจนี้หรือไม่?

จะเกิดอะไรขึ้นหากคอมพิวเตอร์ของรถยนต์สามารถประเมิน “มูลค่า” สัมพัทธ์ของผู้โดยสารในรถและคนเดินถนนได้ หากการตัดสินใจพิจารณาถึงค่านี้ ในทางเทคนิคแล้ว ก็จะเป็นเพียงการวิเคราะห์ต้นทุน-ผลประโยชน์

สิ่งนี้อาจฟังดูน่าตกใจ แต่มีการพัฒนาเทคโนโลยีที่สามารถช่วยให้สิ่งนี้เกิดขึ้นได้ ตัวอย่างเช่น Meta ที่เพิ่งรีแบรนด์ใหม่ (เดิมคือ Facebook) ได้มีการพัฒนาอย่างมากในการจดจำใบหน้าที่สามารถระบุตัวบุคคลในฉากได้อย่างง่ายดาย

หากข้อมูลเหล่านี้รวมเข้ากับระบบ AI ของรถยนต์ขับเคลื่อนอัตโนมัติ อัลกอริทึมสามารถกำหนดมูลค่าให้กับแต่ละชีวิตได้ ความเป็นไปได้นี้แสดงให้เห็นในการศึกษาในปี 2018 ที่จัดทำโดยผู้เชี่ยวชาญจากสถาบันเทคโนโลยีแมสซาชูเซตส์และเพื่อนร่วมงาน

จาก การทดลองของ Moral Machineนักวิจัยได้แสดงสถานการณ์ต่างๆ ของรถยนต์ที่ขับด้วยตนเอง ซึ่งบังคับให้ผู้เข้าร่วมตัดสินใจว่าจะฆ่าคนเดินถนนจรจัดหรือคนเดินถนนระดับผู้บริหาร

ผลลัพธ์เผยให้เห็นว่าตัวเลือกของผู้เข้าร่วมขึ้นอยู่กับระดับความไม่เท่าเทียมกันทางเศรษฐกิจในประเทศของตน โดยที่ความไม่เท่าเทียมกันทางเศรษฐกิจที่มากขึ้นหมายความว่าพวกเขามีแนวโน้มที่จะเสียสละชายจรจัดมากขึ้น

อุตสาหกรรมการดูแลสุขภาพเป็นอีกพื้นที่หนึ่งที่เราจะได้เห็น AI ทำการตัดสินใจที่อาจช่วยชีวิตหรือเป็นอันตรายต่อมนุษย์ ผู้เชี่ยวชาญกำลังพัฒนา AI มากขึ้นเรื่อยๆ เพื่อตรวจจับความผิดปกติในการถ่ายภาพทางการแพทย์และเพื่อช่วยแพทย์ในการจัดลำดับความสำคัญของการดูแลทางการแพทย์

สำหรับตอนนี้ แพทย์มีคำตอบสุดท้าย แต่เมื่อเทคโนโลยีเหล่านี้มีความก้าวหน้ามากขึ้น จะเกิดอะไรขึ้นเมื่อแพทย์และอัลกอริทึม AI ไม่ทำการวินิจฉัยแบบเดียวกัน

อีกตัวอย่างหนึ่งคือระบบเตือนการใช้ยาอัตโนมัติ ระบบควรตอบสนองอย่างไรหากผู้ป่วยไม่ยอมรับประทานยา? และนั่นส่งผลต่อความเป็นอิสระของผู้ป่วยและความรับผิดชอบโดยรวมของระบบอย่างไร

โดรนและอาวุธที่ขับเคลื่อนด้วย AI นั้นเกี่ยวข้องกับจริยธรรมเช่นกัน เนื่องจากพวกมันสามารถตัดสินใจสังหารได้ มีความคิดเห็นที่ขัดแย้งกันว่าเทคโนโลยีดังกล่าวควรถูกห้ามหรือควบคุม โดยสมบูรณ์หรือ ไม่ ตัวอย่างเช่น การใช้โดรนไร้คนขับอาจถูกจำกัดไว้สำหรับการเฝ้าระวัง

บางคนเรียกร้องให้ตั้งโปรแกรมหุ่นยนต์ทางทหารอย่างมีจริยธรรม แต่สิ่งนี้ทำให้เกิดปัญหาเกี่ยวกับความรับผิดชอบของโปรแกรมเมอร์ในกรณีที่โดรนสังหารพลเรือนโดยไม่ได้ตั้งใจ

ประเด็นขัดแย้งทางปรัชญา

มีการถกเถียงทางปรัชญามากมายเกี่ยวกับการตัดสินใจทางจริยธรรมที่ AI จะต้องทำ ตัวอย่างคลาสสิกคือปัญหารถเข็น

ผู้คนมักมีปัญหาในการตัดสินใจที่อาจมีผลเปลี่ยนแปลงชีวิต เมื่อประเมินว่าเรามีปฏิกิริยาอย่างไรต่อสถานการณ์ดังกล่าว การศึกษาหนึ่งรายงานทางเลือกอาจแตกต่างกันไปขึ้นอยู่กับปัจจัยต่างๆรวมถึงอายุ เพศ และวัฒนธรรมของผู้ตอบแบบสอบถาม

เมื่อพูดถึงระบบ AI กระบวนการฝึกอบรมอัลกอริทึมมีความสำคัญต่อวิธีการทำงานในโลกแห่งความเป็นจริง ระบบที่พัฒนาขึ้นในประเทศหนึ่งอาจได้รับอิทธิพลจากมุมมอง การเมือง จริยธรรมและศีลธรรมของประเทศนั้น ทำให้ไม่เหมาะสมที่จะใช้ในสถานที่และเวลาอื่น

หากระบบกำลังควบคุมเครื่องบินหรือนำขีปนาวุธ คุณต้องการความมั่นใจในระดับสูงว่าระบบได้รับการฝึกฝนด้วยข้อมูลที่เป็นตัวแทนของสภาพแวดล้อมที่ใช้งานอยู่

ตัวอย่างของความล้มเหลวและความเอนเอียงในการใช้เทคโนโลยี ได้แก่เครื่องจ่ายสบู่แบบเหยียดเชื้อชาติและการติดฉลากรูปภาพอัตโนมัติที่ ไม่เหมาะสม

เว็บแท้ / ดัมมี่ออนไลน