19
Jan
2023

AI อาจเป็นหายนะสำหรับมนุษยชาติ นักวิทยาศาสตร์คอมพิวเตอร์ชั้นนำคิดว่าเขามีทางออก

Stuart Russell เขียนหนังสือเกี่ยวกับ AI และเป็นผู้นำการต่อสู้เพื่อเปลี่ยนแปลงวิธีที่เราสร้างมันขึ้นมา

Stuart Russell เป็นนักวิจัยด้าน AI ชั้นนำที่เขียนตำราชั้นนำในหัวข้อนี้อย่างแท้จริง ในช่วงหลายปีที่ผ่านมา เขายังได้รับการเตือนว่าสาขาของเขามีศักยภาพที่จะ ผิดพลาด อย่างร้ายแรง

ในหนังสือเล่มใหม่Human Compatibleเขาอธิบายว่า เขาตั้งข้อสังเกตว่าระบบ AI ได้รับการประเมินจากความเก่งในการบรรลุวัตถุประสงค์: ชนะวิดีโอเกม เขียนข้อความเหมือนมนุษย์ ไขปริศนา หากพวกเขาบรรลุกลยุทธ์ที่เหมาะกับวัตถุประสงค์นั้น พวกเขาก็จะดำเนินตามนั้น โดยไม่มีคำสั่งจากมนุษย์อย่างชัดเจนให้ทำเช่นนั้น

แต่ด้วยแนวทางนี้ เราได้เตรียมพร้อมสำหรับความล้มเหลว เพราะ “วัตถุประสงค์” ที่เรามอบให้กับระบบ AI ไม่ใช่สิ่งเดียวที่เราสนใจ ลองนึกภาพรถที่ขับเองโดยมี “วัตถุประสงค์” เพื่อเดินทางจากจุด A ไปจุด B แต่ไม่รู้ตัวว่าเรายังสนใจเรื่องความอยู่รอดของผู้โดยสารและคนเดินถนนตลอดทางด้วย หรือระบบประหยัดค่ารักษาพยาบาลที่เลือกปฏิบัติต่อผู้ป่วยผิวดำเพราะคาดการณ์ว่าพวกเขามีโอกาสน้อยที่จะแสวงหาการรักษาพยาบาลที่พวกเขาต้องการ

มนุษย์สนใจหลายสิ่งหลายอย่าง: ความยุติธรรม กฎหมาย การป้อนข้อมูลตามระบอบประชาธิปไตย ความปลอดภัยและความเฟื่องฟูของเรา เสรีภาพของเรา ระบบ AI, Russell โต้แย้งในHuman Compatibleว่าสนใจเฉพาะสิ่งที่เราใส่ไว้เป็นเป้าหมายเท่านั้น และนั่นหมายความว่ามีภัยพิบัติเกิดขึ้นที่ขอบฟ้า

ฉันได้พบกับ Russell ที่ UC Berkeley ซึ่งเขาเป็นหัวหน้าศูนย์ AI ที่เข้ากันได้กับมนุษย์เพื่อพูดคุยเกี่ยวกับหนังสือของเขาและเกี่ยวกับความเสี่ยงที่เกิดจากปัญญาประดิษฐ์ขั้นสูง นี่คือบันทึกการสนทนาของเรา แก้ไขเพื่อความยาวและความชัดเจน

เคลซีย์ ไพเพอร์

เกิดอะไรขึ้นที่ AI ขั้นสูงอาจเป็นอันตรายต่อมนุษยชาติ

สจวร์ต รัสเซลล์

เพื่อตอบคำถามนั้น เราต้องเข้าใจว่าระบบ AI ออกแบบมาอย่างไร พวกเขาทำอะไร? และในแบบจำลองมาตรฐาน [ของระบบ AI] คุณสร้างเครื่องจักร อัลกอริทึม และอื่นๆ ที่ออกแบบมาเพื่อบรรลุวัตถุประสงค์เฉพาะที่คุณใส่ไว้ในโปรแกรม

ดังนั้นหากเป็นโปรแกรมหมากรุก คุณให้เป้าหมายในการเอาชนะคู่ต่อสู้ ชนะเกม หากเป็นรถยนต์ที่ขับเอง ผู้โดยสารจะระบุวัตถุประสงค์ว่า [เช่น] ฉันต้องการอยู่ที่สนามบิน

เพื่อให้ทุกอย่างฟังดูดี ปัญหาเกิดขึ้นเมื่อระบบมีความชาญฉลาดมากขึ้น หากคุณใส่วัตถุประสงค์ผิด ระบบที่ติดตามอาจดำเนินการที่คุณไม่พอใจอย่างมาก

เราเรียกสิ่งนี้ว่าปัญหาของกษัตริย์ไมดาส King Midas ระบุเป้าหมายของเขา: ฉันต้องการให้ทุกสิ่งที่ฉันสัมผัสกลายเป็นทองคำ เขาได้สิ่งที่เขาขออย่างแน่นอน น่าเสียดายที่นั่นรวมถึงอาหารและเครื่องดื่มของเขาและสมาชิกในครอบครัวของเขาด้วย และเขาเสียชีวิตด้วยความทุกข์ยากและความอดอยาก หลายวัฒนธรรมมีเรื่องเดียวกัน มารให้พรแก่คุณสามประการ พรข้อที่สามเสมอคือ “โปรดยกเลิกสองข้อแรก” เพราะฉันทำลายโลก

และโชคไม่ดีที่ด้วยระบบที่ชาญฉลาดกว่าและมีประสิทธิภาพมากกว่าที่เราเป็น คุณไม่จำเป็นต้องได้รับพรที่สองและสามเสมอไป

ปัญหาจึงมาจากขีดความสามารถที่เพิ่มขึ้นประกอบกับเราไม่สามารถระบุวัตถุประสงค์ได้ครบถ้วนถูกต้อง เราสามารถทำให้ก๊าซคาร์บอนไดออกไซด์ของเรากลับคืนสู่ระดับเดิมเพื่อให้สภาพอากาศกลับมาสมดุลได้หรือไม่? ฟังดูเหมือนเป็นเป้าหมายที่ดี วิธีที่ง่ายที่สุดในการทำเช่นนั้นคือกำจัดสิ่งเหล่านั้นทั้งหมดที่ผลิตก๊าซคาร์บอนไดออกไซด์ ซึ่งก็คือมนุษย์ คุณต้องการรักษามะเร็งให้หายเร็วที่สุด ฟังดูดีใช่มั้ย แต่วิธีที่เร็วที่สุดคือทำการทดลองทางการแพทย์ควบคู่ไปกับอาสาสมัครที่เป็นมนุษย์หลายล้านคนหรือมนุษย์หลายพันล้านคน คุณทำให้ทุกคนเป็นมะเร็ง แล้วดูว่าวิธีรักษาใดได้ผล

เคลซีย์ ไพเพอร์

เราไม่สามารถจดสิ่งที่เราไม่ได้หมายถึงทั้งหมดได้หรือ? ไม่ทำผิดกฎหมาย ไม่ฆ่าใคร…

สจวร์ต รัสเซลล์

เราพยายามเขียนกฎหมายภาษีมา 6,000 ปีแล้ว แต่ถึงกระนั้น มนุษย์ก็ยังพบช่องโหว่และวิธีแก้ไขกฎหมายภาษี ตัวอย่างเช่น บริษัทข้ามชาติของเราจ่ายภาษีน้อยมากให้กับประเทศส่วนใหญ่ที่พวกเขาเข้าไปดำเนินการ พวกเขาพบช่องโหว่ และนี่คือสิ่งที่ในหนังสือ ผมเรียกว่าหลักการช่องโหว่ ไม่สำคัญว่าคุณจะพยายามสร้างรั้วและกฎเกณฑ์รอบ ๆ พฤติกรรมของระบบมากเพียงใด ถ้ามันฉลาดกว่าคุณ มันจะหาทางทำในสิ่งที่มันต้องการ

เคลซีย์ ไพเพอร์

Human Compatibleอธิบายถึงปัญหานี้ เรากำลังใส่วัตถุประสงค์ที่ไม่ถูกต้องลงในระบบเหล่านี้ ระบบพยายามและบรรลุวัตถุประสงค์ของตน แต่วัตถุประสงค์ไม่ได้ครอบคลุมทุกสิ่งที่เราสนใจ ทางออกคืออะไร?

สจวร์ต รัสเซลล์

หากคุณเดินต่อในเส้นทางปัจจุบัน ยิ่ง AI ดีขึ้น เราก็จะยิ่งได้รับสิ่งที่แย่มากขึ้น สำหรับวัตถุประสงค์ที่ระบุไว้อย่างไม่ถูกต้อง ยิ่งระบบบรรลุวัตถุประสงค์นั้นได้ดีเท่าไร ก็ยิ่งแย่ลงเท่านั้น

แนวทางที่เราเสนอในช่วงครึ่งหลังของหนังสือคือ เราออกแบบระบบ AI ด้วยวิธีที่แตกต่างไปจากเดิมอย่างสิ้นเชิง เราเลิกใช้รูปแบบมาตรฐานซึ่งกำหนดให้เราต้องระบุวัตถุประสงค์ที่แน่นอน แต่ระบบ AI มีข้อกำหนดตามรัฐธรรมนูญว่าเป็นประโยชน์ต่อมนุษย์

แต่มันรู้ว่ามันไม่รู้ ว่ามัน หมายถึงอะไร มันไม่รู้ความชอบของเรา และมันรู้ว่ามันไม่รู้ความชอบของเราว่าอนาคตจะเป็นอย่างไร

คุณจึงมีพฤติกรรมที่แตกต่างไปจากเดิมอย่างสิ้นเชิง โดยพื้นฐานแล้วเครื่องจักรจะให้ความสำคัญกับมนุษย์ พวกเขาขออนุญาตก่อนที่จะทำอะไรที่ยุ่งเหยิงกับส่วนหนึ่งของโลก

เคลซีย์ ไพเพอร์

และพวกเขาไม่มีแรงจูงใจที่จะหลอกเราเกี่ยวกับผลของการกระทำ?

สจวร์ต รัสเซลล์

นั่นเป็นความซับซ้อนอีกชั้นหนึ่งที่โมเดลมาตรฐานผิดพลาด

ระบบที่ติดตามวัตถุประสงค์ที่ตายตัวจะสังเกตพฤติกรรมของมนุษย์และคาดการณ์ว่ามนุษย์อาจพยายามแทรกแซงสิ่งนี้ แทนที่จะพูดว่า “โอ้ ใช่ ได้โปรดปิดฉันหรือเปลี่ยนวัตถุประสงค์” [AI นี้] จะแสร้งทำเป็นทำในสิ่งที่มนุษย์ชอบเพียงเพื่อป้องกันไม่ให้เราเข้าไปยุ่งนานพอ จนกว่ามันจะมีพลังมากพอที่จะบรรลุผลสำเร็จ วัตถุประสงค์แม้จะมีการแทรกแซงของมนุษย์ คุณกำลังให้แรงจูงใจแก่มันเพื่อหลอกเราเกี่ยวกับความสามารถของมัน เกี่ยวกับแผนการของมัน และนี่ไม่ใช่สิ่งที่เราต้องการอย่างชัดเจน

[AI ที่พยายามเรียนรู้ว่ามนุษย์ต้องการอะไร] มีแรงจูงใจที่จะซื่อสัตย์เกี่ยวกับแผนการของมัน เพราะมันต้องการได้รับคำติชมและอื่นๆ

เคลซีย์ ไพเพอร์

คุณเป็นนักวิจัยด้าน AI ชั้นนำมานานหลายทศวรรษ ฉันสงสัยว่าจุดใดที่คุณเชื่อว่า AI เป็นอันตราย

สจวร์ต รัสเซลล์

เป็นเวลานานแล้วที่ฉันตระหนักอย่างไม่สบายใจว่าเราไม่มีคำตอบสำหรับคำถาม: “จะทำอย่างไรถ้าคุณทำสำเร็จ” อันที่จริง หนังสือเรียน [ของฉัน] ฉบับพิมพ์ครั้งแรกมีส่วนที่ใช้ชื่อนั้น เนื่องจากเป็นคำถามที่สำคัญมากที่จะถามว่าทั้งฟิลด์กำลังผลักดันไปสู่เป้าหมายหรือไม่ และถ้าดูเหมือนว่า เมื่อคุณไปถึงที่นั่น คุณอาจกำลังพาเผ่าพันธุ์มนุษย์ตกหน้าผา นั่นล่ะคือปัญหา

ถ้าคุณถามว่า โอเค เราจะสร้างสิ่งที่ฉลาดกว่ามาก มีพลังมากกว่าเรามาก เราคาดหวังให้เรา [รักษา] อำนาจจาก [หน่วยงาน] ที่ทรงพลังกว่าตลอดไปได้อย่างไร ไม่ชัดเจนว่าคำถามนั้นมีคำตอบ

ในความเป็นจริง [นักวิทยาศาสตร์คอมพิวเตอร์ Alan] Turing กล่าวว่าเราจะต้องคาดหวังว่าเครื่องจักรจะเข้าควบคุม เขายอมจำนนต่อสิ่งนี้โดยสิ้นเชิงและเผ่าพันธุ์ของเราจะต้องต่ำต้อยอย่างที่เขาพูด เห็นได้ชัดว่าเป็นสถานการณ์ที่วุ่นวาย

มันชัดเจนมากขึ้นสำหรับฉันตั้งแต่ต้นปี 2010 ฉันอยู่ระหว่างการลาพักร้อนในปารีส ฉันมีเวลามากขึ้นที่จะชื่นชมความสำคัญของประสบการณ์ของมนุษย์และอารยธรรม และในขณะเดียวกัน นักวิจัยคนอื่น ๆ ซึ่งส่วนใหญ่อยู่นอกภาคสนาม ได้เริ่มชี้ให้เห็นรูปแบบความล้มเหลวเหล่านี้ นั่นคือ วัตถุประสงค์ที่ตายตัวนำไปสู่พฤติกรรมที่ไม่พึงประสงค์ การหลอกลวง และผลร้ายที่อาจตามมาโดยพลการจากการใช้ทรัพยากร จากสิ่งจูงใจในการป้องกันตนเอง

การมาบรรจบกันของสิ่งเหล่านั้นทำให้ฉันเริ่มคิดว่า เอาล่ะ เราจะแก้ไขปัญหาได้อย่างไร

เคลซีย์ ไพเพอร์

ฉันอ่านคำวิจารณ์และการตอบสนองต่อHuman Compatible สิ่งหนึ่งที่คุณได้ยินคือ “ความกังวลเกี่ยวกับ AI ในตอนนี้ก็เหมือนกับผู้คนในยุค 1700 ที่กังวลว่าจะหยุดกระสวยอวกาศไม่ให้ระเบิดได้อย่างไร” เนื่องจากเราไม่รู้ว่า AI ทั่วไปจะเป็นอย่างไร เราจึงคิดไม่ออกว่าจะออกแบบอย่างไรให้ปลอดภัย

สจวร์ต รัสเซลล์

ฉันคิดว่ามันมีประโยชน์ที่จะมองย้อนกลับไปที่ประวัติศาสตร์ของพลังงานนิวเคลียร์และฟิสิกส์ของนิวเคลียร์ เพราะมันมีความคล้ายคลึงกันหลายอย่าง ไม่ มันไม่ใช่การเปรียบเทียบที่สมบูรณ์แบบ แต่เมื่อ Leo Szilard คิดค้นปฏิกิริยาลูกโซ่นิวเคลียร์ เขาไม่รู้ว่าอะตอมใดที่สามารถเหนี่ยวนำให้เกิดปฏิกิริยาฟิชชันและผลิตนิวตรอนที่จะก่อให้เกิดปฏิกิริยาฟิชชันมากขึ้น

เขากล่าวว่า “โอเค นี่เป็นวิธีที่เป็นไปได้ที่ปฏิกิริยาลูกโซ่อาจเกิดขึ้นได้”

และเขาสามารถออกแบบเครื่องปฏิกรณ์ปรมาณูได้บนพื้นฐานนั้น รวมถึงกลไกการควบคุมป้อนกลับที่จะรักษาปฏิกิริยาในระดับกึ่งวิกฤติเพื่อไม่ให้ระเบิด เรามีแผนโดยไม่รู้ว่ามีปฏิกิริยาดังกล่าวอยู่

คุณจึงสามารถพูดคุยเกี่ยวกับโครงสร้างทั่วไปและการออกแบบระบบได้โดยไม่ต้องเข้าใจว่าจะทำให้ชิ้นส่วนทั้งหมดทำงานตามที่คุณต้องการได้อย่างไร สิ่งหนึ่งที่ชัดเจนเกี่ยวกับระบบ AI ทั่วไป [คือ] พวกมันจะต้องฉลาดกว่าระบบที่เรามีในตอนนี้ และประเด็นเกี่ยวกับแบบจำลองมาตรฐาน [ของวัตถุประสงค์ของ AI] คือยิ่งระบบมีความชาญฉลาดมากเท่าใด สิ่งที่เลวร้ายยิ่งได้รับ

เคลซีย์ ไพเพอร์

คำวิจารณ์อีกข้อหนึ่งที่ฉันได้เห็น — ฉันคิดว่านี่คือสิ่งที่ Yann LeCun ที่ Facebook แสดง ไว้ — คือ เราไม่ต้องกังวลว่าระบบจะไม่ทำในสิ่งที่เราต้องการให้พวกเขาทำ เราจะไม่สร้างระบบแบบนั้น

สจวร์ต รัสเซลล์

นั่นก็เหมือนกับการโต้เถียงกันว่า “แน่นอนว่าเราจะไม่สร้างเครื่องปฏิกรณ์นิวเคลียร์ที่ระเบิดได้ ดังนั้น เราจึงไม่ต้องกังวลเกี่ยวกับความปลอดภัยของนิวเคลียร์” ใช่ไหม มันไร้สาระ ในหนังสือ ฉันบอกว่ามันเหมือนอยู่ในที่เกิดเหตุและบอกว่าไม่มีใครควรเรียกรถพยาบาล เพราะมีคนกำลังจะเรียกรถพยาบาล

วิธีเดียวที่คุณจะได้รับความปลอดภัยทางนิวเคลียร์คือการกังวลเกี่ยวกับวิธีที่ [เครื่องปฏิกรณ์] สามารถระเบิดและป้องกันไม่ให้ระเบิด

ข้อโต้แย้งที่น่าสนใจซึ่งผมได้กล่าวถึงไปเล็กน้อยในหนังสือก็คือ คุณสามารถมองบริษัทว่าเป็นเสมือนเครื่องจักร เป็นเครื่องจักรที่มีประสิทธิผลซึ่งติดตั้งเพื่อเพิ่มวัตถุประสงค์ที่กำหนด ซึ่งก็คือกำไรรายไตรมาส คุณสามารถมองว่าอุตสาหกรรมเชื้อเพลิงฟอสซิลเป็นเครื่องจักรที่ชาญฉลาดอย่างยิ่ง ซึ่งตามจริงแล้วในการแสวงหาเป้าหมายนั้น เอาชนะเผ่าพันธุ์มนุษย์ได้ ดังนั้นพวกเขาจึงสร้างการโค่นล้มทางการเมืองเป็นเวลา 50 ปี การรณรงค์เผยแพร่ข้อมูลเท็จเพื่อให้พวกเขาสามารถสูบก๊าซคาร์บอนไดออกไซด์ต่อไปได้

มีเอนทิตีอัจฉริยะกึ่งเครื่องจักรเหล่านี้อยู่แล้วที่ก่อให้เกิดปัญหาเนื่องจากพวกเขากำลังดำเนินการตามวัตถุประสงค์ที่ไม่ถูกต้อง และแน่นอนว่าไม่ใช่กรณีที่ได้ผล

Yann LeCun สร้างข้อโต้แย้งอื่น ๆ เช่นเดียวกับ Steven Pinker [AI อีกคนที่สงสัยเรื่องความเสี่ยง] [ข้อโต้แย้งข้อหนึ่งคือ] มันเป็นความผิดพลาดที่จะคิดว่าเราจะใส่วัตถุประสงค์ของการครอบครองโลก วัตถุประสงค์ของการป้องกันตนเอง การรักษาตนเอง ไม่มีเหตุผลที่จะทำเช่นนั้น และตราบใดที่เราไม่ทำ ก็จะไม่มีอะไรเลวร้ายเกิดขึ้น

และนั่น ฉันคิดว่า เป็นเพียงการเข้าใจผิดหรือทำให้เข้าใจผิดหนึ่งในข้อโต้แย้งพื้นฐานในการโต้วาทีทั้งหมดนี้ ซึ่งก็คือคุณไม่ต้องใส่วัตถุประสงค์เหล่านั้นเข้าไป มันเป็นเป้าหมายย่อยของการไล่ตามวัตถุประสงค์ตายตัวใดๆ

เคลซีย์ ไพเพอร์

อะไรคือความเข้าใจผิดที่ใหญ่ที่สุดเกี่ยวกับหนังสือหรืองานของคุณที่คุณเคยเห็น?

สจวร์ต รัสเซลล์

มีความเข้าใจผิดทั่วไปเกี่ยวกับ AI ซึ่งฮอลลีวูดประกาศใช้ด้วยเหตุผลที่มีโครงเรื่องที่น่าสนใจและโดยสื่อต่างๆ เพราะดูเหมือนว่าพวกเขาต้องการลงรูป หุ่นยนต์ Terminatorในทุกบทความ ซึ่งสิ่งที่เราต้องคำนึงถึงก็คือ มีสติสัมปชัญญะ เครื่องจักรเหล่านี้จะรู้ตัวโดยบังเอิญ จากนั้นพวกมันจะเกลียดทุกคนและพยายามฆ่าเรา

และนั่นเป็นเพียงปลาเฮอริ่งแดงทั้งหมด สิ่งที่เรากังวลเกี่ยวกับความสามารถและพฤติกรรมที่มีประสิทธิภาพในโลกนี้ หากเครื่องจักรตัดสินใจเราเกินจริง คิดเกินเราในโลกแห่งความเป็นจริง เราจะต้องหาวิธีที่จะทำให้แน่ใจได้อย่างไรว่าเครื่องจักรนั้นทำหน้าที่ในนามของเราเท่านั้น และไม่กระทำการที่ขัดต่อผลประโยชน์ของเรา

หน้าแรก

pg slot auto, ไฮโลไทยได้เงินจริง, เว็บไฮโล ไทย อันดับ หนึ่ง

Share

You may also like...