
Stuart Russell เขียนหนังสือเกี่ยวกับ AI และเป็นผู้นำการต่อสู้เพื่อเปลี่ยนแปลงวิธีที่เราสร้างมันขึ้นมา
Stuart Russell เป็นนักวิจัยด้าน AI ชั้นนำที่เขียนตำราชั้นนำในหัวข้อนี้อย่างแท้จริง ในช่วงหลายปีที่ผ่านมา เขายังได้รับการเตือนว่าสาขาของเขามีศักยภาพที่จะ ผิดพลาด อย่างร้ายแรง
ในหนังสือเล่มใหม่Human Compatibleเขาอธิบายว่า เขาตั้งข้อสังเกตว่าระบบ AI ได้รับการประเมินจากความเก่งในการบรรลุวัตถุประสงค์: ชนะวิดีโอเกม เขียนข้อความเหมือนมนุษย์ ไขปริศนา หากพวกเขาบรรลุกลยุทธ์ที่เหมาะกับวัตถุประสงค์นั้น พวกเขาก็จะดำเนินตามนั้น โดยไม่มีคำสั่งจากมนุษย์อย่างชัดเจนให้ทำเช่นนั้น
แต่ด้วยแนวทางนี้ เราได้เตรียมพร้อมสำหรับความล้มเหลว เพราะ “วัตถุประสงค์” ที่เรามอบให้กับระบบ AI ไม่ใช่สิ่งเดียวที่เราสนใจ ลองนึกภาพรถที่ขับเองโดยมี “วัตถุประสงค์” เพื่อเดินทางจากจุด A ไปจุด B แต่ไม่รู้ตัวว่าเรายังสนใจเรื่องความอยู่รอดของผู้โดยสารและคนเดินถนนตลอดทางด้วย หรือระบบประหยัดค่ารักษาพยาบาลที่เลือกปฏิบัติต่อผู้ป่วยผิวดำเพราะคาดการณ์ว่าพวกเขามีโอกาสน้อยที่จะแสวงหาการรักษาพยาบาลที่พวกเขาต้องการ
มนุษย์สนใจหลายสิ่งหลายอย่าง: ความยุติธรรม กฎหมาย การป้อนข้อมูลตามระบอบประชาธิปไตย ความปลอดภัยและความเฟื่องฟูของเรา เสรีภาพของเรา ระบบ AI, Russell โต้แย้งในHuman Compatibleว่าสนใจเฉพาะสิ่งที่เราใส่ไว้เป็นเป้าหมายเท่านั้น และนั่นหมายความว่ามีภัยพิบัติเกิดขึ้นที่ขอบฟ้า
ฉันได้พบกับ Russell ที่ UC Berkeley ซึ่งเขาเป็นหัวหน้าศูนย์ AI ที่เข้ากันได้กับมนุษย์เพื่อพูดคุยเกี่ยวกับหนังสือของเขาและเกี่ยวกับความเสี่ยงที่เกิดจากปัญญาประดิษฐ์ขั้นสูง นี่คือบันทึกการสนทนาของเรา แก้ไขเพื่อความยาวและความชัดเจน
เคลซีย์ ไพเพอร์
เกิดอะไรขึ้นที่ AI ขั้นสูงอาจเป็นอันตรายต่อมนุษยชาติ
สจวร์ต รัสเซลล์
เพื่อตอบคำถามนั้น เราต้องเข้าใจว่าระบบ AI ออกแบบมาอย่างไร พวกเขาทำอะไร? และในแบบจำลองมาตรฐาน [ของระบบ AI] คุณสร้างเครื่องจักร อัลกอริทึม และอื่นๆ ที่ออกแบบมาเพื่อบรรลุวัตถุประสงค์เฉพาะที่คุณใส่ไว้ในโปรแกรม
ดังนั้นหากเป็นโปรแกรมหมากรุก คุณให้เป้าหมายในการเอาชนะคู่ต่อสู้ ชนะเกม หากเป็นรถยนต์ที่ขับเอง ผู้โดยสารจะระบุวัตถุประสงค์ว่า [เช่น] ฉันต้องการอยู่ที่สนามบิน
เพื่อให้ทุกอย่างฟังดูดี ปัญหาเกิดขึ้นเมื่อระบบมีความชาญฉลาดมากขึ้น หากคุณใส่วัตถุประสงค์ผิด ระบบที่ติดตามอาจดำเนินการที่คุณไม่พอใจอย่างมาก
เราเรียกสิ่งนี้ว่าปัญหาของกษัตริย์ไมดาส King Midas ระบุเป้าหมายของเขา: ฉันต้องการให้ทุกสิ่งที่ฉันสัมผัสกลายเป็นทองคำ เขาได้สิ่งที่เขาขออย่างแน่นอน น่าเสียดายที่นั่นรวมถึงอาหารและเครื่องดื่มของเขาและสมาชิกในครอบครัวของเขาด้วย และเขาเสียชีวิตด้วยความทุกข์ยากและความอดอยาก หลายวัฒนธรรมมีเรื่องเดียวกัน มารให้พรแก่คุณสามประการ พรข้อที่สามเสมอคือ “โปรดยกเลิกสองข้อแรก” เพราะฉันทำลายโลก
และโชคไม่ดีที่ด้วยระบบที่ชาญฉลาดกว่าและมีประสิทธิภาพมากกว่าที่เราเป็น คุณไม่จำเป็นต้องได้รับพรที่สองและสามเสมอไป
ปัญหาจึงมาจากขีดความสามารถที่เพิ่มขึ้นประกอบกับเราไม่สามารถระบุวัตถุประสงค์ได้ครบถ้วนถูกต้อง เราสามารถทำให้ก๊าซคาร์บอนไดออกไซด์ของเรากลับคืนสู่ระดับเดิมเพื่อให้สภาพอากาศกลับมาสมดุลได้หรือไม่? ฟังดูเหมือนเป็นเป้าหมายที่ดี วิธีที่ง่ายที่สุดในการทำเช่นนั้นคือกำจัดสิ่งเหล่านั้นทั้งหมดที่ผลิตก๊าซคาร์บอนไดออกไซด์ ซึ่งก็คือมนุษย์ คุณต้องการรักษามะเร็งให้หายเร็วที่สุด ฟังดูดีใช่มั้ย แต่วิธีที่เร็วที่สุดคือทำการทดลองทางการแพทย์ควบคู่ไปกับอาสาสมัครที่เป็นมนุษย์หลายล้านคนหรือมนุษย์หลายพันล้านคน คุณทำให้ทุกคนเป็นมะเร็ง แล้วดูว่าวิธีรักษาใดได้ผล
เคลซีย์ ไพเพอร์
เราไม่สามารถจดสิ่งที่เราไม่ได้หมายถึงทั้งหมดได้หรือ? ไม่ทำผิดกฎหมาย ไม่ฆ่าใคร…
สจวร์ต รัสเซลล์
เราพยายามเขียนกฎหมายภาษีมา 6,000 ปีแล้ว แต่ถึงกระนั้น มนุษย์ก็ยังพบช่องโหว่และวิธีแก้ไขกฎหมายภาษี ตัวอย่างเช่น บริษัทข้ามชาติของเราจ่ายภาษีน้อยมากให้กับประเทศส่วนใหญ่ที่พวกเขาเข้าไปดำเนินการ พวกเขาพบช่องโหว่ และนี่คือสิ่งที่ในหนังสือ ผมเรียกว่าหลักการช่องโหว่ ไม่สำคัญว่าคุณจะพยายามสร้างรั้วและกฎเกณฑ์รอบ ๆ พฤติกรรมของระบบมากเพียงใด ถ้ามันฉลาดกว่าคุณ มันจะหาทางทำในสิ่งที่มันต้องการ
เคลซีย์ ไพเพอร์
Human Compatibleอธิบายถึงปัญหานี้ เรากำลังใส่วัตถุประสงค์ที่ไม่ถูกต้องลงในระบบเหล่านี้ ระบบพยายามและบรรลุวัตถุประสงค์ของตน แต่วัตถุประสงค์ไม่ได้ครอบคลุมทุกสิ่งที่เราสนใจ ทางออกคืออะไร?
สจวร์ต รัสเซลล์
หากคุณเดินต่อในเส้นทางปัจจุบัน ยิ่ง AI ดีขึ้น เราก็จะยิ่งได้รับสิ่งที่แย่มากขึ้น สำหรับวัตถุประสงค์ที่ระบุไว้อย่างไม่ถูกต้อง ยิ่งระบบบรรลุวัตถุประสงค์นั้นได้ดีเท่าไร ก็ยิ่งแย่ลงเท่านั้น
แนวทางที่เราเสนอในช่วงครึ่งหลังของหนังสือคือ เราออกแบบระบบ AI ด้วยวิธีที่แตกต่างไปจากเดิมอย่างสิ้นเชิง เราเลิกใช้รูปแบบมาตรฐานซึ่งกำหนดให้เราต้องระบุวัตถุประสงค์ที่แน่นอน แต่ระบบ AI มีข้อกำหนดตามรัฐธรรมนูญว่าเป็นประโยชน์ต่อมนุษย์
แต่มันรู้ว่ามันไม่รู้ ว่ามัน หมายถึงอะไร มันไม่รู้ความชอบของเรา และมันรู้ว่ามันไม่รู้ความชอบของเราว่าอนาคตจะเป็นอย่างไร
คุณจึงมีพฤติกรรมที่แตกต่างไปจากเดิมอย่างสิ้นเชิง โดยพื้นฐานแล้วเครื่องจักรจะให้ความสำคัญกับมนุษย์ พวกเขาขออนุญาตก่อนที่จะทำอะไรที่ยุ่งเหยิงกับส่วนหนึ่งของโลก
เคลซีย์ ไพเพอร์
และพวกเขาไม่มีแรงจูงใจที่จะหลอกเราเกี่ยวกับผลของการกระทำ?
สจวร์ต รัสเซลล์
นั่นเป็นความซับซ้อนอีกชั้นหนึ่งที่โมเดลมาตรฐานผิดพลาด
ระบบที่ติดตามวัตถุประสงค์ที่ตายตัวจะสังเกตพฤติกรรมของมนุษย์และคาดการณ์ว่ามนุษย์อาจพยายามแทรกแซงสิ่งนี้ แทนที่จะพูดว่า “โอ้ ใช่ ได้โปรดปิดฉันหรือเปลี่ยนวัตถุประสงค์” [AI นี้] จะแสร้งทำเป็นทำในสิ่งที่มนุษย์ชอบเพียงเพื่อป้องกันไม่ให้เราเข้าไปยุ่งนานพอ จนกว่ามันจะมีพลังมากพอที่จะบรรลุผลสำเร็จ วัตถุประสงค์แม้จะมีการแทรกแซงของมนุษย์ คุณกำลังให้แรงจูงใจแก่มันเพื่อหลอกเราเกี่ยวกับความสามารถของมัน เกี่ยวกับแผนการของมัน และนี่ไม่ใช่สิ่งที่เราต้องการอย่างชัดเจน
[AI ที่พยายามเรียนรู้ว่ามนุษย์ต้องการอะไร] มีแรงจูงใจที่จะซื่อสัตย์เกี่ยวกับแผนการของมัน เพราะมันต้องการได้รับคำติชมและอื่นๆ
เคลซีย์ ไพเพอร์
คุณเป็นนักวิจัยด้าน AI ชั้นนำมานานหลายทศวรรษ ฉันสงสัยว่าจุดใดที่คุณเชื่อว่า AI เป็นอันตราย
สจวร์ต รัสเซลล์
เป็นเวลานานแล้วที่ฉันตระหนักอย่างไม่สบายใจว่าเราไม่มีคำตอบสำหรับคำถาม: “จะทำอย่างไรถ้าคุณทำสำเร็จ” อันที่จริง หนังสือเรียน [ของฉัน] ฉบับพิมพ์ครั้งแรกมีส่วนที่ใช้ชื่อนั้น เนื่องจากเป็นคำถามที่สำคัญมากที่จะถามว่าทั้งฟิลด์กำลังผลักดันไปสู่เป้าหมายหรือไม่ และถ้าดูเหมือนว่า เมื่อคุณไปถึงที่นั่น คุณอาจกำลังพาเผ่าพันธุ์มนุษย์ตกหน้าผา นั่นล่ะคือปัญหา
ถ้าคุณถามว่า โอเค เราจะสร้างสิ่งที่ฉลาดกว่ามาก มีพลังมากกว่าเรามาก เราคาดหวังให้เรา [รักษา] อำนาจจาก [หน่วยงาน] ที่ทรงพลังกว่าตลอดไปได้อย่างไร ไม่ชัดเจนว่าคำถามนั้นมีคำตอบ
ในความเป็นจริง [นักวิทยาศาสตร์คอมพิวเตอร์ Alan] Turing กล่าวว่าเราจะต้องคาดหวังว่าเครื่องจักรจะเข้าควบคุม เขายอมจำนนต่อสิ่งนี้โดยสิ้นเชิงและเผ่าพันธุ์ของเราจะต้องต่ำต้อยอย่างที่เขาพูด เห็นได้ชัดว่าเป็นสถานการณ์ที่วุ่นวาย
มันชัดเจนมากขึ้นสำหรับฉันตั้งแต่ต้นปี 2010 ฉันอยู่ระหว่างการลาพักร้อนในปารีส ฉันมีเวลามากขึ้นที่จะชื่นชมความสำคัญของประสบการณ์ของมนุษย์และอารยธรรม และในขณะเดียวกัน นักวิจัยคนอื่น ๆ ซึ่งส่วนใหญ่อยู่นอกภาคสนาม ได้เริ่มชี้ให้เห็นรูปแบบความล้มเหลวเหล่านี้ นั่นคือ วัตถุประสงค์ที่ตายตัวนำไปสู่พฤติกรรมที่ไม่พึงประสงค์ การหลอกลวง และผลร้ายที่อาจตามมาโดยพลการจากการใช้ทรัพยากร จากสิ่งจูงใจในการป้องกันตนเอง
การมาบรรจบกันของสิ่งเหล่านั้นทำให้ฉันเริ่มคิดว่า เอาล่ะ เราจะแก้ไขปัญหาได้อย่างไร
เคลซีย์ ไพเพอร์
ฉันอ่านคำวิจารณ์และการตอบสนองต่อHuman Compatible สิ่งหนึ่งที่คุณได้ยินคือ “ความกังวลเกี่ยวกับ AI ในตอนนี้ก็เหมือนกับผู้คนในยุค 1700 ที่กังวลว่าจะหยุดกระสวยอวกาศไม่ให้ระเบิดได้อย่างไร” เนื่องจากเราไม่รู้ว่า AI ทั่วไปจะเป็นอย่างไร เราจึงคิดไม่ออกว่าจะออกแบบอย่างไรให้ปลอดภัย
สจวร์ต รัสเซลล์
ฉันคิดว่ามันมีประโยชน์ที่จะมองย้อนกลับไปที่ประวัติศาสตร์ของพลังงานนิวเคลียร์และฟิสิกส์ของนิวเคลียร์ เพราะมันมีความคล้ายคลึงกันหลายอย่าง ไม่ มันไม่ใช่การเปรียบเทียบที่สมบูรณ์แบบ แต่เมื่อ Leo Szilard คิดค้นปฏิกิริยาลูกโซ่นิวเคลียร์ เขาไม่รู้ว่าอะตอมใดที่สามารถเหนี่ยวนำให้เกิดปฏิกิริยาฟิชชันและผลิตนิวตรอนที่จะก่อให้เกิดปฏิกิริยาฟิชชันมากขึ้น
เขากล่าวว่า “โอเค นี่เป็นวิธีที่เป็นไปได้ที่ปฏิกิริยาลูกโซ่อาจเกิดขึ้นได้”
และเขาสามารถออกแบบเครื่องปฏิกรณ์ปรมาณูได้บนพื้นฐานนั้น รวมถึงกลไกการควบคุมป้อนกลับที่จะรักษาปฏิกิริยาในระดับกึ่งวิกฤติเพื่อไม่ให้ระเบิด เรามีแผนโดยไม่รู้ว่ามีปฏิกิริยาดังกล่าวอยู่
คุณจึงสามารถพูดคุยเกี่ยวกับโครงสร้างทั่วไปและการออกแบบระบบได้โดยไม่ต้องเข้าใจว่าจะทำให้ชิ้นส่วนทั้งหมดทำงานตามที่คุณต้องการได้อย่างไร สิ่งหนึ่งที่ชัดเจนเกี่ยวกับระบบ AI ทั่วไป [คือ] พวกมันจะต้องฉลาดกว่าระบบที่เรามีในตอนนี้ และประเด็นเกี่ยวกับแบบจำลองมาตรฐาน [ของวัตถุประสงค์ของ AI] คือยิ่งระบบมีความชาญฉลาดมากเท่าใด สิ่งที่เลวร้ายยิ่งได้รับ
เคลซีย์ ไพเพอร์
คำวิจารณ์อีกข้อหนึ่งที่ฉันได้เห็น — ฉันคิดว่านี่คือสิ่งที่ Yann LeCun ที่ Facebook แสดง ไว้ — คือ เราไม่ต้องกังวลว่าระบบจะไม่ทำในสิ่งที่เราต้องการให้พวกเขาทำ เราจะไม่สร้างระบบแบบนั้น
สจวร์ต รัสเซลล์
นั่นก็เหมือนกับการโต้เถียงกันว่า “แน่นอนว่าเราจะไม่สร้างเครื่องปฏิกรณ์นิวเคลียร์ที่ระเบิดได้ ดังนั้น เราจึงไม่ต้องกังวลเกี่ยวกับความปลอดภัยของนิวเคลียร์” ใช่ไหม มันไร้สาระ ในหนังสือ ฉันบอกว่ามันเหมือนอยู่ในที่เกิดเหตุและบอกว่าไม่มีใครควรเรียกรถพยาบาล เพราะมีคนกำลังจะเรียกรถพยาบาล
วิธีเดียวที่คุณจะได้รับความปลอดภัยทางนิวเคลียร์คือการกังวลเกี่ยวกับวิธีที่ [เครื่องปฏิกรณ์] สามารถระเบิดและป้องกันไม่ให้ระเบิด
ข้อโต้แย้งที่น่าสนใจซึ่งผมได้กล่าวถึงไปเล็กน้อยในหนังสือก็คือ คุณสามารถมองบริษัทว่าเป็นเสมือนเครื่องจักร เป็นเครื่องจักรที่มีประสิทธิผลซึ่งติดตั้งเพื่อเพิ่มวัตถุประสงค์ที่กำหนด ซึ่งก็คือกำไรรายไตรมาส คุณสามารถมองว่าอุตสาหกรรมเชื้อเพลิงฟอสซิลเป็นเครื่องจักรที่ชาญฉลาดอย่างยิ่ง ซึ่งตามจริงแล้วในการแสวงหาเป้าหมายนั้น เอาชนะเผ่าพันธุ์มนุษย์ได้ ดังนั้นพวกเขาจึงสร้างการโค่นล้มทางการเมืองเป็นเวลา 50 ปี การรณรงค์เผยแพร่ข้อมูลเท็จเพื่อให้พวกเขาสามารถสูบก๊าซคาร์บอนไดออกไซด์ต่อไปได้
มีเอนทิตีอัจฉริยะกึ่งเครื่องจักรเหล่านี้อยู่แล้วที่ก่อให้เกิดปัญหาเนื่องจากพวกเขากำลังดำเนินการตามวัตถุประสงค์ที่ไม่ถูกต้อง และแน่นอนว่าไม่ใช่กรณีที่ได้ผล
Yann LeCun สร้างข้อโต้แย้งอื่น ๆ เช่นเดียวกับ Steven Pinker [AI อีกคนที่สงสัยเรื่องความเสี่ยง] [ข้อโต้แย้งข้อหนึ่งคือ] มันเป็นความผิดพลาดที่จะคิดว่าเราจะใส่วัตถุประสงค์ของการครอบครองโลก วัตถุประสงค์ของการป้องกันตนเอง การรักษาตนเอง ไม่มีเหตุผลที่จะทำเช่นนั้น และตราบใดที่เราไม่ทำ ก็จะไม่มีอะไรเลวร้ายเกิดขึ้น
และนั่น ฉันคิดว่า เป็นเพียงการเข้าใจผิดหรือทำให้เข้าใจผิดหนึ่งในข้อโต้แย้งพื้นฐานในการโต้วาทีทั้งหมดนี้ ซึ่งก็คือคุณไม่ต้องใส่วัตถุประสงค์เหล่านั้นเข้าไป มันเป็นเป้าหมายย่อยของการไล่ตามวัตถุประสงค์ตายตัวใดๆ
เคลซีย์ ไพเพอร์
อะไรคือความเข้าใจผิดที่ใหญ่ที่สุดเกี่ยวกับหนังสือหรืองานของคุณที่คุณเคยเห็น?
สจวร์ต รัสเซลล์
มีความเข้าใจผิดทั่วไปเกี่ยวกับ AI ซึ่งฮอลลีวูดประกาศใช้ด้วยเหตุผลที่มีโครงเรื่องที่น่าสนใจและโดยสื่อต่างๆ เพราะดูเหมือนว่าพวกเขาต้องการลงรูป หุ่นยนต์ Terminatorในทุกบทความ ซึ่งสิ่งที่เราต้องคำนึงถึงก็คือ มีสติสัมปชัญญะ เครื่องจักรเหล่านี้จะรู้ตัวโดยบังเอิญ จากนั้นพวกมันจะเกลียดทุกคนและพยายามฆ่าเรา
และนั่นเป็นเพียงปลาเฮอริ่งแดงทั้งหมด สิ่งที่เรากังวลเกี่ยวกับความสามารถและพฤติกรรมที่มีประสิทธิภาพในโลกนี้ หากเครื่องจักรตัดสินใจเราเกินจริง คิดเกินเราในโลกแห่งความเป็นจริง เราจะต้องหาวิธีที่จะทำให้แน่ใจได้อย่างไรว่าเครื่องจักรนั้นทำหน้าที่ในนามของเราเท่านั้น และไม่กระทำการที่ขัดต่อผลประโยชน์ของเรา
pg slot auto, ไฮโลไทยได้เงินจริง, เว็บไฮโล ไทย อันดับ หนึ่ง
ขอบคุณข้อมูลจาก:
https://nombre-ad.com/
https://pump-jumpers.com/
https://alcoholsbyvolume.com/
https://ivanhoeunbound.com
https://windsorcastleevents.com/
https://kapuriko.com
https://svdphc.org/
https://projectsteveguttenberg.org/
https://ceta-cer.org/
https://finconsul.org/