16
Dec
2022

Crisis Text Line พยายามสร้างรายได้จากผู้ใช้ ข้อมูลขนาดใหญ่สามารถมีจริยธรรมได้หรือไม่?

บริการแทรกแซงวิกฤตมีความกังวลเกี่ยวกับอนาคตทางการเงิน แต่ทำผิดพลาดครั้งใหญ่

หลายปีหลังจาก Nancy Lublin ก่อตั้ง Crisis Text Line ในปี 2013 เธอก็เข้าหาคณะกรรมการด้วยโอกาส : จะเกิดอะไรขึ้นหากพวกเขาเปลี่ยนขุมทรัพย์ข้อมูลผู้ใช้และข้อมูลเชิงลึกขององค์กรไม่แสวงหาผลกำไรให้เป็นโปรแกรมการฝึกอบรมองค์กรที่เน้นการเอาใจใส่ กลยุทธ์ทางธุรกิจสามารถใช้ประโยชน์จากการรวบรวมและวิเคราะห์ข้อมูลที่น่าประทับใจ ของ Crisis Text Line พร้อมกับบทเรียนเกี่ยวกับวิธีที่ดีที่สุดในการสนทนาอย่างหนัก และสร้างแหล่งรายได้ที่จำเป็นสำหรับองค์กรที่มีประสบการณ์ซึ่งดำเนินงานด้านสุขภาพจิตที่ขาดแคลนทุนทรัพย์อย่างมาก

บริการแทรกแซงวิกฤตกำลังไปได้ดีในขณะนี้ สร้างราย ได้49 ล้านดอลลาร์สหรัฐในปี 2020จากการสนับสนุนที่เพิ่มขึ้นจากผู้สนับสนุนองค์กรเพื่อตอบสนองความต้องการและการขยายตัวที่เกี่ยวข้องกับการแพร่ระบาด รวมถึงการระดมทุนเพื่อการกุศลรอบใหม่ แต่ในปี 2560 รายได้ของ Crisis Text Line นั้น น้อยมากเพียง 2.6 ล้านเหรียญสหรัฐ เมื่อ Lublin เสนอบริษัทที่แสวงหาผลกำไร คณะกรรมการขององค์กรมีความกังวลเกี่ยวกับความยั่งยืนในระยะยาวของ Crisis Text Line ตามบัญชีที่เผยแพร่เมื่อเร็วๆ นี้โดย Danah Boyd สมาชิกคณะกรรมการผู้ก่อตั้ง

แนวคิดในการแยกองค์กรที่แสวงหาผลกำไรออกจาก Crisis Text Line ทำให้เกิดคำถามเชิงจริยธรรมที่ซับซ้อนว่าผู้ส่งข้อความยินยอมให้สร้างรายได้จากการสนทนาที่ใกล้ชิดและเปราะบางกับที่ปรึกษาหรือไม่ แต่คณะกรรมการอนุมัติข้อตกลง บริษัทใหม่นี้มีชื่อว่า Loris ซึ่งเปิดตัวในปี 2561โดยมีเป้าหมายเพื่อให้การฝึกอบรม “ทักษะด้านอารมณ์” ที่ไม่เหมือนใครแก่บริษัทต่างๆ

อย่างไรก็ตาม ยังไม่เป็นที่แน่ชัดว่า Crisis Text Line มีข้อตกลงในการแบ่งปันข้อมูลกับ Loris ซึ่งทำให้บริษัทสามารถเข้าถึงข้อความของผู้ใช้ที่ไม่ระบุตัวตนซึ่งถูกขัดเกลา ซึ่งเป็นข้อเท็จจริงที่ Politico รายงานเมื่อสัปดาห์ที่แล้ว เรื่องราวยังมีข้อมูลเกี่ยวกับโมเดลธุรกิจของ Loris ซึ่งขายซอฟต์แวร์สำหรับองค์กรให้กับบริษัทต่างๆ เพื่อจุดประสงค์ในการเพิ่มประสิทธิภาพการบริการลูกค้า ในวันจันทร์ Federal Communications Communications Commissioner ได้ขอให้องค์กรไม่แสวงผลกำไรยุติความสัมพันธ์ในการแบ่งปันข้อมูล โดยเรียกข้อตกลงดังกล่าวว่า “ดิสโทเปียที่รบกวนจิตใจ” ในจดหมายถึง Crisis Text Line และผู้นำ Loris ในวันเดียวกันนั้นCrisis Text Line ประกาศว่าได้ตัดสินใจยุติข้อตกลงและขอให้ Loris ลบข้อมูลที่ได้รับก่อนหน้านี้

“การตัดสินใจครั้งนี้มีน้ำหนักมากสำหรับฉัน แต่ฉันก็ลงคะแนนเสียงสนับสนุน” บอยด์เขียนเกี่ยวกับการมอบอำนาจให้ลูบลินพบลอริส “รู้อย่างที่ฉันรู้ตอนนี้ ฉันคงไม่มี แต่การมองย้อนกลับไปย่อมชัดเจนกว่าเสมอ”

แม้ว่ารายได้จาก Loris ควรจะนำไปสนับสนุน Crisis Text Line แต่บริษัทก็ไม่มีบทบาทใดๆ ในรายได้ที่เพิ่มขึ้นขององค์กรไม่แสวงหาผลกำไรในปี 2020 ตามคำกล่าวของ Shawn Rodriguez รองประธานและที่ปรึกษาทั่วไปของ Crisis Text Line ถึงกระนั้น การโต้เถียงเกี่ยวกับการตัดสินใจของ Crisis Text Line ในการสร้างรายได้จากข้อมูลที่สร้างขึ้นโดยผู้คนที่ต้องการความช่วยเหลือในขณะที่ประสบกับความทุกข์ทางจิตใจหรืออารมณ์อย่างรุนแรงได้กลายเป็นกรณีศึกษาในจริยธรรมของข้อมูลขนาดใหญ่ เมื่ออัลกอริทึมไปทำงานกับชุดข้อมูลขนาดใหญ่ พวกมันสามารถให้ข้อมูลเชิงลึกที่แปลกใหม่ ซึ่งบางอัลกอริทึมสามารถช่วยชีวิตคนได้อย่างแท้จริง ท้ายที่สุดแล้ว Crisis Text Line ได้ใช้ AI เพื่อระบุว่าข้อความใดมีความเสี่ยงมากกว่า จากนั้นจึงวางข้อความเหล่านั้นให้อยู่ในลำดับที่สูงกว่า

แต่คำมั่นสัญญาของความก้าวหน้าดังกล่าวมักจะบดบังความเสี่ยงของการใช้ข้อมูลในทางที่ผิดหรือในทางที่ผิด หากไม่มีกฎระเบียบหรือคำแนะนำจากรัฐบาลที่เข้มงวด องค์กรการกุศลและบริษัทต่างๆ เช่น Crisis Text Line และ Loris จะถูกปล่อยให้ปรับปรุงกรอบจริยธรรมของตนเอง ค่าใช้จ่ายนั้นชัดเจนในสัปดาห์นี้จากการตำหนิของ FCC และความรู้สึกที่ว่า Crisis Text Line หักหลังผู้ใช้และผู้สนับสนุนในท้ายที่สุด

ใช้ประโยชน์จากความเห็นอกเห็นใจ

เมื่อ Loris เปิดตัวครั้งแรก Lublin อธิบายความทะเยอทะยานที่ดูเหมือนมีคุณธรรมต่อ Mashable ว่า “เป้าหมายของเราคือการทำให้มนุษย์เป็นมนุษย์ที่ดีขึ้น”

ในการสัมภาษณ์ Lublin เน้นการแปลบทเรียนของการฝึกอบรมที่ปรึกษาที่เน้นความเห็นอกเห็นใจและขับเคลื่อนด้วยข้อมูลของ Crisis Text Line ไปยังที่ทำงาน ซึ่งช่วยให้ผู้คนพัฒนาทักษะการสนทนาที่สำคัญ ดูเหมือนจะเป็นผลพลอยได้จากงานขององค์กรไม่แสวงหาผลกำไร ไม่ชัดเจนว่า Lublin รู้หรือไม่ในเวลานั้น แต่ไม่ได้ระบุอย่างชัดเจนว่า Loris จะสามารถเข้าถึงข้อมูลผู้ใช้ Crisis Text Line ที่ไม่เปิดเผยตัวตน หรือหากการเข้าถึงของบริษัทเปลี่ยนไปหลังจากเปิดตัว

“หากองค์กรอื่นสามารถฝึกผู้คนให้มากขึ้นเพื่อพัฒนาทักษะที่ที่ปรึกษาด้านวิกฤตของเรากำลังพัฒนา บางทีความจำเป็นในการใช้ Crisis Line ก็อาจลดลงได้” บอยด์เขียน ซึ่งส่งต่อคำถามของ Mashable เกี่ยวกับประสบการณ์ของเธอไปยัง Crisis Text Line “หากเราสามารถสร้างเครื่องมือที่ต่อสู้กับวงจรแห่งความเจ็บปวดและความทุกข์ทรมาน เราก็สามารถตอบแทนสิ่งที่เราเรียนรู้จากคนที่เรารับใช้ได้ ฉันต้องการช่วยผู้อื่นในการพัฒนาและใช้ประโยชน์จากการเอาใจใส่”

“ฉันต้องการช่วยให้ผู้อื่นพัฒนาและใช้ประโยชน์จากการเอาใจใส่”

แต่เมื่อถึงจุดหนึ่ง Loris ก็หันเหออกจากภารกิจ แต่เริ่มเสนอบริการเพื่อช่วยให้บริษัทเพิ่มประสิทธิภาพการบริการลูกค้า ใน LinkedIn บริษัทอ้างถึง “ประสบการณ์ที่กว้างขวางในการทำงานผ่านการสนทนาที่ท้าทายที่สุดในพื้นที่วิกฤต” และตั้งข้อสังเกตว่าซอฟต์แวร์การฝึกสอนสด “ช่วยให้ทีมดูแลลูกค้าทำให้ลูกค้ามีความสุขมากขึ้นและแบรนด์โดดเด่นท่ามกลางฝูงชน”

แม้ว่าการแยก Loris ออกจาก Crisis Text Line อาจเป็นความคิดที่ไม่ดีตั้งแต่เริ่มต้น แต่การนำข้อมูลผู้ใช้ไปใช้ในเชิงพาณิชย์ของ Loris เพื่อช่วยให้บริษัทต่างๆ ปรับปรุงผลกำไรของพวกเขา กลับรู้สึกโล่งใจอย่างน่าตกใจจากบทบาทขององค์กรไม่แสวงหาผลกำไรในการป้องกันการฆ่าตัวตายและการแทรกแซงวิกฤต

“ความล้มเหลวในวงกว้าง”

John Basl ผู้อำนวยการร่วมของ AI และ Data Ethics Initiatives ที่ Ethics Institute of Northeastern University กล่าวว่าความขัดแย้งนี้เป็นอีกตัวอย่างหนึ่งของ “ความล้มเหลวในวงกว้าง” ในด้านปัญญาประดิษฐ์

ในขณะที่ Basl เชื่อว่าเป็นไปได้ที่ AI จะสร้างประโยชน์ให้กับสินค้าสาธารณะได้อย่างชัดเจน แต่เขากล่าวว่าสาขานี้ขาด “ระบบนิเวศด้านจริยธรรม” ที่จะช่วยให้นักเทคโนโลยีและผู้ประกอบการต่อสู้กับปัญหาด้านจริยธรรมประเภทต่างๆ ที่ Crisis Text Line พยายามแก้ไขเป็นการภายใน ตัวอย่างเช่น ในการวิจัยทางชีวการแพทย์และทางคลินิก กฎหมายของรัฐบาลกลางควบคุมวิธีดำเนินการวิจัย กรณีศึกษาหลายทศวรรษที่ให้ข้อมูลเชิงลึกเกี่ยวกับความผิดพลาดในอดีต และผู้เชี่ยวชาญด้านสหวิทยาการ เช่น นักจริยธรรมทางชีวภาพช่วยไกล่เกลี่ยข้อถกเถียงใหม่หรือที่กำลังดำเนินอยู่

“ในพื้นที่ AI เราแค่ยังไม่มี” เขากล่าว

รัฐบาลกลางเข้าใจความหมายของปัญญาประดิษฐ์ การพิจารณาของสำนักงานคณะกรรมการอาหารและยาเกี่ยวกับกรอบการกำกับดูแลสำหรับอุปกรณ์การแพทย์ AIเป็นตัวอย่างหนึ่ง แต่ Basl กล่าวว่าสาขานี้มีปัญหาในการคำนึงถึงความท้าทายที่เกิดจาก AI หากไม่มีความพยายามของรัฐบาลกลางในการสร้างระบบนิเวศด้านจริยธรรม เขาสามารถจินตนาการถึงหน่วยงานของรัฐบาลกลางที่อุทิศตนให้กับการควบคุมปัญญาประดิษฐ์ หรืออย่างน้อยก็มีแผนกย่อยในหน่วยงานสำคัญๆ ที่มีอยู่ เช่น สถาบันสุขภาพแห่งชาติ สำนักงานคุ้มครองสิ่งแวดล้อม และองค์การอาหารและยา

Basl ซึ่งไม่ได้เกี่ยวข้องกับ Loris หรือ Crisis Text Line ยังกล่าวด้วยว่าแรงจูงใจนั้นแตกต่างกันไปในองค์กรและบริษัทต่างๆ ที่ใช้ AI บางคนดูเหมือนจะต้องการใช้เทคโนโลยีอย่างมีจริยธรรมอย่างแท้จริง ในขณะที่บางคนต้องการผลกำไรมากกว่า

นักวิจารณ์เรื่องการแบ่งปันข้อมูลระหว่าง Loris และ Crisis Text Line โต้แย้งว่าการปกป้องความเป็นส่วนตัวของผู้ใช้ควรเป็นสิ่งสำคัญยิ่ง เบรนแดน คาร์ กรรมาธิการของ FCC ยอมรับความกลัวว่าแม้แต่บันทึกของผู้ใช้ที่ถูกขัดและไม่ระบุตัวตนก็อาจมีรายละเอียดที่ระบุตัวตนได้ และกล่าวว่ามี “คำถามร้ายแรง” เกี่ยวกับการที่ผู้ส่งข้อความได้ให้ “ความยินยอมที่มีความหมาย” เพื่อสร้างรายได้จากการสื่อสารของพวกเขากับ Crisis Text Line หรือไม่

Rodriguez กล่าวในแถลงการณ์ต่อ Mashable ว่า “องค์กรและคณะกรรมการมุ่งมั่นที่จะพัฒนาและปรับปรุงวิธีที่เราขอความยินยอมเสมอมา เพื่อให้เราเพิ่มการสนับสนุนด้านสุขภาพจิตสูงสุดอย่างต่อเนื่องสำหรับความต้องการเฉพาะของผู้ส่งข้อความของเราในภาวะวิกฤต” เขาเสริมว่า Crisis Text Line กำลังทำการเปลี่ยนแปลงเพื่อเพิ่มความโปร่งใสให้กับผู้ใช้ ซึ่งรวมถึงการเพิ่มสัญลักษณ์แสดงหัวข้อย่อยที่ด้านบนของข้อกำหนดในการให้บริการ

“คุณกำลังรวบรวมข้อมูลเกี่ยวกับคนที่อยู่ในภาวะเปราะบางที่สุด จากนั้นจึงนำไปใช้ในการดำเนินการทางเศรษฐกิจ”

แต่ธรรมชาติของสิ่งที่ Loris กลายเป็นเนื้อหาทำให้ข้อตกลงนี้เสียไปอย่างมีจริยธรรม

บอยด์เขียนว่าเธอเข้าใจว่าทำไมนักวิจารณ์ถึงรู้สึก “โกรธและขยะแขยง”

เธอจบบัญชีที่ยืดเยื้อของเธอด้วยการโพสต์รายการคำถามถึงนักวิจารณ์เหล่านั้น รวมถึง: “วิธีใดคือวิธีที่ดีที่สุดในการสร้างความสมดุลระหว่างความยินยอมโดยปริยายของผู้ใช้ในภาวะวิกฤตกับการใช้ข้อมูลที่เป็นประโยชน์อื่นๆ ซึ่งพวกเขาอาจไม่ได้ยินยอมโดยเจตนา สามารถช่วยพวกเขาหรือคนอื่น ๆ ได้หรือไม่”

เมื่อบอยด์โพสต์ภาพหน้าจอของคำถามเหล่านั้นลงในบัญชี Twitter ของเธอคำตอบกลับเป็นลบอย่างท่วมท้น โดยผู้ตอบหลายคนเรียกร้องให้เธอและสมาชิกคณะกรรมการคนอื่นๆ ลาออก หลายคนมีความรู้สึกว่าความไว้วางใจที่มีต่อ Crisis Text Line นั้นสูญสิ้นไปแล้ว

มีแนวโน้มว่า Crisis Text Line และ Loris จะกลายเป็นเรื่องเตือนใจเกี่ยวกับการใช้ปัญญาประดิษฐ์อย่างมีจริยธรรม: คนที่มีความคิดที่พยายามใช้เทคโนโลยีเพื่อประโยชน์ยังคงทำผิดพลาดร้ายแรง

“คุณกำลังรวบรวมข้อมูลเกี่ยวกับผู้คนที่เปราะบางที่สุด และจากนั้นใช้มันเพื่อการดำเนินการทางเศรษฐกิจ ซึ่งดูเหมือนว่าจะไม่ถือว่าพวกเขาเป็นบุคคล ในแง่หนึ่ง” Basl กล่าว

หากคุณต้องการพูดคุยกับใครสักคนหรือกำลังประสบกับความคิดฆ่าตัวตาย โปรดโทรไปที่National Suicide Prevention Lifelineที่หมายเลข 1-800-273-8255 ติดต่อสายด่วน NAMIที่ 1-800-950-NAMI วันจันทร์ถึงวันศุกร์ เวลา 10.00 – 22.00 น. ET หรืออีเมล info@nami.org นี่คือรายการทรัพยากรระหว่างประเทศ

ติดตาม Mashable SEA บนFacebook , Twitter , Instagram , YouTubeและTelegram

หน้าแรก

Share

You may also like...