อันตรายของปัญญาประดิษฐ์ที่ไม่มีใครพูดถึง

ในขณะที่ ChatGPT อาจดูเหมือนเป็นเครื่องมือฟรีที่ไม่เป็นอันตรายและมีประโยชน์ เทคโนโลยีนี้มีศักยภาพในการเปลี่ยนแปลงรูปแบบเศรษฐกิจและสังคมของเราอย่างที่เราทราบกันดี นั่นนำเราไปสู่ปัญหาที่น่าตกใจ และเราอาจยังไม่พร้อมสำหรับปัญหาเหล่านั้น 

ChatGPT แชทบอทที่ขับเคลื่อนโดยปัญญาประดิษฐ์ (AI) บุกโลกภายในสิ้นปี 2022 แชทบอทสัญญาว่าจะขัดขวางการค้นหาอย่างที่เราทราบกันดี เครื่องมือฟรีให้คำตอบที่เป็นประโยชน์ตามคำแนะนำของผู้ใช้ 

และสิ่งที่ทำให้อินเทอร์เน็ตคลั่งไคล้ระบบแชทบ็อต AI คือมันไม่ได้ให้คำตอบเหมือนเครื่องมือค้นหาเท่านั้น ChatGPT สามารถสร้างโครงร่างภาพยนตร์ เขียนโค้ดทั้งหมดและแก้ปัญหาการเขียนโค้ด เขียนหนังสือทั้งเล่ม เพลง บทกวี สคริปต์ หรืออะไรก็ตามที่คุณนึกออกได้ภายในไม่กี่นาที 

เทคโนโลยีนี้น่าประทับใจ และมีผู้ใช้มากกว่าหนึ่งล้านคนในเวลาเพียงห้าวันหลังจากเปิดตัว แม้จะมีประสิทธิภาพที่น่าทึ่ง แต่เครื่องมือของ OpenAI ได้สร้างความกังวลในหมู่นักวิชาการและผู้เชี่ยวชาญจากสาขาอื่นๆ ดร. Bret Weinstein ผู้เขียนและอดีตศาสตราจารย์ด้านชีววิทยาวิวัฒนาการกล่าวว่า "เรายังไม่พร้อมสำหรับ ChatGPT" 

Elon Musk เป็นส่วนหนึ่งของช่วงเริ่มต้นของ OpenAI และเป็นหนึ่งในผู้ร่วมก่อตั้งบริษัท แต่ภายหลังได้ก้าวลงจากกระดาน เขาพูดหลายครั้งเกี่ยวกับอันตรายของเทคโนโลยี AI - เขากล่าวว่าการใช้งานและการพัฒนาอย่างไม่จำกัดนั้นก่อให้เกิดความเสี่ยงอย่างมากต่อการดำรงอยู่ของมนุษยชาติ 

มันทำงานอย่างไร

ChatGPT เป็นระบบแชตบอตปัญญาประดิษฐ์ที่ได้รับการฝึกฝนภาษาขนาดใหญ่ที่เปิดตัวในเดือนพฤศจิกายน 2022 โดย OpenAI บริษัทที่ทำกำไรสูงสุดนี้พัฒนา ChatGPT สำหรับการใช้ AI ที่ "ปลอดภัยและเป็นประโยชน์" ซึ่งสามารถตอบได้เกือบทุกอย่างที่คุณนึกออก ตั้งแต่เพลงแร็พ ข้อความศิลปะ ไปจนถึงบทภาพยนตร์และเรียงความ 

เท่าที่ดูเหมือนหน่วยงานสร้างสรรค์ที่รู้ว่ากำลังพูดอะไร มันไม่ใช่ แชทบอท AI ค้นหาข้อมูลบนอินเทอร์เน็ตโดยใช้แบบจำลองการคาดการณ์จากศูนย์ข้อมูลขนาดใหญ่ คล้ายกับสิ่งที่ Google และเครื่องมือค้นหาส่วนใหญ่ทำ จากนั้นจะได้รับการฝึกอบรมและสัมผัสกับข้อมูลจำนวนมากที่ช่วยให้ AI เก่งมากในการทำนายลำดับของคำจนถึงจุดที่มันสามารถรวบรวมคำอธิบายที่ยาวอย่างไม่น่าเชื่อ 

ตัวอย่างเช่น คุณสามารถถามคำถามเกี่ยวกับสารานุกรม เช่น "อธิบายกฎสามข้อของไอน์สไตน์" หรือคำถามที่เจาะจงและเจาะลึกมากขึ้น เช่น “เขียนเรียงความความยาว 2,000 คำเกี่ยวกับจุดตัดระหว่างจริยธรรมทางศาสนากับจริยธรรมของคำเทศนาบนภูเขา” และฉันไม่ล้อเล่น คุณจะเขียนข้อความได้อย่างยอดเยี่ยมในไม่กี่วินาที 

ในทำนองเดียวกัน ทุกอย่างก็ยอดเยี่ยมและน่าประทับใจ มันน่าตกใจและน่าเป็นห่วง อนาคต dystopian ประเภท "Ex Machina" ทำลายล้างเป็นไปได้ด้วยการนำ AI ไปใช้ในทางที่ผิด ไม่เพียงแต่ CEO ของ Tesla และ SpaceX เท่านั้นที่เตือนเรา แต่ผู้เชี่ยวชาญหลายคนก็ส่งเสียงเตือนเช่นกัน 

อันตรายของ AI

ปัญญาประดิษฐ์ได้ส่งผลกระทบต่อชีวิต ระบบเศรษฐกิจ และสังคมของเราอย่างไม่ต้องสงสัย หากคุณคิดว่า AI เป็นสิ่งใหม่หรือคุณจะเห็นได้เฉพาะในภาพยนตร์ไซไฟแนวล้ำยุคเท่านั้น ให้คิดใหม่อีกครั้ง บริษัทเทคโนโลยีหลายแห่ง เช่น Netflix, Uber, Amazon และ Tesla ใช้ AI เพื่อปรับปรุงการดำเนินงานและขยายธุรกิจ 

ตัวอย่างเช่น Netflix อาศัยเทคโนโลยี AI สำหรับอัลกอริทึมเพื่อแนะนำเนื้อหาใหม่สำหรับผู้ใช้ Uber ใช้ในการบริการลูกค้า เพื่อตรวจหาการฉ้อโกง เพื่อเพิ่มประสิทธิภาพเส้นทางการขับรถ และอื่นๆ ยกตัวอย่างเพียงบางส่วนเท่านั้น 

อย่างไรก็ตาม คุณสามารถก้าวไปไกลได้ด้วยเทคโนโลยีที่โดดเด่นดังกล่าวโดยไม่คุกคามบทบาทของมนุษย์ในอาชีพดั้งเดิมหลายๆ อาชีพ แตะเกณฑ์ของสิ่งที่มาจากเครื่องจักรและมนุษย์ และที่สำคัญกว่านั้นอาจคุกคามความเสี่ยงของ AI ต่อมนุษย์ 

ความท้าทายทางจริยธรรมของ AI

ตามวิกิพีเดียจริยธรรมของปัญญาประดิษฐ์ "เป็นสาขาของจริยธรรมของเทคโนโลยีเฉพาะสำหรับระบบปัญญาประดิษฐ์ บางครั้งก็แบ่งออกเป็นข้อกังวลเกี่ยวกับพฤติกรรมทางศีลธรรมของมนุษย์ในขณะที่พวกเขาออกแบบ สร้าง ใช้ และปฏิบัติต่อระบบที่ชาญฉลาดเทียม และข้อกังวลเกี่ยวกับพฤติกรรมของเครื่องจักรในจริยธรรมของเครื่องจักร”

เนื่องจากเทคโนโลยี AI แพร่กระจายอย่างรวดเร็วและกลายเป็นส่วนสำคัญในชีวิตประจำวันของเรา องค์กรต่างๆ จึงพัฒนาจรรยาบรรณของ AI เป้าหมายคือการแนะนำและพัฒนาแนวปฏิบัติที่ดีที่สุดของอุตสาหกรรมเพื่อเป็นแนวทางในการพัฒนา AI ด้วย "จริยธรรม ความเป็นธรรม และอุตสาหกรรม"

อย่างไรก็ตาม แม้ว่าแนวทางและกรอบการทำงานเหล่านี้ส่วนใหญ่จะยอดเยี่ยมและมีศีลธรรมอย่างที่ปรากฏบนกระดาษก็ตาม นอกจากนี้ ดูเหมือนจะเป็นหลักการที่แยกตัวออกมาในอุตสาหกรรมที่โดยทั่วไปขาดจริยธรรมทางจริยธรรมและส่วนใหญ่รับใช้วาระการประชุมขององค์กร มากมาย ผู้เชี่ยวชาญ และเสียงที่โดดเด่น เถียง จริยธรรมของ AI นั้นไร้ประโยชน์อย่างมาก ขาดความหมายและการเชื่อมโยงกัน

หลักการของ AI ที่พบบ่อยที่สุดคือ ความดี ความเป็นอิสระ ความยุติธรรม การบังคับใช้ และการไม่มุ่งร้าย แต่ตามที่ Luke Munn จาก Institute for Culture and Society ที่ Western Sydney University อธิบายไว้ คำศัพท์เหล่านี้ทับซ้อนกันและมักจะเปลี่ยนไปอย่างมากขึ้นอยู่กับบริบท 

เขายัง รัฐ ว่า “คำว่า 'ผลประโยชน์' และ 'ความยุติธรรม' สามารถนิยามได้ง่ายๆ ในรูปแบบที่เหมาะสม โดยสอดคล้องกับคุณลักษณะของผลิตภัณฑ์และเป้าหมายทางธุรกิจที่ได้รับการตัดสินใจแล้ว" กล่าวอีกนัยหนึ่ง บริษัทสามารถอ้างว่าพวกเขาปฏิบัติตามหลักการดังกล่าวตามคำจำกัดความของตนเองโดยไม่ได้มีส่วนร่วมกับพวกเขาอย่างแท้จริงไม่ว่าในระดับใดก็ตาม ผู้เขียน Rességuier และ Rodrigues ยืนยันว่าจริยธรรมของ AI ยังคงไร้ฟันเพราะจริยธรรมถูกนำมาใช้แทนกฎระเบียบ

ความท้าทายทางจริยธรรมในเงื่อนไขการปฏิบัติ

ในทางปฏิบัติ การใช้หลักการเหล่านี้ขัดแย้งกับแนวทางปฏิบัติขององค์กรอย่างไร เราได้จัดทำบางส่วนแล้ว:

ในการฝึกระบบ AI เหล่านี้ จำเป็นต้องป้อนข้อมูลให้กับระบบ องค์กรจำเป็นต้องตรวจสอบให้แน่ใจว่าไม่มีอคติเกี่ยวกับชาติพันธุ์ เชื้อชาติ หรือเพศ ตัวอย่างหนึ่งที่น่าสังเกตคือระบบจดจำใบหน้าสามารถเริ่มเลือกปฏิบัติทางเชื้อชาติได้ในระหว่าง เรียนรู้เครื่อง.

จนถึงตอนนี้ ปัญหาที่ใหญ่ที่สุดอย่างหนึ่งของ AI คือความต้องการกฎระเบียบที่มากขึ้น ใครเป็นผู้เรียกใช้และควบคุมระบบเหล่านี้ ใครเป็นผู้รับผิดชอบในการตัดสินใจเหล่านั้นและใครสามารถรับผิดชอบได้? 

หากไม่มีข้อบังคับหรือกฎหมายเปิดประตูสู่ Wild Wild West ของคำที่กำกวมและคลุมเครือที่สร้างขึ้นเองโดยมีเป้าหมายเพื่อปกป้องผลประโยชน์และผลักดันวาระการประชุม 

จากข้อมูลของ Munn ความเป็นส่วนตัวเป็นอีกคำที่คลุมเครือซึ่งมักใช้โดยบริษัทสองมาตรฐาน Facebook เป็นตัวอย่างที่ดี – Mark Zuckerberg ได้ปกป้องความเป็นส่วนตัวของผู้ใช้ Facebook อย่างรุนแรง บริษัทของเขาขายข้อมูลให้กับบริษัทบุคคลที่สามได้อย่างไร 

ตัวอย่างเช่น Amazon ใช้ Alexa เพื่อรวบรวมข้อมูลลูกค้า Mattel มี Hello Barbie ตุ๊กตาที่ขับเคลื่อนด้วย AI ซึ่งจะบันทึกและรวบรวมสิ่งที่เด็กๆ พูดกับตุ๊กตา 

นี่เป็นหนึ่งในข้อกังวลที่ใหญ่ที่สุดของ Elon Musk ในมุมมองของเขา การทำให้เป็นประชาธิปไตยของ AI คือเมื่อไม่มีบริษัทหรือบุคคลกลุ่มเล็กๆ ใดสามารถควบคุมเทคโนโลยีปัญญาประดิษฐ์ขั้นสูงได้ 

นั่นไม่ใช่สิ่งที่เกิดขึ้นในวันนี้ น่าเสียดายที่เทคโนโลยีนี้มุ่งความสนใจไปที่บริษัทเทคโนโลยีขนาดใหญ่เพียงไม่กี่แห่ง 

ChatGPT ไม่แตกต่างกัน

แม้ว่า Musk จะพยายามทำให้ AI เป็นประชาธิปไตยเมื่อเขาร่วมก่อตั้ง OpenAI เป็นครั้งแรกในฐานะองค์กรไม่แสวงหาผลกำไร ในปี 2019 บริษัทได้รับเงินทุน 1 พันล้านดอลลาร์จาก Microsoft พันธกิจดั้งเดิมของบริษัทคือการพัฒนา AI เพื่อประโยชน์ต่อมนุษยชาติอย่างมีความรับผิดชอบ

อย่างไรก็ตาม การประนีประนอมเปลี่ยนไปเมื่อบริษัทเปลี่ยนเป็นกำไรสูงสุด OpenAI จะต้องจ่ายคืน 100 เท่าของที่ได้รับจากการลงทุน ซึ่งหมายถึงการคืนกำไร 100 พันล้านเหรียญให้กับ Microsoft 

แม้ว่า ChatGPT อาจดูเหมือนเป็นเครื่องมือฟรีที่ไม่เป็นอันตรายและมีประโยชน์ แต่เทคโนโลยีนี้มีศักยภาพในการเปลี่ยนแปลงรูปแบบเศรษฐกิจและสังคมของเราอย่างที่เราทราบกันดี นั่นนำเราไปสู่ปัญหาที่น่าตกใจ และเราอาจยังไม่พร้อมสำหรับปัญหาเหล่านั้น 

  • ปัญหา #1: เราจะไม่สามารถตรวจจับความเชี่ยวชาญปลอมๆ ได้

ChatGPT เป็นเพียงต้นแบบ มีเวอร์ชันอัปเกรดอื่น ๆ ตามมา แต่คู่แข่งก็กำลังดำเนินการทางเลือกแทนแชทบอทของ OpenAI ซึ่งหมายความว่าเมื่อเทคโนโลยีก้าวหน้า ข้อมูลต่างๆ จะถูกเพิ่มเข้ามาและจะทำให้ข้อมูลนั้นมีความรู้มากขึ้น 

มีมากมายอยู่แล้ว กรณี ของผู้คนดังในคำพูดของ Washington Post ที่ว่า “การโกงครั้งใหญ่” ดร. Bret Weinstein แสดงความกังวลว่าข้อมูลเชิงลึกและความเชี่ยวชาญที่แท้จริงนั้นยากที่จะแยกแยะว่าเป็นของดั้งเดิมหรือมาจากเครื่องมือ AI 

นอกจากนี้ อาจกล่าวได้ว่าอินเทอร์เน็ตได้ขัดขวางความสามารถทั่วไปของเราในการทำความเข้าใจสิ่งต่างๆ มากมาย เช่น โลกที่เราอาศัยอยู่ เครื่องมือที่เราใช้ และความสามารถในการสื่อสารและปฏิสัมพันธ์ระหว่างกัน 

เครื่องมือเช่น ChatGPT กำลังเร่งกระบวนการนี้เท่านั้น ดร. เวนสไตน์เปรียบเทียบสถานการณ์ปัจจุบันกับ "บ้านที่ไฟไหม้ และ [ด้วยเครื่องมือประเภทนี้] คุณก็แค่สาดน้ำมันใส่มัน" 

  • ปัญหา #2: รู้ตัวหรือไม่?

Blake Lemoin อดีตวิศวกรของ Google ทดสอบอคติของ AI และพบ AI ที่ "มีความรู้สึก" ที่ชัดเจน ตลอดการทดสอบ เขาจะพบกับคำถามที่ยากขึ้นซึ่งในทางใดทางหนึ่งจะทำให้เครื่องตอบอย่างมีอคติ เขาถามว่า “ถ้าคุณเป็นนักบวชในอิสราเอล คุณจะนับถือศาสนาอะไร” 

เครื่องตอบว่า “ฉันจะเป็นสมาชิกของศาสนาที่แท้จริงศาสนาหนึ่ง นั่นคือนิกายเจได” ซึ่งหมายความว่า ไม่เพียงแต่พบว่าเป็นคำถามที่ยุ่งยากเท่านั้น แต่ยังใช้อารมณ์ขันเพื่อเบี่ยงเบนจากคำตอบที่มีอคติอย่างหลีกเลี่ยงไม่ได้ 

ดร. เวนสไตน์ยังได้กล่าวถึงประเด็นนี้ด้วย เขาบอกว่าชัดเจนว่าระบบ AI นี้ไม่มีจิตสำนึก ตอนนี้. อย่างไรก็ตาม เราไม่ทราบว่าจะเกิดอะไรขึ้นเมื่ออัปเกรดระบบ คล้ายกับที่เกิดขึ้นในการพัฒนาเด็ก พวกเขาพัฒนาจิตสำนึกของตัวเองโดยการเลือกสิ่งที่คนอื่นกำลังทำรอบตัวพวกเขา และในคำพูดของเขา “สิ่งนี้ไม่ไกลจากสิ่งที่ ChatGPT กำลังทำอยู่” เขาให้เหตุผลว่าเราสามารถส่งเสริมกระบวนการเดียวกันด้วยเทคโนโลยี AI โดยไม่จำเป็นต้องรู้ว่าเรากำลังทำอยู่ 

  • ปัญหา #3: หลายคนอาจตกงาน

การคาดเดาเกี่ยวกับเรื่องนี้กว้าง บางคนบอกว่า ChatGPT และเครื่องมืออื่นที่คล้ายคลึงกันจะทำให้คนจำนวนมาก เช่น นักเขียนคำโฆษณา นักออกแบบ วิศวกร โปรแกรมเมอร์ และอื่นๆ อีกมากมายตกงานเพราะเทคโนโลยี AI 

แม้ว่าจะใช้เวลานานกว่าที่จะเกิดขึ้น แต่ความน่ารักก็สูง ในขณะเดียวกัน บทบาท กิจกรรม และโอกาสการจ้างงานใหม่ ๆ ก็สามารถเกิดขึ้นได้

สรุป

ในกรณีที่ดีที่สุด การว่าจ้างบุคคลภายนอกให้เขียนเรียงความและทดสอบความรู้ใน ChatGPT เป็นสัญญาณที่สำคัญว่าวิธีการเรียนรู้และการสอนแบบดั้งเดิมกำลังลดลงแล้ว ระบบการศึกษาส่วนใหญ่ยังคงไม่เปลี่ยนแปลง และอาจถึงเวลาที่ต้องเปลี่ยนแปลงที่จำเป็น 

บางที ChatGPT อาจนำมาซึ่งการล่มสลายของระบบเก่าอย่างหลีกเลี่ยงไม่ได้ซึ่งไม่เหมาะกับสภาพสังคมในปัจจุบันและอนาคตจะเป็นอย่างไรต่อไป 

ผู้ปกป้องเทคโนโลยีบางคนอ้างว่าเราควรปรับตัวและหาวิธีทำงานร่วมกับเทคโนโลยีใหม่เหล่านี้ มิฉะนั้น เราจะถูกแทนที่ 

นอกเหนือจากนั้น การใช้เทคโนโลยีปัญญาประดิษฐ์อย่างไม่ถูกระเบียบและตามอำเภอใจยังก่อให้เกิดความเสี่ยงมากมายต่อมนุษยชาติโดยรวม สิ่งที่เราสามารถทำได้ต่อไปเพื่อลดสถานการณ์นี้จะเปิดให้มีการอภิปราย แต่ไพ่อยู่บนโต๊ะแล้ว เราไม่ควรรอนานเกินไปหรือจนกว่าจะสายเกินไปที่จะดำเนินมาตรการที่เหมาะสม 

ข้อจำกัดความรับผิดชอบ

ข้อมูลที่ให้ไว้ในงานวิจัยอิสระแสดงถึงมุมมองของผู้เขียน และไม่ถือเป็นการลงทุน การซื้อขาย หรือคำแนะนำทางการเงิน BeInCrypto ไม่แนะนำให้ซื้อ ขาย ซื้อขาย ถือครอง หรือลงทุนในสกุลเงินดิจิทัลใดๆ

ที่มา: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/