ช่วงเวลา Cry Wolf ของ AI Hype นั้นไม่มีประโยชน์

แม้ว่าฉันจะเป็นคนที่ศึกษาสถานการณ์การสิ้นสุดของมนุษยชาติ แต่ฉันเชื่อว่า "จดหมายจากผู้เชี่ยวชาญ" ที่ระบุถึงการเลื่อนการชำระหนี้ของ AI เป็นเวลา 6 เดือน หรือคำแถลงล่าสุดที่ระบุว่าความเสี่ยงของ AI อยู่ในระดับของการแพร่ระบาดและความเสี่ยงจากนิวเคลียร์นั้นเกินความจริงทั้งคู่ ความเห็นที่รุนแรงกว่านั้นที่ว่าเราจำเป็นต้องปิด AI นั้นไร้ความรับผิดชอบ ความกังวลใด ๆ จะต้องเป็นสัดส่วนกับความเสี่ยงที่เราเผชิญ ตอนนี้เราไม่ตกอยู่ในอันตรายจาก AI ในทันที

AI ปัจจุบันไม่สามารถยึดครองสังคมได้ พวกมันไม่มีความรู้สึกและไม่สมควรได้รับความคุ้มครองเหมือนชีวิตมนุษย์ พวกเขาไม่ได้ฉลาดหลักแหลมและไม่ได้เหนือกว่ามนุษย์ทั่วไปแต่อย่างใด ในความเป็นจริงพวกเขาไม่คิดเลย ตอนนี้ หากป้อนข้อมูลจำนวนมาก AI จะเก่งในงานเฉพาะอย่าง เช่น การคำนวณและการทำนาย นั่นไม่ใช่เรื่องน่ากังวล สิ่งเหล่านี้เป็นคุณสมบัติที่ระบบเหล่านี้มีโดยการออกแบบ คำมั่นสัญญาของ AI ได้แก่ การแก้ปัญหาโรคมะเร็ง การเปลี่ยนแปลงการผลิตในภาคอุตสาหกรรม การสร้างแบบจำลองสถานการณ์ในอนาคต และการจัดการความท้าทายด้านสิ่งแวดล้อม ต้องบอกว่ามีเหตุผลที่ถูกต้องในการวิพากษ์วิจารณ์ AI ในปัจจุบันเกี่ยวกับการใช้ทรัพยากร ความโปร่งใส ความลำเอียง ความปลอดภัยในโลกไซเบอร์ และผลกระทบต่อการจ้างงานในอนาคต

AI มีราคาแพงในการคำนวณ ซึ่งหมายความว่าเป็นขยะพลังงานฟอสซิลที่หายาก สิ่งนี้จะต้องได้รับการแก้ไขทันที แต่ไม่ใช่เรื่องที่มีอยู่จริง แต่เป็นเรื่องของการใช้ทรัพยากรอย่างมีเหตุผล ข้อเท็จจริงที่ว่า AI ที่อาศัยโมเดลข้อมูลขนาดใหญ่และไม่มีประสิทธิภาพนั้นมีราคาแพงเกินกว่าจะติดตามและตรวจสอบโดยสถาบันการศึกษาหรือรัฐบาลนั้นเป็นปัญหาที่แท้จริง แต่แก้ไขได้ทันท่วงที กลุ่มสถาบันการศึกษาชั้นยอดหรือรัฐบาลสามารถรวมตัวกันและแบ่งปันทรัพยากรคอมพิวเตอร์ในแบบที่พวกเขาทำเพื่อซูเปอร์คอมพิวติ้ง

โมเดลภาษาขนาดใหญ่ (LLM) คือโมเดล AI ที่สามารถสร้างข้อความภาษาธรรมชาติจากข้อมูลจำนวนมาก ปัญหาประการหนึ่งคือข้อความเหล่านี้ได้มาจากการบริจาคทางปัญญาโดยสุจริตของผู้อื่นโดยตรง ในความเป็นจริงพวกเขาถูกขโมย โดยเฉพาะอย่างยิ่ง Generative AI จะรวมข้อมูลผู้บริโภคและองค์กรเข้าด้วยกันอีกครั้ง รวมทั้งเนื้อหาที่สร้างสรรค์โดยละเมิดลิขสิทธิ์โดยสิ้นเชิง เรื่องนี้เป็นเรื่องร้ายแรง แต่ไม่มีอยู่จริง และยิ่งกว่านั้น สหภาพยุโรป ผู้ทำการแนะนำชักชวนสมาชิกรัฐสภาจากฮอลลีวูด และผู้จัดพิมพ์หนังสือ "บิ๊กไฟว์" ก็อยู่ในคดีนี้แล้ว คาดว่าสิ่งนี้จะทำให้การยกของ AI ช้าลง ในอัตราปัจจุบัน AI จะใช้ข้อมูลการฝึกอบรมที่ดีจนหมดก่อนที่จะเข้าใกล้ความรู้สึก

อัลกอริทึมที่ใช้ในการคำนวณภาษีของเรา เลือกฟีดออนไลน์ของเรา หรือจับคนเข้าคุกนั้นขาดความโปร่งใสอย่างเห็นได้ชัด อย่างไรก็ตาม นี่เป็นกรณีนี้มานานหลายปีแล้ว และไม่มีส่วนเกี่ยวข้องกับการพัฒนา AI ล่าสุด ความเอนเอียงของ AI เป็นคุณลักษณะหนึ่ง ไม่ใช่จุดบกพร่อง ในความเป็นจริงแล้ว Stereotyping เป็นวิธีการหลักที่โมเดลดังกล่าวใช้ได้ผล ยกเว้นอคติที่ซ่อนอยู่ในชั้นของเหตุผลเครื่องจักรที่เข้าใจยากซึ่งเข้าใจยากสำหรับมนุษย์ ผู้เชี่ยวชาญหรือไม่ก็ตาม สิ่งที่เราควรตั้งคำถามคือสติปัญญาของนักพัฒนาที่พัฒนาระบบดังกล่าว ไม่ใช่ความสามารถของระบบที่พวกเขาสร้างขึ้นซึ่งได้รับมา ระบบแทบจะไม่ดีไปกว่าภูมิปัญญาหรือความตั้งใจของผู้สร้างหรือดำเนินการ

ข้อมูลการฝึกอบรม AI สะท้อนถึงอคติที่มีอยู่ในสังคมซึ่งข้อมูลนั้นถูกรวบรวม การใช้ข้อมูลการฝึกอบรมที่ไม่ดีซ้ำถือเป็นแนวทางปฏิบัติที่น่ากังวลซึ่งสร้างมลพิษให้กับโมเดล AI อยู่แล้ว แนวทางของ AI ในปัจจุบันเพียงแค่ขยายอคติเพื่อให้ได้ผลลัพธ์อย่างรวดเร็ว เป็นที่ยอมรับว่าตรงกันข้ามกับที่เราต้องการ สิ่งที่เราต้องการทำคือการใช้เทคโนโลยีเพื่อป้องกันความผิดพลาดของมนุษย์ ความกังวลเกี่ยวกับข้อผิดพลาดของเครื่องจักรเป็นการใช้สติปัญญาของมนุษย์อย่างเปล่าประโยชน์

แม้จะมีอุปมาอุปไมย "โครงข่ายประสาทเทียม" แต่ AI ในปัจจุบันไม่ได้มีความคล้ายคลึงกับสมองในจินตนาการใดๆ ระบบ AI ในปัจจุบันไม่สามารถให้เหตุผลโดยการเปรียบเทียบได้เหมือนมนุษย์ ดีจัง. เราอาจไม่ต้องการการจัดแนว AI แบบที่คนคลั่งไคล้สนับสนุนและพยายามเลียนแบบ เครื่องจักรควรแตกต่างจากมนุษย์ นั่นคือวิธีที่เราสามารถเพิ่มจุดแข็งของกันและกัน และเราจะรักษาเครื่องจักรให้แตกต่างและแตกต่างได้อย่างไร เครื่องจักรไม่ควรมีส่วนได้ส่วนเสียในการจัดตำแหน่ง

AI เป็นตัวแทนของภัยคุกคามความปลอดภัยทางไซเบอร์ที่สำคัญมากขึ้นในฐานะสินทรัพย์สำหรับอาชญากรและรัฐที่ไม่เป็นมิตร แต่การรักษาความปลอดภัยทางไซเบอร์เป็นอุตสาหกรรมที่เติบโตเต็มที่โดยมีผู้เชี่ยวชาญจำนวนมากพร้อมที่จะรับมือกับความท้าทาย ไม่มีเหตุผลที่จะปิด AI เนื่องจากความกลัวความปลอดภัยในโลกไซเบอร์

การหยุดชะงักของการจ้างงานเนื่องจาก AI เป็นปัญหาเชิงนโยบายมานานหลายปี ครั้งแรกกับหุ่นยนต์ และตอนนี้ด้วยระบบ AI ที่ใช้ซอฟต์แวร์ นั่นหมายความว่ารัฐบาลพร้อมที่จะรับมือกับมัน ผลการศึกษาของ MIT Work of The Future พบว่าความกังวลเกี่ยวกับการว่างงานเนื่องจากหุ่นยนต์เป็นเรื่องที่พูดเกินจริง มนุษย์ค้นพบวิธีการทำงานอยู่เสมอและจะทำเช่นนั้นในอนาคตเช่นกัน การผลิตจะถูกเปลี่ยนโดย AI หรือไม่? มันเกิดขึ้นแล้ว แต่อยู่ในแบบที่ควบคุมได้พอสมควร

ในบางครั้ง AI ทนทุกข์ทรมานจากคำสัญญาที่มากเกินไปเกี่ยวกับฟังก์ชันการทำงานปัจจุบันหรือขอบเขตในอนาคต ฤดูหนาว AI ครั้งแรกเริ่มขึ้นในปี 1974-1980 เนื่องจากรัฐบาลสหรัฐฯถอนเงินทุน ประการที่สองคือระหว่างปี 1987-1993 เนื่องจากต้นทุนเพิ่มสูงขึ้น และ AI ไม่สามารถทำตามสัญญาที่สูงส่งได้

ระหว่างรอกระบวนทัศน์ใหม่มาถึง ในช่วงปี 2025-2030 เราน่าจะเข้าสู่ฤดูหนาวของ AI ครั้งที่สาม อย่างน้อยก็เมื่อเทียบกับฤดูร้อน AI ที่เราสัญญาไว้ เหตุผลก็คือ แม้ว่าจะมีโฆษณาเกินจริง แต่ด้วยเหตุผลทั้งหมดที่กล่าวมาข้างต้น โมเดลภาษาขนาดใหญ่กำลังจะบรรลุประโยชน์สูงสุด และในที่สุดจะต้องถูกแทนที่ด้วยแนวทางการคำนวณที่หรูหรากว่าและโปร่งใสกว่า

หนึ่งในตัวเลือกดังกล่าวคือการคำนวณแบบไฮเปอร์มิติซึ่งจะทำให้เครื่องจักรให้เหตุผลได้อย่างมีประสิทธิภาพมากขึ้น เนื่องจากพวกมันทำให้เครื่องจักรเข้าใจความหมาย ความสามารถในการประมวลผลความหมายและบริบทเบื้องหลังข้อมูลในโลกแห่งความเป็นจริง ขณะนี้ ระบบ AI ไม่เข้าใจความสัมพันธ์ระหว่างคำและวลี พวกเขาทำได้ดีในการเดา นั่นไม่เพียงพอ ในที่สุดเราก็ต้องการ AI ที่เป็นตัวเป็นตน เพราะการคิดเชื่อมโยงกับการรับรู้พื้นที่ นั่นคือกรณีในการผลิตซึ่งเป็นเกมที่ต้องใช้ร่างกายอย่างมาก นอกจากนี้ เรายังต้องการ AI ที่มีคุณสมบัติในการจำของมนุษย์ เช่น การจัดลำดับความสำคัญตามข้อมูลเบื้องหน้าและข้อมูลอื่นๆ การลืมเป็นเครื่องมือที่มนุษย์ใช้สำหรับการคิดเชิงนามธรรม การก้าวออกจากแนวทางปฏิบัติขององค์กรที่ล้าสมัย การตัดสินใจ และการอยู่ในช่วงเวลานั้น และไม่ได้เป็นเพียงข้อบกพร่อง ยังไม่มีเครื่องจักรใดสามารถทำได้ดีนัก

ในระหว่างนี้ เราจำเป็นต้องควบคุม แต่ไม่ใช่ในวินาทีนี้ และเมื่อเราควบคุม เราควรทำได้ดี กฎระเบียบที่ไม่ถูกต้องของ AI มีแนวโน้มที่จะทำให้สถานการณ์แย่ลง การตื่นขึ้นของหน่วยงานกำกับดูแลเพื่อรับมือกับความท้าทายนี้อาจมีประโยชน์ แต่ฉันไม่แน่ใจว่าหน่วยงานกำกับดูแลรุ่นปัจจุบันพร้อมสำหรับการเปลี่ยนแปลงครั้งใหญ่ที่จำเป็นต่อการทำให้ดีหรือไม่ มันจะนำมาซึ่งการตัดทอนบริษัทที่มีอำนาจ (อาจเป็นบริษัทจดทะเบียนทั้งหมด) จำกัดการใช้ AI ในการกำกับดูแล และจะหมายถึงการเปลี่ยนแปลงครั้งใหญ่ต่อวิธีการทำงานของตลาดผู้บริโภคในปัจจุบัน โดยพื้นฐานแล้วเราจะต้องตอบแทนสังคม มันจะพาเราไปสู่ความเสื่อมโทรมเร็วกว่าที่เราคาดไว้สองสามทศวรรษ ความท้าทายด้านความโปร่งใสของ AI อาจน่าเกรงขามมากกว่าตัวแปรควบคุมที่ทุกคนกังวลมาก ไม่ใช่ว่าไม่เกี่ยวข้องกัน

ยิ่งไปกว่านั้น เราไม่สามารถกังวลได้เท่าๆ กันทุกครั้งที่ถึงเกณฑ์มาตรฐานของ AI เราจำเป็นต้องสงวนพลังงานของเราไว้สำหรับช่วงเวลาที่ยิ่งใหญ่อย่างแท้จริงของความเสี่ยงที่ลดหลั่นกัน พวกเขาจะมาและพูดตามตรงว่าเราไม่ได้เตรียมพร้อม สถานการณ์ในอนาคตที่ฉันจินตนาการไว้ (ดูสถานการณ์การสูญพันธุ์ในปี 2075) รวมถึงการรั่วไหลของข้อมูลจำนวนมหาศาลที่ทำให้ทั้งประเทศถูกปิดกั้นจากกระบวนการของตนเองเป็นเวลาหลายเดือน ฉันยังกังวลเกี่ยวกับ AI ที่ได้รับความช่วยเหลือจากกลุ่มอาชญากรหรือผู้มีบทบาทของรัฐ ที่สำคัญที่สุด ฉันกังวลเกี่ยวกับการรวมกันของ AI, นาโนเทค, ชีววิทยาสังเคราะห์ และเทคโนโลยีควอนตัม ซึ่งใกล้เคียงกับปัญญากึ่งอินทรีย์ที่มองไม่เห็นซึ่งมีความสามารถที่ไม่รู้จัก ซึ่งอาจจะอยู่ห่างออกไปเพียงไม่กี่ทศวรรษ ซึ่งเกิดขึ้นเมื่อโลกจะถูกกลืนกินโดยผลกระทบที่ลดหลั่นของสภาพอากาศ เปลี่ยน.

โมเดล AI ในปัจจุบันยังทำงานได้ไม่ดีพอที่จะเป็นภัยคุกคามต่อมนุษยชาติ ก่อนที่เราจะพิจารณาปิดระบบ เราต้องการ AI ที่ดีกว่านี้ ยิ่งไปกว่านั้น เราต้องการนักพัฒนาที่ฉลาดขึ้น พลเมืองที่อ่อนไหวมากขึ้น และผู้กำหนดนโยบายที่รอบรู้มากขึ้น เรายังต้องมีแนวคิดในการควบคุม AI อย่างไร แต่สามารถทำได้โดยไม่ทำให้อะไรช้าลง มันจะเป็นการเดินทางเพื่อการศึกษาสำหรับทุกคน จดหมายเลื่อนการชำระหนี้เกี่ยวกับ GPT 4 (2023) เป็นช่วงเวลาที่หมาป่าร้องไห้โดยมีความคล้ายคลึงเพียงเล็กน้อยกับความเสี่ยงที่มนุษยชาติต้องเผชิญในอีกไม่กี่ทศวรรษข้างหน้า การทำให้ความเสี่ยงด้าน AI อยู่ในระดับความเสี่ยงด้านโรคระบาดและความเสี่ยงด้านนิวเคลียร์ในปี 2023 นั้นเกิดขึ้นก่อนเวลาอันควร เราจะไปถึงที่นั่นไหม บางที. แต่หมาป่าร้องไห้มีผลตามมา มันดูดออกซิเจนจากการโต้วาทีเกี่ยวกับความกลัวที่แท้จริง

ที่มา: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/