ด้านที่เป็นอันตรายของ AI มักจะมาจากผู้คนและการใช้งาน ไม่ใช่จากตัวเทคโนโลยีเองในซิลิคอนแวลลีย์สัปดาห์นี้การถกเถียงเกี่ยวกับอันตรายที่อาจเกิดขึ้น (หรือขาดไป) เมื่อเป็นเรื่องของปัญญาประดิษฐ์ได้ปะทุขึ้นระหว่างมหาเศรษฐีด้านเทคโนโลยีสองคนMark Zuckerberg CEO ของ Facebook คิดว่า AI กำลังจะ “ทำให้ชีวิตของเราดีขึ้นในอนาคต” ในขณะที่ SpaceX CEO Elon Musk เชื่อว่า AI เป็น
“ความเสี่ยงพื้นฐานต่อการดำรงอยู่ของอารยธรรมมนุษย์”
ใครถูก?
ที่เกี่ยวข้อง: Elon Musk กล่าวว่าความเข้าใจของ Mark Zuckerberg เกี่ยวกับ AI นั้น ‘จำกัด ‘ หลังจากที่ Facebook CEO เรียกคำเตือนของเขาว่า ‘ขาดความรับผิดชอบ’
ทั้งคู่พูดถูก แต่ทั้งคู่ก็ขาดประเด็นเช่นกัน ด้านที่เป็นอันตรายของ AI มักจะมาจากผู้คนและการใช้งาน ไม่ใช่จากตัวเทคโนโลยีเอง คล้ายกับความก้าวหน้าของนิวเคลียร์ฟิวชั่น การพัฒนาทางเทคโนโลยีเกือบทุกชนิดสามารถใช้เป็นอาวุธและก่อให้เกิดความเสียหายได้หากอยู่ในมือที่ไม่ถูกต้อง การควบคุมความก้าวหน้าของหน่วยสืบราชการลับของเครื่องจักรจะมีบทบาทสำคัญในการทำนายวันโลกาวินาศของ Musk ให้กลายเป็นจริงหรือไม่
คงจะผิดหากจะบอกว่า Musk ลังเลที่จะยอมรับเทคโนโลยีนี้ เนื่องจากบริษัทเหล่านี้เป็นผู้ได้รับประโยชน์โดยตรงจากความก้าวหน้าในการเรียนรู้ของเครื่อง ยก ตัวอย่าง เทสลาซึ่งความสามารถในการขับเคลื่อนด้วยตนเองเป็นหนึ่งในมูลค่าเพิ่มที่ยิ่งใหญ่ที่สุดสำหรับรถยนต์ของตน ตัว Musk เองยังเชื่อว่าวันหนึ่งถนนที่มีคนขับ AI จะปลอดภัยกว่าการใช้มนุษย์ แม้ว่าเขาจะหวังว่าสังคมจะไม่ห้ามคนขับที่เป็นมนุษย์ในอนาคต เพื่อช่วยเราจากความผิดพลาดของมนุษย์
สิ่งที่ Musk ผลักดันอย่างจริงจังโดยการระวังเทคโนโลยี AI คือกรอบสมมุติฐานขั้นสูงที่เราในฐานะสังคมควรใช้เพื่อให้มีความตระหนักมากขึ้นเกี่ยวกับภัยคุกคามที่ AI นำมา ปัญญาประดิษฐ์ทั่วไป (AGI) ซึ่งเป็นประเภทที่จะตัดสินใจได้เองโดยปราศจากการแทรกแซงหรือการชี้นำจากมนุษย์นั้นยังห่างไกลจากวิธีการทำงานของสิ่งต่าง ๆ ในทุกวันนี้ AGI ที่เราเห็นในภาพยนตร์ที่หุ่นยนต์เข้ายึดครองโลกและทำลายมนุษยชาตินั้นแตกต่างอย่างมากจาก AI แบบแคบๆ ที่เราใช้และทำซ้ำในอุตสาหกรรมตอนนี้ ในมุมมองของ Zuckerberg บทสนทนาวันโลกาวินาศที่ Musk ได้จุดประกายนั้นเป็นวิธีที่เกินจริงมากในการคาดการณ์ว่าอนาคตของความก้าวหน้าทางเทคโนโลยีของเราจะเป็นอย่างไร
ที่เกี่ยวข้อง: อนาคตของการเพิ่มผลผลิต: AI และการเรียนรู้ของเครื่อง
แม้ว่ารัฐบาลของเราจะไม่มีการพูดคุยกันมากนักเกี่ยว
กับสถานการณ์วันสิ้นโลก แต่ก็มีการสนทนาเกิดขึ้นอย่างแน่นอนเกี่ยวกับการป้องกันผลกระทบที่อาจเป็นอันตรายต่อสังคมจากปัญญาประดิษฐ์ ทำเนียบขาวเพิ่งเผยแพร่รายงานเกี่ยวกับอนาคตของปัญญาประดิษฐ์และผลกระทบทางเศรษฐกิจที่เกิดขึ้น รายงานเหล่านี้มุ่งเน้นที่อนาคตของการทำงาน ตลาดงาน และการวิจัยเกี่ยวกับความไม่เท่าเทียมกันที่เพิ่มขึ้นซึ่งอาจนำมาซึ่งความฉลาดของเครื่องจักร
นอกจากนี้ยังมีความพยายามที่จะจัดการกับปัญหาที่สำคัญมากของ “การอธิบายได้” เมื่อต้องทำความเข้าใจการกระทำที่หน่วยสืบราชการลับของเครื่องจักรทำและการตัดสินใจที่นำเสนอต่อเรา ตัวอย่างเช่นDARPA (Defense Advanced Research Projects Agency) ซึ่งเป็นหน่วยงานภายในกระทรวงกลาโหมสหรัฐฯ กำลังระดมทุนหลายพันล้านดอลลาร์ในโครงการที่จะนำร่องยานยนต์และอากาศยาน ระบุเป้าหมาย และแม้แต่กำจัดพวกมันด้วยระบบขับเคลื่อนอัตโนมัติ หากคุณคิดว่าการใช้โดรนทำสงครามเป็นเรื่องขัดแย้ง สงคราม AI จะยิ่งเป็นเช่นนั้น นั่นเป็นเหตุผลว่าทำไมที่นี่จึงมีความสำคัญมากขึ้น หรืออาจมากกว่าในด้านอื่นๆ ด้วยซ้ำ ที่จะต้องคำนึงถึงผลลัพธ์ที่ AI นำเสนอ
ความคิดริเริ่ม AI ที่อธิบายได้ (XAI) ซึ่งได้รับทุนสนับสนุนจาก DARPA มีเป้าหมายเพื่อสร้างชุดเทคนิคการเรียนรู้ของเครื่องที่ให้ผลลัพธ์ที่อธิบายได้มากขึ้นสำหรับผู้ปฏิบัติงานที่เป็นมนุษย์และยังคงรักษาประสิทธิภาพการเรียนรู้ในระดับสูง เป้าหมายอื่นๆ ของ XAI คือการช่วยให้ผู้ใช้ที่เป็นมนุษย์สามารถเข้าใจ ไว้วางใจได้อย่างเหมาะสม และจัดการพันธมิตรรุ่นใหม่ที่ชาญฉลาดได้อย่างมีประสิทธิภาพ
ที่เกี่ยวข้อง: คุณจะบินบนเครื่องบินที่ได้รับการสนับสนุนโดย AI โดยไม่มีนักบินหรือไม่?
ความคิดริเริ่ม XAI ยังช่วยให้รัฐบาลจัดการกับปัญหาด้านจริยธรรมด้วยความโปร่งใสมากขึ้น บางครั้งผู้พัฒนาซอฟต์แวร์มีอคติทั้งที่รู้ตัวและไม่รู้ตัวซึ่งท้ายที่สุดก็รวมอยู่ในอัลกอริทึม วิธีที่กล้อง Nikon กลายเป็นที่รู้จักทางอินเทอร์เน็ตในการตรวจจับ “คนกระพริบตา” เมื่อชี้ไปที่ใบหน้าของคนเอเชีย หรือคอมพิวเตอร์ HP ถูกประกาศว่าเหยียดผิวเพราะไม่ตรวจจับคนผิวดำ ใบหน้าบนกล้อง แม้แต่นักพัฒนาที่มีความตั้งใจดีที่สุดก็สามารถสร้างระบบที่มีผลลัพธ์ที่เอนเอียงได้โดยไม่ตั้งใจ ซึ่งเป็นเหตุผลว่าทำไมในรายงานของทำเนียบขาวจึงระบุว่า “AI ต้องการข้อมูลที่ดี หากข้อมูลไม่สมบูรณ์หรือมีอคติ AI อาจทำให้ปัญหาความลำเอียงรุนแรงขึ้น”
แม้จะมีกรณีการใช้งานในเชิงบวก ความเอนเอียงของข้อมูลก็สามารถก่อให้เกิดอันตรายอย่างร้ายแรงต่อสังคมได้ ใช้ความคิดริเริ่มล่าสุดของจีนในการใช้ปัญญาของเครื่องจักรเพื่อคาดการณ์และป้องกันอาชญากรรม แน่นอนว่า การใช้อัลกอริธึมที่ซับซ้อนซึ่งสามารถตรวจจับผู้ก่อการร้ายและป้องกัน
Credit : สล็อตเว็บตรง / เว็บตรง / เว็บสล็อต