เหตุใด AI กำเนิดจึงต้องมีการควบคุมที่เข้มงวดมากขึ้น

บริษัทเทคโนโลยีที่ได้รับคัดเลือกซึ่งทำงานเกี่ยวกับปัญญาประดิษฐ์เชิงกำเนิดจะพบกับเจ้าหน้าที่ทำเนียบขาว ในขณะที่สหรัฐฯ สำรวจกฎระเบียบที่มุ่งป้องกันไม่ให้เทคโนโลยีทำอันตรายมากกว่าผลดี – ลิขสิทธิ์ AFP Arif ALI

เมื่อสัปดาห์ที่แล้ว Sam Altman CEO ของ OpenAI ให้การในการพิจารณาของคณะกรรมการตุลาการวุฒิสภาเพื่อหารือเกี่ยวกับความเสี่ยงที่สำคัญและข้อควรพิจารณาสำหรับกฎระเบียบ AI ในอนาคต ในขณะที่ Altman และฝ่ายนิติบัญญัติเห็นพ้องร่วมกันว่ากฎระเบียบมีความสำคัญ Altman ระบุว่าการสนทนานี้ยังไม่จบลงเนื่องจากขั้นตอนต่อไปยังไม่ชัดเจน ที่นี่กฎระเบียบสามารถรูปแบบและความครอบคลุมที่แตกต่างกัน

Frederik Mennes ผู้อำนวยการฝ่ายการจัดการผลิตภัณฑ์และกลยุทธ์ธุรกิจของ OneSpan กำลังพิจารณาผลกระทบที่จะเกิดขึ้น Mennes ได้พิจารณาความจำเป็นในการควบคุม AI เพิ่มเติมสำหรับนวัตกรรมเช่น ChatGPT โดยเฉพาะอย่างยิ่งเมื่อเกี่ยวข้องกับความปลอดภัย

Mennes กล่าวถึงกรณีของกฎระเบียบว่า: “กฎระเบียบของ generative AI เป็นสิ่งจำเป็นเพื่อป้องกันอันตรายที่อาจเกิดขึ้นจากแอปพลิเคชันที่เป็นอันตราย เช่น คำพูดแสดงความเกลียดชัง การกำหนดเป้าหมายการล่วงละเมิด และการบิดเบือนข้อมูล แม้ว่าความท้าทายเหล่านี้จะไม่ใช่เรื่องใหม่ แต่ AI เชิงกำเนิดได้อำนวยความสะดวกและเร่งการดำเนินการอย่างมีนัยสำคัญ”

เจเนอเรทีฟเอไอเป็นเทคโนโลยีปัญญาประดิษฐ์ประเภทหนึ่งที่สามารถผลิตเนื้อหาประเภทต่างๆ รวมถึงข้อความ ภาพ เสียง และข้อมูลสังเคราะห์

Mennes กล่าวว่ากรอบการกำกับดูแลจำเป็นต้องเริ่มต้นตั้งแต่ขั้นตอนการออกแบบขั้นต้น: “บริษัทต่างๆ ควรดูแลข้อมูลอินพุตที่ใช้สำหรับการฝึกอบรมแบบจำลอง AI เชิงกำเนิดอย่างแข็งขัน ตัวอย่างเช่น ผู้ตรวจสอบโดยมนุษย์สามารถกำจัดรูปภาพที่มีภาพความรุนแรงได้”

นอกจากนี้ ยังต้องมีความโปร่งใสมากขึ้นในกระบวนการ ซึ่ง Mennes นำเสนอว่า: “บริษัทเทคโนโลยีควรเสนอ AI กำเนิดเป็นบริการออนไลน์ เช่น API เพื่ออนุญาตให้มีการรวมการป้องกัน เช่น การตรวจสอบข้อมูลอินพุตก่อนที่จะป้อน ลงในเครื่องยนต์หรือตรวจสอบผลลัพธ์ก่อนที่จะนำเสนอต่อผู้ใช้”

การรวบรวมและเรียบเรียงข้อมูลจากประสบการณ์ผู้ใช้ก็มีความสำคัญเช่นกัน Mennes เห็นว่าสิ่งนี้เกี่ยวข้อง: “นอกจากนี้ บริษัทต่างๆ จะต้องตรวจสอบและควบคุมพฤติกรรมของผู้ใช้อย่างสม่ำเสมอ วิธีหนึ่งในการทำเช่นนี้คือการกำหนดข้อจำกัดในการปฏิบัติของผู้ใช้ผ่านข้อกำหนดในการให้บริการที่ชัดเจน”

เมื่อมองไปที่ผู้เล่นชั้นนำ Mennes พบว่า: “ตัวอย่างเช่น OpenAI ระบุอย่างชัดเจนว่าไม่ควรใช้เครื่องมือเพื่อสร้างหมวดหมู่รูปภาพและข้อความที่เฉพาะเจาะจง นอกจากนี้ บริษัท AI เชิงสร้างสรรค์ควรใช้เครื่องมืออัลกอริทึมที่ระบุการใช้งานที่เป็นอันตรายหรือต้องห้ามที่อาจเกิดขึ้น ผู้กระทำความผิดซ้ำสามารถถูกระงับได้”

ยังมีสิ่งที่ต้องทำอีกมาก Mennes ตั้งข้อสังเกต ขณะที่เขากล่าวว่า “แม้ว่าขั้นตอนเหล่านี้สามารถช่วยจัดการความเสี่ยงได้ แต่สิ่งสำคัญคือต้องยอมรับว่ากฎระเบียบและการควบคุมทางเทคนิคมีข้อจำกัดโดยธรรมชาติ”

อย่างไรก็ตาม เทคโนโลยีที่พัฒนาขึ้นก็จำเป็นต้องมีมาตรการรักษาความปลอดภัยที่รัดกุมอยู่เสมอ โดยเฉพาะอย่างยิ่ง: “ผู้ประสงค์ร้ายที่มีแรงจูงใจมักจะหาทางหลีกเลี่ยงมาตรการเหล่านี้ ดังนั้นการรักษาความสมบูรณ์และความปลอดภัยของ AI กำเนิดจะเป็นความพยายามอย่างต่อเนื่องในปี 2023 และต่อๆ ไป”

เหตุใด AI กำเนิดจึงต้องมีการควบคุมที่เข้มงวดมากขึ้น

#เหตใด #กำเนดจงตองมการควบคมทเขมงวดมากขน

Leave a Reply

Your email address will not be published. Required fields are marked *