วิธีสร้าง Wake AI

วิธีสร้าง Wake AI

สำหรับเทคโนโลยีที่ควบคุมการดำรงอยู่ของมนุษย์มากขึ้นเรื่อยๆ ปัญญาประดิษฐ์ที่ใช้อยู่ทุกวันนี้กลับมีอคติอย่างน่ากังวลอัลกอริทึมได้รับการพิสูจน์ครั้งแล้วครั้งเล่าว่าเลือกปฏิบัติต่อผู้หญิงและชนกลุ่มน้อยทางชาติพันธุ์ ตั้งแต่เครื่องมือจดจำใบหน้าที่ระบุคนผิวดำ ไม่ถูกต้อง ไปจนถึงการศึกษาทางการแพทย์ที่ไม่สนใจเรือนร่างผู้หญิงไปจนถึงเครื่องมือจัดหางานที่พิสูจน์ว่าเป็นการเหยียดเพศ

ในขณะที่ยุโรปดูเหมือนจะสนับสนุนภาคเทคโนโลยี

 เจ้าหน้าที่ต้องการหลีกเลี่ยงหลุมพรางดังกล่าวโดยส่งเสริม AI ที่ยุติธรรมและเป็นกลาง ในเดือนเมษายน 2019 กลุ่มผู้เชี่ยวชาญระดับสูงด้าน AI ของคณะกรรมาธิการยุโรปได้ออกข้อกำหนด7 ข้อสำหรับ AI ที่มีจริยธรรมกล่าวคือ ควรมีความโปร่งใส แข็งแกร่งทางเทคนิค รับผิดชอบได้ ไม่เลือกปฏิบัติ ปกป้องความเป็นส่วนตัว ต้องอยู่ภายใต้การควบคุมดูแลของมนุษย์ และปรับปรุงความเป็นอยู่ที่ดีของสังคม .

ตอนนี้ความท้าทายคือการนำสิ่งนั้นไปใช้จริง

“ในขณะนี้ การอภิปรายเกี่ยวกับจริยธรรมเป็นเรื่องของจุดสิ้นสุดของแรงบันดาลใจ” — Alison Powell ศาสตราจารย์แห่ง London School of Economics

วิธีหนึ่งที่มักอ้างถึงเพื่อจัดการกับอคติคือการจ้างทีมวิศวกรที่หลากหลายเพื่อพัฒนาเทคโนโลยีพื้นฐาน อีกประการหนึ่งคือการป้อนข้อมูลอัลกอริทึมที่เป็นตัวแทนของความหลากหลายของสังคม — และไม่เอนเอียงไปทางกลุ่มใดกลุ่มหนึ่ง

แต่การแก้ไขเหล่านี้เป็นเพียงส่วนหนึ่งของแนวทางแก้ไขที่เป็นไปได้

Alison Powell ศาสตราจารย์จาก London School of Economics ซึ่งเป็นผู้นำเครือข่ายการวิจัยแบบสหวิทยาการใหม่กับสถาบัน Ada Lovelace ที่เรียกว่า JUST AIการสนทนาเกี่ยวกับจริยธรรมของ AI นั้น “พลาดไปอย่างสิ้นเชิง”

“ในขณะนี้ การอภิปรายเกี่ยวกับจริยธรรมเป็นเรื่องของจุดสิ้นสุดของแรงบันดาลใจ” เธอกล่าวเสริม การสร้างรายการตรวจสอบหรือหลักการด้านจริยธรรม “อาจเป็นเรื่องระดับสูงและเป็นนามธรรมเสียจนในทางปฏิบัติ สิ่งเหล่านี้ไม่ได้มีความหมายอะไรเลย และไม่ได้เปลี่ยนแปลงอะไรเลย” เธอกล่าว

ทางเลือกที่ยากลำบาก

จากข้อมูลของ Powell วิธีที่ดีกว่าในการประเมินเครื่องมือ AI คือการพิจารณาล่วงหน้าว่าการใช้งานเหมาะสมหรือไม่ และถ้าคำตอบคือไม่ ก็อย่าพัฒนาเลย ตัวอย่างเช่น การตรวจสอบการใช้การจดจำใบหน้าโดยตำรวจ อาจพบว่าอัตราความผิดพลาดสูงในการระบุชนกลุ่มน้อยมีมากกว่าประโยชน์ของเทคโนโลยี

ในฐานะหัวหน้าโครงการแยกต่างหากชื่อ  VIRT-EU Powell มีเป้าหมายที่จะช่วยให้ธุรกิจสร้างข้อพิจารณาด้านจริยธรรมในกระบวนการออกแบบของตน “คุณต้องตัดสินใจเรื่องยากๆ” เธอกล่าว “และการตัดสินใจเรื่องยากๆ เหล่านั้นก็รวมถึงการปฏิเสธในบางครั้งด้วย”

ความท้าทายประการหนึ่งสำหรับธุรกิจคือการตัดสินใจที่จะไม่พัฒนาเทคโนโลยีบางอย่าง หากการทำเช่นนั้นสามารถปิดผลกำไรที่อาจเกิดขึ้นได้

อีกประการหนึ่งเกี่ยวข้องกับการแลกเปลี่ยนระหว่างการฝังหลักกฎหมายและหลักจริยธรรม เช่น ความเป็นส่วนตัว ลงในอัลกอริทึมที่มีความเสี่ยงที่การทำเช่นนั้นจะลดความแม่นยำลง ตามที่นักวิทยาศาสตร์คอมพิวเตอร์ Michael Kearns และ Aaron Roth กล่าวในหนังสือ “The Ethical Algorithm: The ศาสตร์แห่งการออกแบบอัลกอริทึมที่คำนึงถึงสังคม”

พวกเขาโต้แย้งว่าบางครั้งอาจเป็นราคาที่คุ้มค่าที่จะจ่าย

Kearns และ Roth เรียกร้องให้มีการพัฒนาอัลกอริทึมด้วยคำจำกัดความเฉพาะของสิ่งต่าง ๆ เช่น “ความเป็นส่วนตัว” และ “ความเป็นธรรม” จากนั้น จะเป็นงานของนักวิจัยและนักพัฒนาที่ไม่เพียงแต่ “ระบุข้อจำกัดเหล่านี้และฝังไว้ในอัลกอริทึมของเราเท่านั้น แต่ยังระบุขอบเขตของการแลกเปลี่ยนเหล่านี้และออกแบบอัลกอริทึมที่ทำให้ไม่รุนแรงที่สุดเท่าที่จะเป็นไปได้” พวกเขาเขียน

แต่แม้ว่านักพัฒนาจะตัดสินใจสร้างข้อพิจารณาด้านจริยธรรมในอัลกอริทึมของพวกเขา พวกเขาก็ยังประสบปัญหาอย่างมาก เช่น ไม่มีมาตรฐานทางกฎหมายที่เชื่อถือได้เกี่ยวกับ “ความยุติธรรม” หรือการไม่เลือกปฏิบัติในกฎหมายของสหภาพยุโรป เป็นต้น

“เรากำลังสร้างสิ่งต่าง ๆ และนำสิ่งต่าง ๆ เข้าสู่สังคมด้วยชุดของค่านิยมที่เรานำติดตัวไปด้วย” — Alison Powell

ขึ้นอยู่กับบริบทของท้องถิ่นและประเพณีทางกฎหมาย คำจำกัดความของการเลือกปฏิบัติแตกต่างกันไปอย่างมากในแต่ละประเทศ และผู้พิพากษาต้องอาศัยสัญชาตญาณในการตัดสินใจอย่างมาก จากการศึกษาของOxford Internet Instituteที่เผยแพร่เมื่อต้นเดือนนี้

ปัญหาสำหรับนักพัฒนา AI คือระบบอัตโนมัติสะท้อนถึงมนุษย์ที่สร้างมันขึ้นมา รวมถึงอคติด้วย ไม่ว่าจะรู้ตัวหรือไม่ก็ตาม ตัวอย่างเช่น  การศึกษาล่าสุดของสหประชาชาติพบว่าเกือบ 90 เปอร์เซ็นต์ของผู้ชายและผู้หญิงมีอคติต่อผู้หญิง

“เรากำลังสร้างสิ่งต่าง ๆ และนำสิ่งต่าง ๆ เข้าสู่สังคมด้วยชุดของค่านิยมที่เรานำติดตัวไปด้วย” พาวเวลล์กล่าว

ในการสร้าง Wake AI ก่อนอื่นเราต้องสร้างสังคมที่ตื่นขึ้น

แนะนำ ufaslot888g