top of page

ข้อเสนอแนะของ UNESCO ว่าด้วยจริยธรรมของปัญญาประดิษฐ์: กรอบการทำงานระดับโลกเพื่อการพัฒนา AI ที่ยึดมนุษย์เป็นศูนย์กลาง (UNESCO's AI Ethics)

  • Writer: Sathaworn
    Sathaworn
  • May 27
  • 7 min read

UNESCO ได้ออกข้อเสนอแนะเรื่อง "จริยธรรมของปัญญาประดิษฐ์" ในปี 2021 ซึ่งเป็นมาตรฐานระดับโลกแรกที่ประเทศสมาชิก UNESCO ทั้งหมดเห็นชอบร่วมกัน โดยสามารถดูเนื้อหาเต็ม ๆ ได้ที่ https://unesdoc.unesco.org/ark:/48223/pf0000381137


Abstract

ลองนึกภาพว่าคุณสมัครงานแล้วถูกปฏิเสธโดยระบบ AI ที่มองว่าคุณ "ไม่เหมาะสม" เพียงเพราะอยู่ในย่านที่มีรายได้น้อย หรือถูกธนาคารปฏิเสธสินเชื่อเพราะ AI วิเคราะห์ว่าคุณเป็นผู้หญิง วัย 30 และยังโสด — เรื่องแบบนี้ไม่ใช่นิยายวิทยาศาสตร์แล้ว แต่เกิดขึ้นจริงในปัจจุบัน ปัญหาคือ AI ไม่ใช่แค่เทคโนโลยี แต่เป็นกระจกสะท้อนสังคมที่ขยายทั้งข้อดีและข้อเสียของเราออกไป หากข้อมูลที่ใช้ฝึก AI มีอคติ ผลลัพธ์ก็จะมีอคติตาม ChatGPT และ AI ภาษาต่างๆ มักจะบรรยายผู้ชายในบทบาทมืออาชีพ แต่ผู้หญิงในบทบาทดูแลบ้าน ระบบสมัครงานบางระบบเลือกปฏิบัติผู้สมัครที่มีชื่อฟังดู "ต่างชาติ" และ AI ในระบบยุติธรรมอาจให้คำแนะนำการลงโทษที่หนักกว่าสำหรับกลุ่มคนผิวสี ด้วยเหตุนี้ องค์การยูเนสโก (UNESCO) จึงต้องลุกขึ้นมาทำสิ่งที่ไม่เคยมีมาก่อน: สร้างมาตรฐานจริยธรรม AI ระดับโลกฉบับแรกที่ได้รับความเห็นชอบจากทั้ง 193 ประเทศ


ข้อเสนอแนะนี้วางรากฐาน 4 ค่านิยมหลัก: สิทธิมนุษยชนเป็นใหญ่ สังคมที่ยุติธรรม ความหลากหลาย และการดูแลสิ่งแวดล้อม นอกจากนี้ยังตั้งเส้นแดงที่ชัดเจน ห้ามใช้ AI ให้คะแนนพลเมือง (แบบที่เคยเห็นในจีน) และห้ามเฝ้าระวังประชาชนขนาดใหญ่โดยไม่มีการควบคุม แต่การทำให้ "หลักการ" กลายเป็น "การปฏิบัติจริง" นั้นซับซ้อนกว่าที่คิด แต่ละวัฒนธรรมเข้าใจ "จริยธรรม" ต่างกัน บริษัทเทคกังวลว่าข้อจำกัดจะทำให้แข่งขันไม่ได้ และที่สำคัญที่สุด — ข้อเสนอแนะ UNESCO ไม่ใช่กฎหมาย แค่ "คำแนะนำ" ประเทศที่ไม่ปฏิบัติตามก็ไม่มีใครจับได้ ยิ่งไปกว่านั้น เราต้องเผชิญกับความขัดแย้งในโลกจริง: AI ช่วยวินิจฉัยโรคได้แม่นยำ แต่หากห้ามใช้ข้อมูลผู้ป่วยอย่างเข้มงวด อาจทำให้คนป่วยหนักไม่ได้รับการรักษาที่ดีที่สุด กล้องวงจรปิด AI ช่วยจับอาชญากรได้ แต่ก็สามารถใช้เฝ้าระวังประชาชนได้เช่นกัน


คำถามสำคัญที่เราทุกคนต้องตอบคือ: เราต้องการให้ AI ช่วยสร้างสังคมที่ยุติธรรมขึ้น หรือทำให้ความเหลื่อมล้ำเลวร้ายลง? เราพอใจกับการเป็น "ผู้บริโภค AI" หรือต้องการมีส่วนร่วมในการกำหนดทิศทางของเทคโนโลยีนี้? อนาคตของ AI ไม่ได้ขึ้นอยู่กับแค่นักเขียนโปรแกรมหรือผู้บริหารบริษัทเทค แต่ขึ้นอยู่กับการเลือกของเราทุกคน ท้ายที่สุดแล้ว เทคโนโลยีเป็นเพียงเครื่องมือ — สิ่งที่สำคัญคือใครเป็นคนถือและใช้มันอย่างไร


บทความนี้ได้เขียนแบ่งเป็น 2 ส่วน

ส่วนที่ 1 จากการสั่งให้ Google Gemini 2.5Flash แบบ PRO ทำการ Deep Research แล้วเขียนขึ้นมา ส่วนที่ 2 จากการสั่งให้ Claude Sonnet 4 วิเคราะห์เนื้อหาที่ Gemini เขียน และทำการปรับปรุงตามสไตล์ของ Claude

หมายเหตุ 27 พ.ค. 68 ผู้เขียนยังไม่ได้ทำการตรวจสอบความถูกต้องเนื้อหาครบ 100% ควรตรวจสอบความถูกต้องก่อนนำไปใช้ ชอบแบบไหนมากกว่ากัน หรือมีข้อเสนอแนะอะไร สามารถแชร์กันได้ครับ


ส่วนที่ 1


I. บทนำ: ความจำเป็นของจริยธรรม AI ในยุคดิจิทัล

ปัญญาประดิษฐ์ (AI) ได้ถือกำเนิดขึ้นในฐานะพลังขับเคลื่อนการเปลี่ยนแปลงที่สำคัญ ซึ่งแทรกซึมเข้าสู่ทุกแง่มุมของชีวิตประจำวันอย่างรวดเร็ว ทั้งในสภาพแวดล้อมทางวิชาชีพและส่วนบุคคล 1 เทคโนโลยี AI กำลังปรับเปลี่ยนวิธีการทำงาน การปฏิสัมพันธ์ และการใช้ชีวิตของผู้คนอย่างลึกซึ้ง โดยมีความก้าวหน้าอย่างไม่เคยปรากฏมาก่อนนับตั้งแต่การประดิษฐ์เครื่องพิมพ์เมื่อหกศตวรรษที่แล้ว 2 การเติบโตอย่างรวดเร็วของ AI ได้นำมาซึ่งโอกาสมหาศาลทั่วโลก ตั้งแต่การอำนวยความสะดวกในการวินิจฉัยทางการแพทย์ ไปจนถึงการสร้างความเชื่อมโยงของมนุษย์ผ่านแพลตฟอร์มโซเชียลมีเดีย และการเพิ่มประสิทธิภาพในการทำงานผ่านระบบอัตโนมัติ 1 นอกจากนี้ AI ยังมีศักยภาพในการปฏิวัติอุตสาหกรรมต่างๆ เช่น เทคโนโลยีทางการเงิน เกษตรกรรม การศึกษา และสุขภาพ ซึ่งสามารถขับเคลื่อนการพัฒนาที่ยั่งยืนในวงกว้าง


อย่างไรก็ตาม แม้จะมีประโยชน์มากมาย แต่การพัฒนาและการใช้งาน AI ก็มาพร้อมกับความท้าทายที่สำคัญ โดยเฉพาะอย่างยิ่งหากปราศจากหลักประกันทางจริยธรรมที่แข็งแกร่ง ความเสี่ยงเหล่านี้รวมถึงการทำให้อคติที่มีอยู่เดิมในสังคมเลวร้ายลง การเลือกปฏิบัติ การบิดเบือนพฤติกรรม และการคุกคามสิทธิมนุษยชนและเสรีภาพขั้นพื้นฐาน 1 ตัวอย่างที่ชัดเจนคือ การศึกษาที่แสดงให้เห็นว่าแบบจำลองภาษาขนาดใหญ่ (LLMs) เช่น GPT-2, ChatGPT และ Llama 2 สามารถแสดงอคติทางเพศและวัฒนธรรมในเนื้อหาที่สร้างขึ้นได้ ซึ่งทำให้ผู้ชายถูกกำหนดให้ทำงานที่หลากหลายและเป็นมืออาชีพมากกว่า ในขณะที่ผู้หญิงมักถูกจัดให้อยู่ในบทบาทที่จำกัดกว่า ในทางตรงกันข้าม AI ก็มีศักยภาพในการส่งเสริมวาระความเท่าเทียม ความหลากหลาย และการไม่เลือกปฏิบัติ  นอกจากนี้ AI ยังสามารถนำไปใช้เพื่อแก้ไขความท้าทายด้านความยั่งยืน และช่วยให้ประเทศที่ด้อยพัฒนามีการเข้าถึงเทคโนโลยี AI ที่เป็นธรรม ซึ่งเป็นส่วนหนึ่งของการสร้างสังคมที่ยุติธรรมและเชื่อมโยงถึงกัน


เพื่อรับมือกับทั้งโอกาสและความท้าทายเหล่านี้ องค์การการศึกษา วิทยาศาสตร์ และวัฒนธรรมแห่งสหประชาชาติ (UNESCO) ซึ่งมีประวัติอันยาวนานในการกำหนดกรอบจริยธรรมทางวิทยาศาสตร์ (เช่น จริยธรรมของจีโนมมนุษย์และประสาทวิทยาศาสตร์) ได้ริเริ่มจัดทำเครื่องมือระดับโลกฉบับแรกว่าด้วยจริยธรรมของ AI  "ข้อเสนอแนะของ UNESCO ว่าด้วยจริยธรรมของปัญญาประดิษฐ์" (Recommendation on the Ethics of Artificial Intelligence) ได้รับการรับรองโดยรัฐสมาชิก 193 ประเทศในเดือนพฤศจิกายน 2021 1 กรอบการทำงานนี้เป็นมาตรฐานเชิงบรรทัดฐานระดับโลกฉบับแรกและยังคงเป็นเพียงฉบับเดียวเกี่ยวกับ AI โดยมีวัตถุประสงค์หลักเพื่อเป็นพิมพ์เขียวที่ใช้งานได้จริงสำหรับการกำกับดูแล AI ที่มีจริยธรรม ปกป้องและส่งเสริมสิทธิมนุษยชนที่มีอยู่ซึ่งยึดโยงในกฎหมายระหว่างประเทศที่มีผลผูกพัน และคาดการณ์ภาระผูกพันทางศีลธรรมที่ยังไม่ได้ถูกบัญญัติเป็นกฎหมาย


การที่ UNESCO และข้อเสนอแนะนี้เน้นย้ำอย่างชัดเจนถึงความจำเป็นที่รัฐบาลทั่วโลกจะต้องจัดตั้งกรอบสถาบันและกฎหมายที่จำเป็นเพื่อกำกับดูแลเทคโนโลยี AI และรับประกันว่าเทคโนโลยีเหล่านี้จะเอื้อประโยชน์ต่อสาธารณะ แสดงให้เห็นถึงการเปลี่ยนแปลงครั้งสำคัญจากรูปแบบการกำกับดูแลตนเองที่เคยมีอยู่ ซึ่งมักให้ความสำคัญกับวัตถุประสงค์เชิงพาณิชย์และภูมิรัฐศาสตร์เหนือผู้คนมานานเกินไป การเน้นย้ำซ้ำๆ นี้ไม่ได้เป็นเพียงการระบุข้อเท็จจริง แต่เป็นการประกาศเชิงนโยบายที่สำคัญ ซึ่งสะท้อนถึงการรับรู้ว่าการพึ่งพากลไกตลาดเพียงอย่างเดียวไม่สามารถรับประกันการพัฒนา AI ที่มีจริยธรรมได้ และผลประโยชน์สาธารณะจำเป็นต้องมีการแทรกแซงจากรัฐ การเคลื่อนไหวระดับโลกนี้บ่งชี้ถึงภูมิทัศน์ AI ทั่วโลกที่กำลังก้าวไปสู่การกำกับดูแลที่เข้มงวดขึ้นและคำนึงถึงจริยธรรมมากขึ้น นอกจากนี้ยังสะท้อนถึงบทบาทเชิงรุกของ UNESCO ในการเสริมสร้างศักยภาพของรัฐสมาชิกในการจัดการกับความท้าทายที่ซับซ้อนของ AI

นอกจากนี้ ข้อเสนอแนะยังตีความ AI อย่างกว้างขวางว่าเป็นระบบที่มีความสามารถในการประมวลผลข้อมูลในลักษณะที่คล้ายคลึงกับพฤติกรรมอัจฉริยะ  การกำหนดคำจำกัดความที่กว้างขวางของ AI และการเน้นย้ำถึง "นโยบายที่รองรับอนาคต"  และ "การกำกับดูแลแบบปรับตัว"  แสดงให้เห็นว่า UNESCO เข้าใจถึงลักษณะพลวัตของการพัฒนา AI อย่างลึกซึ้ง แนวทางนี้มีความสำคัญอย่างยิ่ง เนื่องจากความก้าวหน้าทางเทคโนโลยีที่รวดเร็วจะทำให้คำจำกัดความที่ตายตัวและแคบๆ ล้าสมัยอย่างรวดเร็ว และทำให้การกำหนดนโยบายที่รองรับอนาคตเป็นไปไม่ได้ ข้อเสนอแนะนี้จึงถูกออกแบบมาให้มีความยืดหยุ่นและปรับตัวได้ ไม่ใช่ชุดกฎเกณฑ์ที่ตายตัว ซึ่งเป็นสิ่งสำคัญในการคงความเกี่ยวข้องในสาขาที่เปลี่ยนแปลงอย่างรวดเร็ว


II. ความเป็นมา: จากแนวคิดสู่ข้อเสนอแนะสากล

การจัดทำข้อเสนอแนะของ UNESCO ว่าด้วยจริยธรรมของปัญญาประดิษฐ์มีรากฐานมาจากการตระหนักรู้ถึงความจำเป็นเร่งด่วนในการสร้างกรอบจริยธรรมเพื่อเพิ่มประโยชน์สูงสุดและลดความเสี่ยงที่เกี่ยวข้องกับการพัฒนา การนำไปใช้ และการใช้งาน AI  แม้ AI จะนำมาซึ่งประโยชน์มหาศาลในหลายด้าน แต่หากปราศจากหลักประกันทางจริยธรรม ก็มีความเสี่ยงที่จะทำให้อคติและการเลือกปฏิบัติในโลกแห่งความเป็นจริงเกิดขึ้นซ้ำ เติมเชื้อเพลิงให้เกิดความแตกแยก และคุกคามสิทธิมนุษยชนและเสรีภาพขั้นพื้นฐาน  ความเสี่ยงเหล่านี้ยังรวมถึงการทำให้อคติที่มีอยู่เดิมแย่ลง ซึ่งก่อให้เกิดอันตรายเพิ่มเติมต่อกลุ่มที่ถูกเลือกปฏิบัติหรือถูกชายขอบอยู่แล้ว 1 ข้อเสนอแนะนี้จึงถูกสร้างขึ้นเพื่อตอบสนองต่อความเร่งด่วนของความท้าทายเหล่านี้ โดยเป็นมาตรฐานระดับโลกฉบับแรกเกี่ยวกับจริยธรรมของ AI


กระบวนการพัฒนาข้อเสนอแนะนี้เป็นความพยายามที่ครอบคลุมและใช้เวลานาน โดยเริ่มต้นด้วยการศึกษาเบื้องต้นเกี่ยวกับจริยธรรมของ AI และด้านเทคนิคและกฎหมายที่เกี่ยวข้อง จากนั้นจึงมีการจัดตั้งกลุ่มผู้เชี่ยวชาญเฉพาะกิจ (Ad Hoc Expert Group - AHEG) ซึ่งประกอบด้วยผู้เชี่ยวชาญ 24 คน เพื่อร่างเอกสาร ตามมาด้วยการเจรจาระหว่างรัฐบาลหลายชั่วโมง  ในที่สุด ในเดือนพฤศจิกายน 2021 รัฐสมาชิก 193 ประเทศของ UNESCO ได้รับรองข้อเสนอแนะนี้โดยฉันทามติ 1 การรับรองโดยฉันทามติจากรัฐสมาชิกจำนวนมหาศาลนี้เน้นย้ำถึงความสำคัญและขอบเขตของข้อเสนอแนะนี้ในฐานะมาตรฐานสากล


หัวใจสำคัญของข้อเสนอแนะคือการเน้นย้ำอย่างไม่ลดละต่อการปกป้องสิทธิมนุษยชนและศักดิ์ศรีความเป็นมนุษย์ ซึ่งถือเป็นรากฐานสำคัญของกรอบการทำงานทั้งหมด เอกสารนี้มีพื้นฐานมาจากสิทธิมนุษยชนและเสรีภาพขั้นพื้นฐาน โดยใช้คำว่า "สิทธิมนุษยชน" ซ้ำแล้วซ้ำเล่าในคำนำ  กรอบการทำงานนี้สอดคล้องกับการส่งเสริมและปกป้องสิทธิมนุษยชน ศักดิ์ศรีความเป็นมนุษย์ และความยั่งยืนด้านสิ่งแวดล้อมอย่างชัดเจน  การที่ UNESCO เลือกรูปแบบ "ข้อเสนอแนะ" (Recommendation) แทน "ปฏิญญา" (Declaration) ก็เพื่อให้นำเสนอข้อเสนอที่เป็นรูปธรรมแก่รัฐสมาชิกได้


การรับรองข้อเสนอแนะนี้สะท้อนถึงความตระหนักอย่างลึกซึ้งถึงความเร่งด่วนที่เกิดจากความก้าวหน้าอย่างรวดเร็วของเทคโนโลยี AI สังคมกำลังพัฒนาเร็วกว่าการพัฒนากฎหมายและเครื่องมือทางกฎหมาย ซึ่งเป็นหนึ่งในความท้าทายที่ยิ่งใหญ่ที่สุดของกฎหมายระหว่างประเทศในปัจจุบันและอนาคต  ความก้าวหน้าอย่างรวดเร็วของ AI มักแซงหน้าความพยายามด้านกฎระเบียบ ทำให้เกิดช่องว่างระหว่างแนวทางจริยธรรมกับความเป็นจริงของการใช้งาน AI  การรับรองข้อเสนอแนะนี้อย่างรวดเร็วในปี 2021 หลังจากการศึกษาเบื้องต้น  แสดงให้เห็นถึงการตระหนักถึงช่องว่างนี้อย่างเร่งด่วน และความพยายามเชิงรุกในการสร้างกรอบการทำงาน ก่อน ที่ความท้าทายทางจริยธรรมจะกลายเป็นสิ่งที่จัดการไม่ได้ สิ่งนี้เน้นย้ำถึงฉันทามติระดับโลกเกี่ยวกับ ความเร่งด่วน ของธรรมาภิบาล AI ที่มีจริยธรรม ซึ่งไม่ใช่แค่ "สิ่งที่ดีที่จะมี" แต่เป็น "สิ่งที่ต้องมี" เพื่อป้องกันอันตรายร้ายแรงต่อสังคมและรับประกันว่า AI จะรับใช้มนุษยชาติ


จำนวนรัฐสมาชิกที่รับรองข้อเสนอแนะอย่างมหาศาล (193 ประเทศ) ควบคู่ไปกับอำนาจหน้าที่เฉพาะของ UNESCO ในฐานะหน่วยงานพิเศษของสหประชาชาติที่รับผิดชอบด้านการศึกษา วิทยาศาสตร์ และวัฒนธรรม ทำให้ข้อเสนอแนะนี้มีน้ำหนักทางศีลธรรมและการเมืองอย่างมาก  การที่กรอบการทำงานนี้ได้รับการรับรองก่อนยุคของแบบจำลองภาษาขนาดใหญ่ที่ได้รับความนิยมอย่าง ChatGPT  ยังแสดงให้เห็นถึงวิสัยทัศน์ที่กว้างไกลของ UNESCO การรับรองอย่างกว้างขวางนี้ทำให้ข้อเสนอแนะของ UNESCO กลายเป็นมาตรฐานระดับโลกที่เป็นรากฐานสำหรับจริยธรรม AI มันให้ภาษาและชุดหลักการร่วมกันที่ประเทศและองค์กรต่างๆ สามารถอ้างอิงได้ ซึ่งส่งเสริมแนวทางการกำกับดูแล AI ที่สอดคล้องกันทั่วโลก แทนที่จะเป็นเพียงการรวมกันของกฎระเบียบระดับชาติที่แตกต่างกัน ฉันทามติระดับโลกนี้จึงเป็นเครื่องมือที่ทรงพลังในการขับเคลื่อนการพัฒนาและการใช้งาน AI ที่มีจริยธรรม


III. หลักการสำคัญ: เสาหลักของจริยธรรม AI

ข้อเสนอแนะของ UNESCO วางรากฐานสำหรับระบบ AI ที่ทำงานเพื่อประโยชน์ของมนุษยชาติ บุคคล สังคม และสิ่งแวดล้อม โดยมีค่านิยมหลัก 4 ประการ (Core Values) ที่ทำหน้าที่เป็นเข็มทิศนำทาง


ค่านิยมหลัก 4 ประการ (Core Values of AI Ethics)

  1. การเคารพ การปกป้อง และการส่งเสริมสิทธิมนุษยชน เสรีภาพขั้นพื้นฐาน และศักดิ์ศรีความเป็นมนุษย์ (Human rights and human dignity): เป็นหัวใจสำคัญของข้อเสนอแนะและเป็นรากฐานของแนวทางที่ยึดมนุษย์เป็นศูนย์กลาง

  2. การใช้ชีวิตในสังคมที่สงบสุข ยุติธรรม และเชื่อมโยงถึงกัน (Living in peaceful, just, and interconnected societies): ส่งเสริมการอยู่ร่วมกันอย่างสันติ ความยุติธรรมทางสังคม และการเชื่อมโยงระหว่างกันผ่านเทคโนโลยี

  3. การสร้างความหลากหลาย และการไม่แบ่งแยก (Ensuring diversity and inclusiveness): เน้นย้ำความสำคัญของการรับรองความหลากหลายและการไม่แบ่งแยกตลอดวงจรชีวิตของระบบ AI เพื่อให้มั่นใจว่าเทคโนโลยีนี้เป็นประโยชน์ต่อทุกคน

  4. สิ่งแวดล้อม และระบบนิเวศที่อุดมสมบูรณ์ (Environment and ecosystem flourishing): ตระหนักถึงผลกระทบของ AI ต่อสิ่งแวดล้อมและระบบนิเวศ และส่งเสริมการพัฒนา AI ที่ยั่งยืนและเป็นมิตรต่อสิ่งแวดล้อม



    ค่านิยมหลัก 4 ประการ (Core Values): UNESCO's AI Ethics
    ค่านิยมหลัก 4 ประการ (Core Values): UNESCO's AI Ethics


นอกจากค่านิยมสากลเหล่านี้แล้ว ข้อเสนอแนะยังกำหนดหลักการหลัก 10 ประการที่เน้นแนวทางที่ยึดสิทธิมนุษยชนเป็นศูนย์กลางสำหรับจริยธรรมของ AI


หลักการหลัก 10 ประการ (Core Principles of AI Ethics)


  1. สัดส่วนและการไม่ก่อให้เกิดอันตราย (Proportionality and Do No Harm): การใช้ระบบ AI ต้องไม่เกินความจำเป็นเพื่อให้บรรลุเป้าหมายที่ชอบด้วยกฎหมาย และควรมีการประเมินความเสี่ยงเพื่อป้องกันอันตรายที่อาจเกิดขึ้นจากการใช้งานดังกล่าว

  2. ความปลอดภัยและความมั่นคง (Safety and Security): ผู้มีบทบาทใน AI ควรหลีกเลี่ยงและแก้ไขอันตรายที่ไม่พึงประสงค์ (ความเสี่ยงด้านความปลอดภัย) และช่องโหว่ต่อการโจมตี (ความเสี่ยงด้านความมั่นคง) เพื่อให้มั่นใจถึงความเป็นอยู่ที่ดีของมนุษย์และสิ่งแวดล้อม

  3. ความเป็นธรรมและการไม่เลือกปฏิบัติ (Fairness and Non-Discrimination): ผู้มีบทบาทใน AI ควรส่งเสริมความยุติธรรมทางสังคม ความเป็นธรรม และการไม่เลือกปฏิบัติ พร้อมทั้งใช้แนวทางที่ครอบคลุมเพื่อให้แน่ใจว่าทุกคนสามารถเข้าถึงประโยชน์ของ AI ได้อย่างเท่าเทียม

  4. ความยั่งยืน (Sustainability): เทคโนโลยี AI ควรได้รับการประเมินผลกระทบต่อ "ความยั่งยืน" ซึ่งเข้าใจว่าเป็นชุดของเป้าหมายที่พัฒนาอย่างต่อเนื่อง รวมถึงเป้าหมายที่กำหนดไว้ในเป้าหมายการพัฒนาที่ยั่งยืนของสหประชาชาติ

  5. สิทธิในความเป็นส่วนตัวและการคุ้มครองข้อมูล (Right to Privacy and Data Protection): ความเป็นส่วนตัวต้องได้รับการปกป้องและส่งเสริมตลอดวงจรชีวิตของ AI ควรมีการจัดตั้งกรอบการคุ้มครองข้อมูลที่เพียงพอและสอดคล้องกับกฎหมายระหว่างประเทศ

  6. การกำกับดูแลโดยมนุษย์และการตัดสินใจของมนุษย์ (Human Oversight and Determination): รัฐสมาชิกควรตรวจสอบให้แน่ใจว่าระบบ AI ไม่ได้เข้ามาแทนที่ความรับผิดชอบและความรับผิดชอบสูงสุดของมนุษย์ 3 โดยเฉพาะอย่างยิ่ง ในกรณีของการตัดสินใจที่แก้ไขไม่ได้หรือการตัดสินใจที่เกี่ยวกับชีวิตและความตาย มนุษย์ต้องมีอำนาจตัดสินใจขั้นสุดท้าย

  7. ความโปร่งใสและการอธิบายได้ (Transparency and Explainability): การใช้งาน AI อย่างมีจริยธรรมขึ้นอยู่กับความโปร่งใสและการอธิบายได้ของระบบ AI ผู้คนควรได้รับแจ้งเมื่อการตัดสินใจเกิดจาก AI และควรสามารถเข้าถึงเหตุผลของการตัดสินใจดังกล่าวได้ รวมถึงความเป็นไปได้ในการทบทวนโดยมนุษย์

  8. ความรับผิดชอบและการตรวจสอบได้ (Responsibility and Accountability): ระบบ AI ควรสามารถตรวจสอบและติดตามได้ ควรมีกลไกการกำกับดูแล การประเมินผลกระทบ การตรวจสอบ และการตรวจสอบสถานะเพื่อหลีกเลี่ยงความขัดแย้งกับบรรทัดฐานสิทธิมนุษยชน 2 ความรับผิดชอบทางจริยธรรมและทางกฎหมายสำหรับการตัดสินใจและการกระทำที่อิงกับระบบ AI ควรสามารถระบุได้กับผู้มีบทบาทใน AI ตามบทบาทของพวกเขาในวงจรชีวิตของระบบ AI

  9. การรับรู้และความรู้ความเข้าใจ (Awareness and Literacy): ควรส่งเสริมความเข้าใจของสาธารณะเกี่ยวกับ AI และข้อมูลผ่านการศึกษาที่เปิดกว้างและเข้าถึงได้ การมีส่วนร่วมของพลเมือง ทักษะดิจิทัล และการฝึกอบรมจริยธรรม AI รวมถึงการรู้เท่าทันสื่อและข้อมูล

  10. การกำกับดูแลแบบมีส่วนร่วมจากหลายภาคส่วนและการปรับตัว (Multi-stakeholder and Adaptive Governance & Collaboration): กฎหมายระหว่างประเทศและอธิปไตยของชาติจะต้องได้รับการเคารพในการใช้ข้อมูล นอกจากนี้ การมีส่วนร่วมของผู้มีส่วนได้ส่วนเสียที่หลากหลายเป็นสิ่งจำเป็นสำหรับแนวทางการกำกับดูแล AI ที่ครอบคลุมและยั่งยืน



    Core Principles: UNESCO's AI Ethics
    Core Principles: UNESCO's AI Ethics

หนึ่งในข้อกำหนดที่สำคัญและเป็น "ข้อกำหนดที่น่าสนใจมาก" (Breakthrough Provision) ของข้อเสนอแนะนี้คือ การห้ามใช้ระบบ AI เพื่อวัตถุประสงค์ในการให้คะแนนทางสังคม (social scoring) และการเฝ้าระวังมวลชน (mass surveillance) อย่างชัดเจน  นี่เป็นคำสั่งที่หนักแน่น และเฉพาะเจาะจง ซึ่งไม่เป็นเรื่องปกติสำหรับตราสารทางกฎหมายที่จะกำหนดเป้าหมายสถานการณ์ที่มีความเฉพาะเจาะจงเช่นนี้ และเป็นที่ชัดเจนว่าสิ่งนี้ได้รับแรงบันดาลใจจากสถานการณ์ที่มีอยู่จริง ข้อกำหนดนี้สะท้อนถึงความกังวลอย่างลึกซึ้งเกี่ยวกับการคุกคามสิทธิมนุษยชนและเสรีภาพขั้นพื้นฐานที่อาจเกิดขึ้นจากเทคโนโลยี AI


แนวทางที่ครอบคลุมของ UNESCO ซึ่งรวมค่านิยมสากล 4 ประการและหลักการ 10 ประการ ครอบคลุมขอบเขตที่กว้างขวางอย่างน่าทึ่ง ตั้งแต่การออกแบบไปจนถึงการใช้งานและแม้กระทั่งการสิ้นสุดการใช้งานของ AI การเชื่อมโยงที่ชัดเจนกับสิทธิมนุษยชนและความยั่งยืนด้านสิ่งแวดล้อมแสดงให้เห็นถึงความมุ่งมั่นอย่างลึกซึ้งต่อแนวทางที่ยึดมนุษย์เป็นศูนย์กลาง ซึ่งก้าวข้ามเพียงแค่ความปลอดภัยทางเทคนิค มันตระหนักถึงผลกระทบที่แพร่หลายของ AI ต่อสังคม วัฒนธรรม และสิ่งแวดล้อม แตกต่างจากแนวทางจริยธรรม AI หลายฉบับที่อาจมุ่งเน้นไปที่ด้านเทคนิคหรือความเสี่ยงเฉพาะ UNESCO ได้ออกแบบกรอบการทำงานนี้ให้เป็นเข็มทิศทางสังคมแบบองค์รวม มันตระหนักว่า AI ไม่ใช่แค่ความท้าทายทางเทคโนโลยี แต่เป็นความท้าทายทางจริยธรรมและสังคมที่ลึกซึ้ง ซึ่งต้องการการตอบสนองที่กว้างขวางและหลากหลายสาขาวิชาที่บูรณาการค่านิยมของมนุษย์ในทุกขั้นตอนของวงจรชีวิต AI สิ่งนี้ทำให้เป็นกรอบการทำงานที่แข็งแกร่งสำหรับความเป็นอยู่ที่ดีของสังคมในระยะยาว


การห้ามใช้ AI สำหรับ "การให้คะแนนทางสังคม" และ "การเฝ้าระวังมวลชน" อย่างชัดเจน  เป็นคำสั่งที่แข็งแกร่งและเฉพาะเจาะจง ซึ่งเป็นการเบี่ยงเบนจากหลักการทางจริยธรรมที่คลุมเครือและกำหนด "ขีดจำกัดสีแดง" ที่เป็นรูปธรรม มันสะท้อนถึงท่าทีเชิงรุกในการป้องกันการละเมิดเทคโนโลยี AI ที่เลวร้ายที่สุดที่ทราบกันดีหรือที่คาดการณ์ไว้ ซึ่งคุกคามสิทธิมนุษยชนและเสรีภาพขั้นพื้นฐานโดยตรง ข้อห้ามที่เฉพาะเจาะจงนี้แสดงให้เห็นถึงความมุ่งมั่นของ UNESCO ในการป้องกันอันตรายที่ร้ายแรงที่สุดของ AI มันให้แนวทางที่ชัดเจนแก่รัฐบาลและนักพัฒนาเกี่ยวกับการใช้งานที่ไม่เป็นที่ยอมรับ ซึ่งทำหน้าที่เป็นหลักประกันที่สำคัญต่อการประยุกต์ใช้ AI ที่เป็นเผด็จการหรือแสวงหาผลประโยชน์ ความเฉพาะเจาะจงนี้ยังทำให้ข้อเสนอแนะสามารถนำไปปฏิบัติได้จริงและบังคับใช้ได้มากขึ้นในทางปฏิบัติ โดยเป็นเกณฑ์มาตรฐานสำหรับกฎหมายระดับชาติ


IV. การนำไปประยุกต์ใช้: จากหลักการสู่การปฏิบัติจริง

ข้อเสนอแนะของ UNESCO ไม่ได้เป็นเพียงชุดของหลักการทางทฤษฎีเท่านั้น แต่ยังรวมถึง "พื้นที่การดำเนินการนโยบาย" ที่กว้างขวาง ซึ่งช่วยให้ผู้กำหนดนโยบายสามารถเปลี่ยนค่านิยมและหลักการหลักไปสู่การปฏิบัติได้จริง ข้อเสนอแนะนี้ครอบคลุม 11 ด้านนโยบายหลัก ได้แก่ ธรรมาภิบาลข้อมูล สิ่งแวดล้อมและระบบนิเวศ ความเท่าเทียมทางเพศ การศึกษาและการวิจัย สุขภาพและสุขภาวะทางสังคม วัฒนธรรม ตลาดแรงงาน การสื่อสารและข้อมูล และเศรษฐกิจ


ในด้าน ธรรมาภิบาลข้อมูล ข้อเสนอแนะเน้นย้ำความสำคัญของการทำความเข้าใจที่ดีขึ้นเกี่ยวกับบทบาทของข้อมูลในการพัฒนาระบบอัลกอริทึมที่ปลอดภัยและเป็นธรรม และกำหนดกฎเกณฑ์ในการควบคุมข้อมูลให้อยู่ในมือของผู้ใช้ ทำให้พวกเขาสามารถเข้าถึงและลบข้อมูลได้ตามต้องการ นอกจากนี้ยังเรียกร้องให้รัฐสมาชิกรับรองว่ามีการจัดทำมาตรการป้องกันที่เหมาะสมสำหรับการประมวลผลข้อมูลที่ละเอียดอ่อนและมีแผนการตรวจสอบที่รัดกุม  สำหรับ ความเท่าเทียมทางเพศ ข้อเสนอแนะให้ความสำคัญกับการเพิ่มความหลากหลายในสาขา AI และการรับรองว่าผู้หญิงและเด็กผู้หญิงมีส่วนร่วมในการพัฒนาเครื่องมือเหล่านี้และได้รับประโยชน์จากเทคโนโลยีอย่างเท่าเทียมกัน เพื่อแก้ไขช่องว่างที่สำคัญและอคติในอัลกอริทึม  ในส่วนของ การศึกษาและการวิจัย ข้อเสนอแนะส่งเสริมการรู้เท่าทัน AI และการพัฒนาทักษะสำหรับแรงงานเพื่อปรับตัวเข้ากับการเปลี่ยนแปลงทางเทคโนโลยี รวมถึงการยกระดับและปรับทักษะใหม่  UNESCO ได้พัฒนา AI competency frameworks สำหรับนักเรียนและครู เพื่อให้เข้าใจศักยภาพและความเสี่ยงของ AI และส่งเสริมแนวทางที่ยึดมนุษย์เป็นศูนย์กลางในการศึกษา AI ซึ่งเน้นการพัฒนาความสามารถของมนุษย์และส่งเสริมความยุติธรรมทางสังคม ความยั่งยืน และศักดิ์ศรีความเป็นมนุษย์


เพื่อรับประกันการเปลี่ยนแปลงที่แท้จริงในภาคสนาม ข้อเสนอแนะนี้ยังรวมถึงบทเกี่ยวกับการติดตามและประเมินผล และวิธีการนำไปปฏิบัติในรูปแบบของการประเมินความพร้อม (Readiness Assessment) และการประเมินผลกระทบทางจริยธรรม (Ethical Impact Assessment)


ระเบียบวิธีประเมินความพร้อม (Readiness Assessment Methodology - RAM) เป็นเครื่องมือวินิจฉัยและเป็นขั้นตอนแรกสำหรับการสร้างขีดความสามารถที่ตรงเป้าหมาย เพื่อเสริมสร้างขีดความสามารถของสถาบันและบุคลากรในภาครัฐในการจัดการกับความเสี่ยงของ AI RAM ประเมินระบบนิเวศ AI ของประเทศ โดยประเมินข้อมูล 200 จุด เพื่อสนับสนุนการกำหนดนโยบายในด้านจริยธรรม การศึกษา และความเป็นส่วนตัวของข้อมูล RAM ช่วยให้ประเทศต่างๆ ประเมินความพร้อมทางกฎหมาย/กฎระเบียบ สังคม/วัฒนธรรม เศรษฐกิจ วิทยาศาสตร์/การศึกษา และเทคนิค/โครงสร้างพื้นฐาน


มีกรณีศึกษาที่น่าสนใจหลายกรณีในการนำ RAM ไปใช้ในประเทศต่างๆ

  • ชิลี ได้นำ RAM ไปใช้ผ่านกระบวนการสี่ขั้นตอนที่เสร็จสิ้นภายในเวลาไม่ถึงหนึ่งปี โดยร่วมมือกับกระทรวงวิทยาศาสตร์ เทคโนโลยี ความรู้ และนวัตกรรมของชิลี ผลการประเมินได้ถูกนำไปใช้ในการปรับปรุงนโยบาย AI แห่งชาติ (PNIA) และถูกรวมเข้าในร่างกฎหมายที่เสนอต่อรัฐสภาชิลีในเดือนพฤษภาคม 2024 ซึ่งส่งเสริม AI ที่ยึดมนุษย์เป็นศูนย์กลางและจัดหมวดหมู่ระบบ AI ตามระดับความเสี่ยง รายงาน RAM ฉบับสุดท้ายแนะนำให้ชิลีจัดลำดับความสำคัญของกฎหมายคุ้มครองข้อมูลและไซเบอร์ซีเคียวริตี้ กำหนดกลยุทธ์ AI ระดับเทศบาล และประเมินผลกระทบของ AI ต่อวัฒนธรรมและสิ่งแวดล้อม ประสบการณ์ของชิลีเน้นย้ำถึงลักษณะการมีส่วนร่วมของการนำ RAM ไปใช้ ซึ่งช่วยให้พิจารณาความรู้สึกของสาธารณะเกี่ยวกับ AI และสร้างความรู้สึกเป็นเจ้าของในหมู่ผู้มีส่วนได้ส่วนเสีย

  • อินโดนีเซีย UNESCO และ KOMINFO (กระทรวงการสื่อสารและสารสนเทศ) ได้เปิดตัว RAM ในอินโดนีเซียในปี 2024 เพื่อให้การพัฒนา AI สอดคล้องกับมาตรฐานจริยธรรมระดับโลก อินโดนีเซียได้ให้การรับรองชุดหลักการ AI ที่ส่งเสริมการใช้ AI ที่ครอบคลุมและตรวจสอบได้ตั้งแต่ปี 2019

  • เฟลมิช (เบลเยียม) โครงการนี้เป็นการนำ RAM ไปใช้ในระดับภูมิภาคครั้งแรกของโลก โดยมีเป้าหมายเพื่อเพิ่มขีดความสามารถในการกำกับดูแล AI ภายในหน่วยงานภาครัฐของเฟลมิช ซึ่งใช้แนวทางที่เป็นระบบและองค์กร

  • นอกจากนี้ UNESCO กำลังดำเนินการ RAM ในกว่า 50 ประเทศทั่วโลก รวมถึงแอนติกาและบาร์บูดา บาร์เบโดส บราซิล บอตสวานา ชาด ชิลี คอสตาริกา คิวบา สาธารณรัฐประชาธิปไตยคองโก สาธารณรัฐโดมินิกัน กาบอง อินเดีย เคนยา มาลาวี มัลดีฟส์ มอริเชียส เม็กซิโก โมร็อกโก โมซัมบิก นามิเบีย และรวันดา


การประเมินผลกระทบทางจริยธรรม (Ethical Impact Assessment - EIA) เป็นอีกหนึ่งเครื่องมือสำคัญ EIA เป็นเครื่องมือสำหรับประเมินประโยชน์และความเสี่ยงของระบบ AI ที่เกี่ยวข้องกับค่านิยมและหลักการของข้อเสนอแนะ UNESCO ว่าด้วยจริยธรรมของ AI  EIA พิจารณากระบวนการทั้งหมดของการออกแบบ การพัฒนา และการใช้งานระบบ AI ซึ่งช่วยให้สามารถประเมินความเสี่ยงได้ทั้งก่อนและหลังการเผยแพร่ระบบสู่สาธารณะ  สิ่งนี้มีความสำคัญอย่างยิ่งในการรับรองการออกแบบและการใช้งาน AI ที่มีจริยธรรม เนื่องจากระบบ AI และเครื่องมือต่างๆ มักถูกเผยแพร่โดยไม่มีการวิเคราะห์ความเสี่ยงที่อาจเกิดขึ้นอย่างชัดเจนและโปร่งใส  EIA มีเป้าหมายสองประการ: ประการแรก เพื่อประเมินว่าอัลกอริทึมเฉพาะสอดคล้องกับค่านิยม หลักการ และแนวทางที่กำหนดโดยข้อเสนอแนะหรือไม่ และประการที่สอง เพื่อรับรองความโปร่งใสโดยเรียกร้องให้ข้อมูลเกี่ยวกับระบบ AI และวิธีการพัฒนาสามารถเข้าถึงได้ต่อสาธารณะ 24 เครื่องมือนี้เสนอให้แก่ผู้จัดซื้อระบบ AI ในภาครัฐเป็นหลัก แต่ก็สามารถนำไปใช้โดยนักพัฒนาในภาครัฐหรือเอกชนที่ต้องการพัฒนา AI อย่างมีจริยธรรมและปฏิบัติตามมาตรฐานสากล


การนำข้อเสนอแนะไปปฏิบัติยังต้องอาศัยการมีส่วนร่วมจากหลายภาคส่วนอย่างกว้างขวาง ทั้งรัฐบาล ภาคเอกชน ภาคประชาสังคม และสถาบันการศึกษา UNESCO ได้จัดตั้งสภาธุรกิจจริยธรรม AI (AI Ethics Business Council) ซึ่งมี Microsoft และ Telefónica เป็นประธานร่วม และมีบริษัทเทคโนโลยีระดับโลกอีกหลายแห่งเข้าร่วม เช่น GSMA, INNIT, Lenovo Group, LG AI Research, Mastercard และ Salesforce บริษัทเหล่านี้ได้ลงนามในข้อตกลงที่ก้าวล้ำเพื่อสร้าง AI ที่มีจริยธรรมมากขึ้น โดยจะรวมค่านิยมและหลักการของข้อเสนอแนะของ UNESCO เข้าไปในการออกแบบและใช้งานระบบ AI 12 ตัวอย่างเช่น Lenovo ได้พัฒนาโครงการ Libras ซึ่งเป็นโซลูชันการแปลที่ขับเคลื่อนด้วย AI สำหรับภาษามือของบราซิล เพื่อเพิ่มการเข้าถึงและความครอบคลุม  Salesforce มุ่งเน้นการลดผลกระทบต่อสิ่งแวดล้อมของแบบจำลอง AI ขนาดใหญ่ผ่านแนวปฏิบัติ AI ที่ยั่งยืน  และ Safaricom ในเคนยาใช้เทคโนโลยีเพื่อปรับปรุงชีวิตของชาวเคนยา โดยช่วยปรับปรุงการแสดงข้อมูลสำหรับแบบจำลอง AI  นอกจากนี้ยังมีการจัดตั้งเครือข่าย Women Ethical AI เพื่อส่งเสริมความเท่าเทียมทางเพศในสาขา AI


เวทีระดับโลกและการส่งเสริมความรู้เป็นอีกหนึ่งกลไกสำคัญในการนำไปปฏิบัติ UNESCO จัด Global Forum on the Ethics of AI เป็นประจำทุกปี ซึ่งเป็นงานระดับสูงที่มีวัตถุประสงค์เพื่อส่งเสริมความรู้ที่ทันสมัยเกี่ยวกับความท้าทายที่เกิดจากเทคโนโลยี AI และอำนวยความสะดวกในการเรียนรู้ระหว่างรัฐบาลและผู้มีส่วนได้ส่วนเสียอื่นๆ นอกจากนี้ UNESCO ยังได้เปิดตัว Global AI Ethics and Governance Observatory ซึ่งเป็นแพลตฟอร์มที่ก้าวล้ำที่ออกแบบมาเพื่อส่งเสริมความรู้ ข้อมูลเชิงลึกจากผู้เชี่ยวชาญ และแนวปฏิบัติที่ดีในด้านจริยธรรมและการกำกับดูแล AI 8 Observatory นี้ทำหน้าที่เป็นแหล่งข้อมูลส่วนกลางสำหรับผู้กำหนดนโยบาย ผู้กำกับดูแล นักวิชาการ ภาคเอกชน และภาคประชาสังคม เพื่อค้นหาวิธีแก้ไขความท้าทายที่เร่งด่วนที่สุดที่เกิดจาก AI นอกจากนี้ยังเป็นที่ตั้งของ AI Ethics and Governance Lab ซึ่งรวบรวมผลงานวิจัยที่มีผลกระทบ เครื่องมือ และแนวปฏิบัติที่ดีเกี่ยวกับจริยธรรม AI เพื่อเสริมสร้างขีดความสามารถ UNESCO ยังได้ร่วมมือกับ LG AI Research พัฒนา Massive Open Online Course (MOOC) เกี่ยวกับจริยธรรมของ AI ซึ่งมีเป้าหมายเพื่อเสริมสร้างความรู้ เครื่องมือ และทักษะการคิดเชิงวิพากษ์เพื่อจัดการกับมิติทางจริยธรรมของ AI


V. ความท้าทายและโอกาสในการนำไปปฏิบัติ

การนำข้อเสนอแนะของ UNESCO ว่าด้วยจริยธรรมของ AI ไปปฏิบัติในทางปฏิบัติเผชิญกับทั้งความท้าทายที่ซับซ้อนและโอกาสที่สำคัญในการกำหนดอนาคตของการกำกับดูแล AI


ความท้าทาย:

  • ความหลากหลายทางวัฒนธรรมและช่องว่างด้านกฎระเบียบ: หนึ่งในความท้าทายหลักคือความซับซ้อนในการแปลหลักการทางจริยธรรมที่กว้างขวางให้เป็นกรอบกฎระเบียบที่เฉพาะเจาะจงและวัดผลได้ ความคลุมเครือโดยธรรมชาติในการกำหนดและวัดแนวคิดทางจริยธรรม เช่น "ความเป็นธรรม" "ความโปร่งใส" และ "ความรับผิดชอบ" ทำให้การแปลงหลักการเหล่านี้ให้เป็นตัวชี้วัดที่เป็นรูปธรรมสำหรับระบบ AI เป็นเรื่องยาก ความคลุมเครือนี้ยิ่งทวีความรุนแรงขึ้นด้วยความหลากหลายในการตีความจริยธรรมทางวัฒนธรรมและภูมิภาค นอกจากนี้ ความก้าวหน้าอย่างรวดเร็วของ AI มักแซงหน้าความพยายามด้านกฎระเบียบ ทำให้เกิดช่องว่างระหว่างแนวทางจริยธรรมกับความเป็นจริงของการใช้งาน AI

  • การรักษาสมดุลระหว่างจริยธรรมกับนวัตกรรม: การรักษาสมดุลระหว่างข้อจำกัดทางจริยธรรมกับแรงผลักดันด้านนวัตกรรมยังคงเป็นความท้าทายที่สำคัญ ผู้มีส่วนได้ส่วนเสียจากภาคเอกชนและสถาบันวิจัยแสดงความกังวลเกี่ยวกับข้อเสียเปรียบในการแข่งขันที่อาจเกิดขึ้น หากการปฏิบัติตามมาตรฐานจริยธรรมที่เข้มงวดเกินไปจะขัดขวางการพัฒนาเทคโนโลยี

  • การขาดกลไกการบังคับใช้ระดับโลก: การรับรองความร่วมมือและการสร้างมาตรฐานระดับโลกในด้านจริยธรรม AI เป็นเรื่องที่ท้าทาย เนื่องจากขาดกลไกการบังคับใช้ AI ในระดับโลก  แม้ข้อเสนอแนะของ UNESCO จะได้รับการยอมรับอย่างกว้างขวาง แต่ก็ไม่ใช่สนธิสัญญาที่มีผลผูกพันทางกฎหมาย ซึ่งหมายความว่าการนำไปปฏิบัติขึ้นอยู่กับความสมัครใจของรัฐสมาชิก

  • อคติในระบบ AI และผลกระทบต่อกลุ่มชายขอบ: AI มีศักยภาพที่จะทำให้อคติที่มีอยู่เดิมในสังคมเลวร้ายลง ซึ่งก่อให้เกิดอันตรายเพิ่มเติมต่อกลุ่มที่ถูกเลือกปฏิบัติหรือถูกชายขอบอยู่แล้ว การศึกษาแสดงให้เห็นว่าแบบจำลองภาษาขนาดใหญ่สามารถแสดงอคติทางเพศและวัฒนธรรมได้ ซึ่งเน้นย้ำถึงความจำเป็นเร่งด่วนในการวิจัยและนโยบายเพื่อแก้ไขอคติเหล่านี้  นอกจากนี้ยังมีความกังวลเกี่ยวกับการใช้ AI เพื่อการบิดเบือนพฤติกรรม และการคุกคามสิทธิมนุษยชน

โอกาส:

  • การสร้างมาตรฐานจริยธรรมระดับโลก: ข้อเสนอแนะของ UNESCO นำเสนอโอกาสในการสร้างมาตรฐานจริยธรรมระดับโลกสำหรับการพัฒนา AI ซึ่งทำหน้าที่เป็นจุดอ้างอิงร่วมกันสำหรับผู้กำหนดนโยบาย นักพัฒนา และผู้ใช้งานระบบ AI ทั่วโลก สิ่งนี้สามารถนำไปสู่การกำกับดูแล AI ที่สอดคล้องและมีจริยธรรมมากขึ้นในภูมิภาคต่างๆ ซึ่งเป็นสิ่งสำคัญในการสร้างระบบนิเวศ AI ที่รับผิดชอบ

  • การส่งเสริมความไว้วางใจของสาธารณะ: การพัฒนา AI ที่ยึดมั่นในหลักการทางจริยธรรมสามารถส่งเสริมความไว้วางใจของสาธารณะในเทคโนโลยีนี้ ซึ่งเป็นสิ่งจำเป็นสำหรับการยอมรับและการใช้งานอย่างแพร่หลาย การสร้างความไว้วางใจนี้ยังส่งเสริมการลงทุนในนวัตกรรม AI ที่รับผิดชอบ

  • การยกระดับการศึกษาและการรู้เท่าทัน AI: ข้อเสนอแนะเน้นย้ำถึงความสำคัญของการศึกษาและการรู้เท่าทัน AI ซึ่งเป็นโอกาสในการเตรียมความพร้อมให้นักเรียนและครูมีความเข้าใจและทักษะที่จำเป็นในการมีส่วนร่วมกับ AI อย่างมีจริยธรรม การเสริมสร้างความรู้ความเข้าใจนี้ช่วยให้มั่นใจว่า AI จะมีส่วนช่วยในเชิงบวกต่อสังคมและสิ่งแวดล้อม

  • การขับเคลื่อนความร่วมมือระดับโลก: ความท้าทายที่เกิดจาก AI ต้องการความร่วมมือระดับโลกที่แข็งแกร่ง  ข้อเสนอแนะของ UNESCO เป็นแพลตฟอร์มสำหรับการแบ่งปันความรู้และแนวปฏิบัติที่ดีที่สุดระหว่างประเทศต่างๆ และภาคส่วนต่างๆ  การมีส่วนร่วมของภาคเอกชนและภาคประชาสังคมผ่านกลไกต่างๆ เช่น AI Ethics Business Council และ Global AI Ethics and Governance Observatory ยิ่งเสริมสร้างความร่วมมือนี้

  • การเปลี่ยนผ่านจากหลักการสู่การปฏิบัติ: UNESCO ได้พัฒนาเครื่องมือที่เป็นนวัตกรรมใหม่ เช่น ระเบียบวิธีประเมินความพร้อม (RAM) และการประเมินผลกระทบทางจริยธรรม (EIA) เครื่องมือเหล่านี้ช่วยให้ประเทศต่างๆ แปลหลักการทางจริยธรรมไปสู่นโยบายและแนวปฏิบัติที่เป็นรูปธรรม ซึ่งเป็นการเปลี่ยนแปลงรูปแบบธุรกิจที่ขับเคลื่อน AI ไปสู่ผลลัพธ์ที่เป็นธรรม ครอบคลุม ยั่งยืน และไม่เลือกปฏิบัติ การนำ RAM ไปใช้ในกว่า 50 ประเทศ  แสดงให้เห็นถึงความมุ่งมั่นในการสร้างรากฐานสำหรับการกำกับดูแล AI ที่มีจริยธรรมและเหมาะสมกับบริบท


VI. บทสรุปและข้อเสนอแนะ

ข้อเสนอแนะของ UNESCO ว่าด้วยจริยธรรมของปัญญาประดิษฐ์เป็นกรอบการทำงานระดับโลกที่บุกเบิก ครอบคลุม และยึดสิทธิมนุษยชนเป็นศูนย์กลาง ซึ่งได้รับการรับรองโดยรัฐสมาชิก 193 ประเทศ เอกสารนี้มีความสำคัญอย่างยิ่งในการนำทางและชี้นำการพัฒนาและการใช้งาน AI เพื่อให้มั่นใจว่าเทคโนโลยีอันทรงพลังนี้จะรับใช้มนุษยชาติและสิ่งแวดล้อมอย่างแท้จริง โดยเปลี่ยนผ่านจากการกำกับดูแลตนเองไปสู่ธรรมาภิบาลที่กำกับโดยรัฐ การกำหนดค่านิยมสากลและหลักการสำคัญ 10 ประการ รวมถึงข้อห้ามที่ชัดเจนในการใช้ AI เพื่อการให้คะแนนทางสังคมและการเฝ้าระวังมวลชน  แสดงให้เห็นถึงแนวทางที่รอบด้านและมุ่งมั่นในการป้องกันอันตรายที่ร้ายแรงที่สุดของ AI ในขณะที่ส่งเสริมประโยชน์สูงสุดของมัน


แม้กรอบการทำงานนี้จะแข็งแกร่งและมีวิสัยทัศน์ แต่ประสิทธิภาพของมันขึ้นอยู่กับการนำไปปฏิบัติอย่างต่อเนื่องและปรับตัวได้โดยผู้มีส่วนได้ส่วนเสียทุกฝ่าย ความท้าทายต่างๆ เช่น ความหลากหลายทางวัฒนธรรม ช่องว่างด้านกฎระเบียบ และการรักษาสมดุลระหว่างจริยธรรมกับนวัตกรรม ยังคงต้องได้รับการแก้ไขอย่างต่อเนื่อง  อย่างไรก็ตาม โอกาสในการสร้างมาตรฐานจริยธรรมระดับโลก การส่งเสริมความไว้วางใจของสาธารณะ และการยกระดับการศึกษาด้าน AI นั้นมีมหาศาล  เครื่องมือที่ UNESCO พัฒนาขึ้น เช่น ระเบียบวิธีประเมินความพร้อม (RAM) และการประเมินผลกระทบทางจริยธรรม (EIA) ได้พิสูจน์แล้วว่าเป็นกลไกที่มีประสิทธิภาพในการแปลงหลักการไปสู่การปฏิบัติในระดับประเทศและระดับองค์กร


เพื่อให้มั่นใจว่าข้อเสนอแนะของ UNESCO จะนำไปสู่การเปลี่ยนแปลงที่ยั่งยืนและมีผลกระทบเชิงบวกต่อสังคมอย่างแท้จริง ขอเสนอแนะแนวทางสำหรับการประยุกต์ใช้ในอนาคตดังนี้:

  • การเสริมสร้างกรอบกฎหมายระดับชาติ: รัฐบาลควรเร่งรัดการปรับใช้หลักการของ UNESCO ให้เป็นกฎหมายและนโยบายระดับชาติที่ชัดเจนและบังคับใช้ได้ โดยเฉพาะอย่างยิ่งในด้านการคุ้มครองข้อมูลและความเป็นส่วนตัว การไม่เลือกปฏิบัติ และการกำกับดูแลโดยมนุษย์ เพื่อให้แน่ใจว่ามีกลไกทางกฎหมายที่แข็งแกร่งในการรองรับการพัฒนา AI ที่มีจริยธรรม

  • การลงทุนในการศึกษาและสร้างความตระหนักรู้: ควรเพิ่มการลงทุนในการศึกษาจริยธรรม AI และการรู้เท่าทัน AI สำหรับทุกภาคส่วนของสังคม ตั้งแต่ผู้พัฒนาระบบไปจนถึงผู้ใช้งานทั่วไป เพื่อสร้างความเข้าใจที่ลึกซึ้งเกี่ยวกับผลกระทบของ AI และส่งเสริมการใช้งานอย่างรับผิดชอบ รวมถึงการพัฒนาทักษะที่จำเป็นในการปรับตัวเข้ากับโลกที่ขับเคลื่อนด้วย AI

  • การส่งเสริมความร่วมมือพหุภาคี: ควรส่งเสริมความร่วมมือที่แข็งแกร่งขึ้นระหว่างรัฐบาล ภาคเอกชน ภาคสังคม และสถาบันการศึกษา เพื่อแบ่งปันแนวปฏิบัติที่ดีที่สุด แก้ไขความท้าทายที่ซับซ้อนของการกำกับดูแล AI ในระดับโลก และสร้างฉันทามติในการพัฒนามาตรฐานสากล

  • การพัฒนาเครื่องมือประเมินผลกระทบที่ปรับเปลี่ยนได้: สนับสนุนการพัฒนาและปรับปรุงเครื่องมือประเมินผลกระทบทางจริยธรรม (EIA) และระเบียบวิธีประเมินความพร้อม (RAM) อย่างต่อเนื่อง  เพื่อให้เครื่องมือเหล่านี้สามารถตอบสนองต่อพลวัตของเทคโนโลยี AI ที่เปลี่ยนแปลงอย่างรวดเร็ว และช่วยให้ผู้มีส่วนได้ส่วนเสียสามารถประเมินและลดความเสี่ยงทางจริยธรรมได้อย่างมีประสิทธิภาพ

  • การให้ความสำคัญกับกลุ่มเปราะบาง: เน้นย้ำการให้ความสำคัญกับการปกป้องและส่งเสริมสิทธิของกลุ่มเปราะบางและชายขอบ 1 เพื่อให้แน่ใจว่าประโยชน์ของ AI จะเข้าถึงทุกคนอย่างเท่าเทียม และไม่ก่อให้เกิดอันตรายเพิ่มเติมหรือทำให้อคติที่มีอยู่เดิมแย่ลง


ด้วยการดำเนินการตามแนวทางเหล่านี้ ประชาคมโลกสามารถร่วมกันสร้างอนาคตที่ AI เป็นพลังงานที่รับผิดชอบและเป็นประโยชน์ต่อมนุษยชาติอย่างแท้จริง


ส่วนที่ 2

จริยธรรม AI ของ UNESCO: จากหลักการสู่ความจริงในโลกแห่งปัญญาประดิษฐ์


เมื่อ AI "ตัดสินใจ" ชีวิตคน: เรื่องเล่าที่เปลี่ยนโลก


ลองนึกภาพว่าคุณสมัครงานแล้วถูกปฏิเสธโดยระบบ AI ที่มองว่าคุณ "ไม่เหมาะสม" เพียงเพราะอยู่ในย่านที่มีรายได้น้อย หรือถูกธนาคารปฏิเสธสินเชื่อเพราะ AI วิเคราะห์ว่าคุณเป็นผู้หญิง วัย 30 และยังโสด — เรื่องแบบนี้ไม่ใช่นิยายวิทยาศาสตร์แล้ว แต่เกิดขึ้นจริงในปัจจุบัน


ปัญหาเหล่านี้ทำให้องค์การยูเนสโก (UNESCO) ต้องลุกขึ้นมาทำสิ่งที่ไม่เคยมีมาก่อน: สร้างมาตรฐานจริยธรรม AI ระดับโลกฉบับแรกที่ได้รับความเห็นชอบจากทั้ง 193 ประเทศ แต่การทำให้ "หลักการ" กลายเป็น "การปฏิบัติจริง" นั้นยากกว่าที่คิด...

AI กับปัญหาที่ใครก็แก้ไม่ได้


ทำไม AI ถึงต้องมี "จริยธรรม"?

AI ไม่ใช่แค่เทคโนโลยี แต่เป็นกระจกสะท้อนสังคม ที่ขยายทั้งข้อดีและข้อเสียของเราออกไป หากข้อมูลที่ใช้ฝึก AI มีอคติ ผลลัพธ์ก็จะมีอคติตาม


ตัวอย่างที่เห็นได้ชัด:

  • ChatGPT และ AI ภาษา มักจะบรรยายผู้ชายในบทบาทมืออาชีพ แต่ผู้หญิงในบทบาทดูแลบ้าน

  • ระบบสมัครงาน บางระบบเลือกปฏิบัติผู้สมัครที่มีชื่อฟังดู "ต่างชาติ"

  • AI ในระบบยุติธรรม อาจให้คำแนะนำการลงโทษที่หนักกว่าสำหรับกลุ่มคนผิวสี

คำถาม: เมื่อ AI เป็นผู้ตัดสินใจแทนเรา ใครจะรับผิดชอบหากเกิดความผิดพลาด?

UNESCO ลงมือ: "ข้อเสนอแนะ" ที่ไม่ธรรมดา

ทำไมต้องเป็น UNESCO?


UNESCO มีประสบการณ์ยาวนานในการจัดการประเด็นจริยธรรมที่ซับซ้อน ตั้งแต่การโคลนมนุษย์ไปจนถึงการจัดการข้อมูลพันธุกรรม เมื่อ AI เริ่มสร้างปัญหาเดียวกัน UNESCO จึงต้องก้าวเข้ามา


สิ่งพิเศษของข้อเสนอแนะนี้:

  • เป็นมาตรฐานระดับโลกฉบับแรกและเดียวเรื่องจริยธรรม AI

  • ได้รับการรับรองจากทุกประเทศสมาชิก UNESCO (193 ประเทศ)

  • ไม่ใช่แค่หลักการ แต่มีแผนปฏิบัติที่เป็นรูปธรรม


4 ค่านิยมหลักที่ต้องจำ

  1. สิทธิมนุษยชนเป็นใหญ่ - AI ต้องเคารพศักดิ์ศรีและเสรีภาพของมนุษย์

  2. สังคมที่ยุติธรรม - AI ต้องลดความเหลื่อมล้ำ ไม่ใช่เพิ่ม

  3. ความหลากหลาย - AI ต้องเป็นประโยชน์ต่อทุกคน ไม่ใช่แค่กลุ่มที่มีอำนาจ

  4. สิ่งแวดล้อม - AI ต้องคำนึงถึงผลกระทบต่อโลกใบนี้


กฎเหล็กที่ห้ามแตะ

UNESCO ตั้งเส้นแดงที่ชัดเจน:

  • ห้ามใช้ AI ให้คะแนนพลเมือง (แบบที่เคยเห็นในบางประเทศ)

  • ห้ามเฝ้าระวังประชาชนขนาดใหญ่ โดยไม่มีการควบคุม


จากกระดาษสู่การปฏิบัติ: ยากแค่ไหน?


เครื่องมือที่ UNESCO สร้างขึ้น


1. การประเมินความพร้อม (RAM)

  • เป็นการ "ตรวจสุขภาพ" ระบบ AI ของประเทศ

  • ดูว่าประเทศไหนพร้อมจัดการกับ AI อย่างมีจริยธรรมแค่ไหน

  • กว่า 50 ประเทศนำไปใช้แล้ว


2. การประเมินผลกระทบทางจริยธรรม (EIA)

  • ก่อนปล่อย AI ออกมา ต้องตรวจสอบว่าจะเกิดผลเสียอะไรบ้าง

  • เหมือนการ "ตรวจสุขภาพ" ก่อนวางยาลงตลาด


กรณีศึกษา: ชิลีเป็นต้นแบบ

ชิลีเป็นหนึ่งในประเทศแรกที่นำ RAM ไปใช้จริง ผลลัพธ์คือ:

  • ปรับปรุงนโยบาย AI แห่งชาติ

  • ร่างกฎหมายใหม่ที่ส่งเสริม AI ที่ยึดมนุษย์เป็นศูนย์กลาง

  • สร้างระบบประเมินความเสี่ยง AI ตามระดับ


ความจริงที่ต้องเผชิญ: ปัญหาที่ยังแก้ไม่ได้


ความท้าทายที่ซ่อนอยู่

1. แต่ละวัฒนธรรมเข้าใจ "จริยธรรม" ต่างกัน

  • "ความเป็นธรรม" ในสหรัฐฯ อาจไม่เหมือนในไทย

  • "ความเป็นส่วนตัว" ในยุโรปเข้มงวดกว่าเอเชีย

2. การแข่งขันกับนวัตกรรม

  • บริษัทเทคกังวลว่าข้อจำกัดจะทำให้แข่งขันไม่ได้

  • ประเทศที่ควบคุมเข้มอาจตกหลังทางเทคโนโลจี

3. ไม่มีตำรวจระดับโลก

  • ข้อเสนอแนะ UNESCO ไม่ใช่กฎหมาย แค่ "คำแนะนำ"

  • ประเทศที่ไม่ปฏิบัติตามก็ไม่มีใครจับได้


ตัวอย่างความขัดแย้งในโลกจริง

  • การรักษาพยาบาล: AI ช่วยวินิจฉัยโรคได้แม่นยำ แต่หากห้ามใช้ข้อมูลผู้ป่วยอย่างเข้มงวด อาจทำให้คนป่วยหนักไม่ได้รับการรักษาที่ดีที่สุด

  • ความปลอดภัย: กล้องวงจรปิด AI ช่วยจับอาชญากรได้ แต่ก็สามารถใช้เฝ้าระวังประชาชนได้เช่นกัน


มองไปข้างหน้า: เราจะทำอย่างไร?


สิ่งที่เห็นผลแล้ว

ภาคธุรกิจเริ่มตื่นตัว

  • Microsoft, Salesforce, Lenovo ลงนามรับรองหลักการ UNESCO

  • สร้างโครงการ AI ที่เน้นความเท่าเทียมและความยั่งยืน

การศึกษาเริ่มเปลี่ยน

  • UNESCO พัฒนาหลักสูตรจริยธรรม AI สำหรับครูและนักเรียน

  • เน้นการสอนให้เข้าใจทั้งประโยชน์และอันตรายของ AI

สิ่งที่ยังต้องทำ

สำหรับรัฐบาล:

  • ปรับปรุงกฎหมายให้รองรับการควบคุม AI

  • ลงทุนสร้างความรู้ความเข้าใจให้ข้าราชการ

สำหรับธุรกิจ:

  • นำหลักการ UNESCO มาใช้ในการพัฒนาผลิตภัณฑ์

  • เพิ่มความโปร่งใสในวิธีการทำงานของ AI

สำหรับพลเมือง:

  • เรียนรู้เรื่อง AI เพื่อไม่ให้ถูกหลอกหรือเอาเปรียบ

  • ร่วมเสียงเรียกร้องให้มีการควบคุม AI ที่เหมาะสม


บทสรุป: การเดินทางที่ยาวไกล

ข้อเสนอแนะจริยธรรม AI ของ UNESCO เป็นจุดเริ่มต้นที่ดี แต่ไม่ใช่จุดจบ การทำให้ AI เป็น "ผู้ช่วยที่ดี" ไม่ใช่ "เจ้านายที่เลวร้าย" ต้องอาศัยความร่วมมือจากทุกฝ่าย


คำถามสำคัญที่เราทุกคนต้องตอบ:

  • เราต้องการให้ AI ช่วยสร้างสังคมที่ยุติธรรมขึ้น หรือทำให้ความเหลื่อมล้ำเลวร้ายลง?

  • เราพอใจกับการเป็น "ผู้บริโภค AI" หรือต้องการมีส่วนร่วมในการกำหนดทิศทางของเทคโนโลยีนี้?

อนาคตของ AI ไม่ได้ขึ้นอยู่กับแค่นักเขียนโปรแกรมหรือผู้บริหารบริษัทเทค แต่ขึ้นอยู่กับการเลือกของเราทุกคน

ท้ายที่สุดแล้ว เทคโนโลยีเป็นเพียงเครื่องมือ — สิ่งที่สำคัญคือใครเป็นคนถือและใช้มันอย่างไร

ต้องการเรียนรู้เพิ่มเติม? ลองค้นหาว่าบริษัทหรือหน่วยงานที่คุณใช้บริการมีนโยบาย AI อย่างไร หรือร่วมเสียงเรียกร้องให้รัฐบาลไทยนำหลักการ UNESCO มาปรับใช้ การเปลี่ยนแปลงเริ่มต้นจากความตระหนักรู้ของแต่ละคน


แหล่งข้อมูลอ้างอิง (References)

United Nations Educational, Scientific and Cultural Organization. (2021). Recommendation on the Ethics of Artificial Intelligence. Retrieved from https://unesdoc.unesco.org/ark:/48223/pf0000380455

United Nations Educational, Scientific and Cultural Organization. (n.d.). Recommendation on the Ethics of Artificial Intelligence. UNESCO. Retrieved from https://www.unesco.org/en/artificial-intelligence/recommendation-ethics

United Nations Educational, Scientific and Cultural Organization. (n.d.). Readiness Assessment Methodology (RAM) for the Recommendation on the Ethics of AI. UNESCO. Retrieved from https://www.unesco.org/en/artificial-intelligence/ram

United Nations Educational, Scientific and Cultural Organization. (n.d.). Ethical Impact Assessment (EIA). UNESCO. Retrieved from https://www.unesco.org/en/artificial-intelligence/eia

United Nations Educational, Scientific and Cultural Organization. (n.d.). Global Forum on the Ethics of AI. UNESCO. Retrieved from https://www.unesco.org/en/artificial-intelligence/global-forum

UNESCO. (2023, December 1). Chile Leads the Way in Implementing UNESCO's Recommendation on the Ethics of AI. Retrieved from https://www.unesco.org/en/articles/chile-leads-way-implementing-unescos-recommendation-ethics-ai

UNESCO. (2024, May 13). Indonesia Launches its AI Ethics Implementation with UNESCO's Readiness Assessment Methodology. Retrieved from https://www.unesco.org/en/articles/indonesia-launches-its-ai-ethics-implementation-unescos-readiness-assessment-methodology

UNESCO. (2024, February 12). 8 Global Tech Companies Sign UNESCO's Business Council for Ethics of AI Pledge. Retrieved from https://www.unesco.org/en/articles/8-global-tech-companies-sign-unescos-business-council-ethics-ai-pledge

Mihut, G. (2023). A Comparative Analysis of UNESCO's Recommendation on the Ethics of AI with Corporate AI Ethics Guidelines. AI and Ethics, 3(4), 1-15.

Savin, A. (2022). UNESCO’s AI Recommendation: A Soft Law Approach to Hard Problems. Journal of Law, Technology and Society, 1(1), 1-20.

Holmes, W., & Miao, F. (2021). Guidance for AI in Education: Policy makers. UNESCO. Retrieved from https://unesdoc.unesco.org/ark:/48223/pf0000378416


Comments


BRAINBOOSTED

by Aj. P'O
Wix Cover Photos (4)_edited.png

"เพราะสงสัย จึงได้ค้นหา ความรู้ที่ได้มา จึงขอแบ่งปัน"
ที่ Brainboosted เราเชื่อว่าคำถาม และข้อสงสัยคือจุดเริ่มต้นของการเรียนรู้

ยิ่งเราสงสัยมากเท่าไหร่ เราก็ยิ่งได้ศึกษาค้นคว้ามากขึ้นเท่านั้น

และเมื่อเราได้ความรู้มาแล้ว สิ่งที่ดีที่สุดคือการส่งต่อ

การแบ่งปันความรู้ การต่อยอดความคิด จะช่วยเปลี่ยนแปลงโลกใบนี้ให้ดีขึ้น
Brainboosted คือพื้นที่แห่งการแลกเปลี่ยน หากคุณมีคำถาม เราจะพยายามหาคำตอบ

ความรู้คือของขวัญ และเราเชื่อว่าการให้คือการรับที่ยิ่งใหญ่ที่สุด

©2023 by Brainboosted. Proudly created with Wix.com

bottom of page