อย่าเพิ่งไปให้สุด แต่ถ้าหยุดก็ตกขบวน … เรื่องราว “กฏเกณฑ์ AI ประเทศไทย” (AI Ethics) แค่ไหนจึงพอดี

Facebook
Twitter
จริยธรรมปัญญาประดิษฐ์ หรือ AI Ethics ไม่ใช่เรื่องใหม่ แต่ถูกพูดถึงมากขึ้นไปพร้อมกับความสามารถล้ำ ๆ ของ ChatGPT และ Generative AI ที่ทำให้ใครหลายคนเริ่มเปรียบเทียบสกิลของตัวเองกับ AI ข้อถกเถียงที่เกิดขึ้นจากความคลุมเครือระหว่างมนุษย์ กับ AI ในบางบริบทที่เริ่มแนบเนียนจนแยกไม่ออก เช่น ลิขสิทธิ์ในงานเขียน งานศิลปะ ความเหมาะสมของการใช้งาน AI ในด้านการแพทย์ กฏหมาย การศึกษา งานวิจัย ฯลฯ ไปจนถึงความเสี่ยงและอันตรายใหม่ ๆ จากการนำความสามารถของเทคโนโลยีเหล่านี้ไปใช้ในทางที่ผิด ทำให้กรอบ Framework หรือ Guideline AI Ethics ของหลาย ๆ ประเทศเริ่มไม่ครอบคลุม และ ต้องปรับไปพร้อมกับกระแสการพัฒนาเทคโนโลยีดังกล่าว
 
สาระการพูดคุยถึงประเด็นดังกล่าวจากสัมมนา “บทบาทของจริยธรรมในการวิจัยและพัฒนาปัญญาประดิษฐ์” ในงานประชุมวิชาการประจำปี สวทช. หรือ NAC2023 โดยมี ดร.ศรัณย์ สัมฤทธิ์เดชขจร ผู้ช่วยผู้อำนวยการ สวทช. กล่าวเปิดการสัมมนา พร้อมด้วยวิทยากรผู้มีบทบาทด้าน AI ในบริบทต่าง ๆ ได้แก่ ดร.ศักดิ์ เสกขุนทด ที่ปรึกษาอาวุโส สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) ผศ.ดร.รัชฎา คงคะจันทร์ อาจารย์ประจำสาขาวิทยาศาสตร์และนวัตกรรมข้อมูล, วิทยาลัยสหวิทยาการ มหาวิทยาลัยธรรมศาสตร์ ดร.พิชัยรัตน์ จิรานันรัตน์ กรรมการ บริษัท ที-อีโคซิส จำกัด นพ.ภัทรวินฑ์ อัตตะสาระ ผู้อำนวยการสำนักดิจิทัลการแพทย์ กรมการแพทย์ และ ดร.ชัย วุฒิวิวัฒน์ชัย ผู้อำนวยการ เนคเทค สวทช. ร่วมดำเนินรายการช่วงเสวนาแลกเปลี่ยนมุมมอง “ลักษณะการกำกับดูแลปัญญาประดิษฐ์ที่เหมาะสมกับบริบทของประเทศไทย”

AI Ethics ต้องไม่ขัดขวางการสร้างนวัตกรรม

สหภาพยุโรป (EU) จะเป็นหน่วยงานรัฐแห่งแรกของโลกที่ออกร่างกฏหมายรับมือกับความท้าทายด้าน AI หรือ AI Act ซึ่งความเข้มข้นของการควบคุมจะขึ้นอยู่กับความเสี่ยงของ AI ที่แบ่งออกเป็น 3 ระดับ ได้แก่ ความเสี่ยงที่ยอมรับไม่ได้ ระบบหรือแอปพลิเคชันเหล่านั้นจะถูกแบน เช่น ระบบให้คะแนนทางสังคม (Social Credit) หากเป็นระบบที่มีความเสี่ยงสูงจะมีข้อกำหนดทางกฎหมายเฉพาะ เช่น เครื่องมือสแกน CV ที่จัดอันดับผู้สมัครงาน ส่วนระบบอื่น ๆ ที่ไม่เข้าเกณฑ์ความเสี่ยงเหล่านี้รัฐจะไม่ได้เข้าไปควบคุม
 
ในมุมมองของดร.ศักดิ์ AI Act เป็นอีกหนึ่งตัวอย่างของความพยายามในการสร้างความสมดุลในเรื่อง AI Ethics ที่สามารถนำมาปรับใช้กับประเทศไทย ภายใต้แผนปฏิบัติการด้านปัญญาประดิษฐ์แห่งชาติที่วางยุทธศาสตร์แรกเป็นเรื่องของ AI Ethics กล่าวคือ AI Ethics จะต้องไม่เข้มข้นเกินไป ไม่ห้ามไปหมดทุกอย่าง จนไปขัดขวางการพัฒนานวัตกรรมด้าน AI ใหม่ ๆ ในขณะเดียวกันก็ต้องปกป้องสิทธิ ความปลอดภัย ของประชาชนไปด้วย โดยเริ่มต้นอาจกำกับดูแลเป็น Sandbox ทดลองควบคุมสิ่งแวดล้อมไม่ให้เกิดความเสียหาย ให้ประชาชนได้เรียนรู้ คุ้นเคย และเห็นผลที่จะตามมา โดยหน่วยงานรับผิดชอบในแต่ละบริบทของประเทศ เช่น การเงิน ประกัน สาธารณสุข เป็นต้น ต้องทำงานร่วมกัน ออกแนวทางไปในทิศทางเดียวกัน
 
นอกจากนี้ในเรื่องของ Sandbox ยังสามารถนำมาใช้กับ AI ด้านการแพทย์ที่ตั้งการ์ดความปลอดภัยสูงสุดเพราะเกี่ยวข้องกับความเป็นความตายของคนโดยตรง โดยเฉพาะอย่างยิ่งการขึ้นทะเบียนเครื่องมือแพทย์ที่ต้องผ่านด่านหินพอสมควร นพ.ภัทรวินฑ์มีความเห็นว่า เราสามารถศึกษากรณีตัวอย่าง AI ด้านการแพทย์ที่ประสบความสำเร็จทั้งในด้านประสิทธิภาพและจริยธรรมจากประเทศอื่น ๆ มาทดลองขึ้นทะเบียนเครื่องมือแพทย์ตามกฏเกณฑ์ของไทยในปัจจุบัน หากไม่ผ่านอาจต้องมาคุยกันว่ากฏเกณฑ์ดังกล่าวเข้มข้นไปหรือไม่ ควรปรับอย่างไร เพื่อเปิดโอกาสให้ตลาดเครื่องมือแพทย์ของไทยเติบโต และปลอดภัยกับประชาชน
 
อย่างไรก็ตาม ผศ.ดร.รัชฎา เสนอว่า ประเทศไทยเริ่มมีการกำหนดหลักจริยธรรมปัญญาประดิษฐ์ (Thailand AI Ethics Guidline) ในปี 2564 เพื่อเป็นแนวทางในการวิจัยพัฒนา โดยให้ความสำคัญกับคน 3 กลุ่ม คือ 1) กลุ่มผู้บริหาร/ผู้กำหนดนโยบาย 2) นักพัฒนา 3) ผู้ใช้งาน ซึ่งแต่ละกลุ่มจะมีรายละเอียดที่ต้องให้ความสำคัญกับ AI Ethics ภายใต้ 6 หลักการ ได้แก่
 
1. ความสามารถในการแข่งขัน และการพัฒนาอย่างยั่งยืน การสร้างสรรค์สิ่งใดจะต้องอยู่บนพื้นฐานของการใช้ประโยชน์ และความสุขในการใช้งาน ส่งเสริมให้เกิดนวัตกรรมใหม่ เพิ่มความสามารถในการแข่งขัน
2. ความสอดคล้องกับกฎหมาย จริยธรรม และมาตรฐานสากล โดยมนุษย์ต้องเป็นศูนย์กลางและเป็นผู้ตัดสินใจ (Human-Centered AI)
3. ออกแบบการใช้งานด้วยความโปร่งใส ให้สามารถอธิบาย และคาดการณ์ได้ (Explainable Model)
4. ความมั่นคงปลอดภัย และความเป็นส่วนตัว งานวิจัย AI ต้องช่วยลดการเสี่ยงภัย ป้องการโจมตี หรือภัยพิบัติต่างๆ ก็จะถือว่ามี Ethic ที่ดี
5. คุ้มครองข้อมูลส่วนบุคคล ข้อมูลที่เอามาสร้าง AI ต้องมีความเท่าเทียม หลากหลาย ครอบคลุม และเป็นธรรม ลดการแบ่งแยก และการลำเอียง ต้องออกแบบให้ระบบสามารถพิสูจน์ความเป็นธรรมได้
6. ความน่าเชื่อถือ และความมั่นใจในการใช้งานต่อสาธารณะ

มนุษย์เป็นนาย AI รับบทผู้ช่วย

“Human-Centric AI” เป็นอีกหนึ่ง Keyword สำคัญของจริยธรรม AI ที่ระบบ AI ใด ๆ ก็ตามควรมีมนุษย์เป็นศูนย์กลาง เป็นผู้ตัดสินใจ โดยมี AI เป็นเครื่องมืออำนวยความสะดวกเท่านั้น ยกตัวอย่าง AI ทางการแพทย์ในประเทศไทยที่ต้องรับบทผู้ช่วย หรือ ใช้ในบริบทการคัดกรองเบื้องต้นเท่านั้น “เพราะการแพทย์เป็นศิลปะ เรามีใบประกอบโรคศิลป์ การรักษาโรคไม่ได้ใช้แค่วิทยาศาสตร์อย่างเดียว แต่เป็นศิลปะการบูรณาการหลาย ๆ ศาสตร์ของแพทย์” นพ.ภัทรวินฑ์ กล่าว

ปัจจุบันกรมการแพทย์ ร่วมกับ มธ. กำลังพัฒนา AI Chest for All ช่วยตรวจคัดกรองโรคด้านทรวงอกผ่านรูปฟิล์มเอกซเรย์ได้แม่นยำมากกว่า 90% ช่วยลดภาระของนักรังสีแพทย์ที่กำลังขาดแคลน อย่างไรก็ตามจากค่าความแม่นยำดังกล่าว ความผิดพลาดยังเกิดขึ้นได้ จึงจำเป็นต้องมีแพทย์เป็นผู้กำกับดูแล และเป็นผู้วินิจฉัย ที่สำคัญ คือ คนไข้มีสิทธิในการเลือกว่าจะใช้ AI เป็นส่วนหนึ่งในการรักษาหรือไม่ ซึ่งแพทย์ต้องแจ้งให้คนไข้ทราบ และมีข้อตกลงเรื่องข้อมูลร่วมกัน
 
สอดคล้องกับการนำ AI มาช่วยตัดสินใจเรื่องใด ๆ ในภาคธุรกิจ จาก Knowledge-Based Asset Crowdsourcing with Digital Asset Incentive Model ของบริษัท ที่การนำเข้าข้อมูลสู่ Blockchian Database ของโมเดลดังกล่าว จำเป็นต้องมีผู้เชี่ยวชาญใน 2 ส่วนทั้งผู้สร้างข้อมูล (Bulider) และ ผู้ตรวจสอบข้อมูล (Validator) ก่อนเข้าสู่กระบวนการวิเคราะห์โดย AI เพื่อสร้าง Smart Avisory ให้กับผู้ใช้งาน ซึ่ง ดร.พิชัยรัตน์ อธิบายว่า ภาคเอกชนไม่ได้มองว่า AI เป็นของวิเศษ แต่เป็นเครื่องมือที่จะทำมาใช้งานโดยผสานทักษะของมนุษย์และข้อดีของ AI เข้าด้วยกัน โดยท้ายที่สุดแล้วมนุษย์ต้องปลายทางในการตัดสินใจ
 

AI Literacy ต้องมา เมื่อ AI ทำให้เกิดคำถามที่ยังไม่มีใครตอบได้ ?

หลากหลายข้อถกเถียงที่ยังไม่มีบทสรุปว่าเหมาะสมหรือไม่ที่จะนำ ChatGPT มาใช้งานกับการศึกษา หรือ งานวิจัย ในภาคการศึกษา การห้ามไม่ให้ใช้แพลตฟอร์มที่ทุกคนสามารถเข้าถึงได้ทั่วโลกอาจเป็นเรื่องยากเกินไป ดร.ศักดิ์ให้ความเห็นว่า ภาคการศึกษาจำเป็นต้องเปลี่ยนวิธีการวัดผลนักเรียนแบบใหม่ คำตอบถูก หรือ ผิด ต่อโจทย์ใด ๆ ไม่เพียงพออีกต่อไป เมื่อ ChatGTP ทำให้การรวบรวมข้อมูล ความรู้ต่าง ๆ เป็นงานรูทีน ดังนั้น จึงเป็นประเด็นที่ภาคการศึกษาต้องคิดหากระบวนการวัดผลที่จะแสดงให้เห็นทักษะการต่อยอดนำข้อมูลจาก ChatGPT สะท้อนกระบวนการคิดเชิงวิพากย์ การคิดอย่างมีวิจารญาณ (Critical Thinking)
 
สำหรับการวิจัยพัฒนา แน่นอนว่าเราไม่สามารถรู้ข้อมูล หรือ พารามิเตอร์ ที่ ChatGPT ใช้เทรนโมเดลได้ แล้วเราจะอ้างอิงข้อมูลเหล่านี้อย่างไร ไม่ให้ผิดจรรยาบรรณ การตรวจสอบ (Validator) ข้อมูลจาก ChatGPT อีกครั้งก่อนนำไปใช้กับการวิจัยและพัฒนานั้นเพียงพอหรือไม่อย่างไร แล้วใครจะเป็นคนตรวจสอบ
 
จากประเด็นข้างต้น เป็นตัวอย่างคำถามที่เกิดขึ้นกับภาคการศึกษาวิจัยเท่านั้น ยังมีอีกหลายบริบทที่ AI จะทำให้เกิดความคลุมเครือ รวมถึงอาจเกิดความเสี่ยงใหม่ ๆ ที่ทุกคนต้องรับมือ AI Literacy การรู้และเข้าใจ AI สามารถใช้ประโยชน์ได้ อย่างรู้เท่าทัน
 
ปัจจุบันประเทศไทยจัดทำ “แผนปฏิบัติการด้านปัญญาประดิษฐ์แห่งชาติฯ” ที่หยิบยกเรื่องของการทำ AI Governace มาเป็นหนึ่งในห้ายุทธศาสตร์สำคัญเพื่อผลักดันให้ประชาชนทุกกลุ่ม ทุกช่วงวัย มี AI Literacy รู้และเข้าใจ AI และสามารถปรับตัวอยู่กับเทคโนโลยีนี้ได้อย่างเท่าทัน เหมาะสม รวมถึงพัฒนาอัปเดทแนวทางจริยธรรมปัญญาประดิษฐ์ (AI Ethics) ให้สอดคล้องกับการเปลี่ยนแปลงของเทคโนโลยีและบริบทของโลกและประเทศอย่างต่อเนื่อง