16 มกราคม 2569 ทุกวันนี้การใช้ AI เป็นเรื่องปกติ เข้ามามีบทบาททั้งในชีวิตประจำวัน และการทำงาน แต่หารู้ไหมว่า หลายคนยยังเข้าใจผิดว่า AI มีความเป็นมนุษย์/มีเจตจำนงเหมือนคน โดยเฉพาะการเรียก AI ว่า เป็น Actor แสดงให้เห็นว่า ความสับสนนี้สร้างความเสี่ยงจริงในโลกจริง ทั้งด้านวัฒนธรรมและด้านความรับผิดชอบทางกฎหมาย/สังคม พร้อมเสนอวิธีเลี่ยงแบบเป็นหลักปฏิบัติ จาก World Economic Forum

ถ้าอยากปกป้องงานสร้างสรรค์ ความเชื่อมั่นของสาธารณะ และความรับผิดตามกฎหมาย อุตสาหกรรมที่ใช้สื่อสังเคราะห์ควรยึด 3 หลักนี้

1. แยกให้ชัด ระหว่างโลกในนิยาย กับ โลกความจริงเชิงธุรกิจ

  • ในนิยาย (Story) ตัวละครสังเคราะห์จะแสดงอารมณ์อะไรก็ได้ตามที่พล็อตต้องการ แต่ในตลาด/การค้าจริง ความถูกต้อง ต้องเป๊ะ 100%
  • แต่พอออกสู่ตลาด ต้องเรียกให้ตรงว่าเป็นเครื่องมือ: licensed เป็น Synthetic Performer / Digital Replica ไม่ใช่ Actor

หากเรียกผิด คนจะเข้าใจผิดว่า ใครทำงานจริง

2. ต้องระบุให้ชัดว่า มนุษย์คนไหน/องค์กรไหน เพื่อรับผิดชอบผลลัพธ์

  • ยิ่งเหมือนคน ยิ่งต้องบอกชื่อผู้รับผิดชอบให้ชัดเจน
  • ห้ามใช้ AI เป็นโล่ แล้วอ้าง black box เพื่อหนีความรับผิดชอบ
  • ระบบรับผิดชอบไม่ได้ คนที่ Deploy แบบทำจริง ต้องรับผิดชอบเสมอ

3. บอกความจริงทุกจุดที่ผู้ใช้เจอ

  • Customer Service Bot เสียงเหมือนคนแต่ไม่บอกว่าปลอม = หลอก
  • Synthetic News Presenter แสดงความเห็นแต่ไม่บอกเจ้าของ = ทำลายความเชื่อมั่น
  • ใช้ Labels / Watermarks / Interface Design เพื่อบอกให้ชัดเจนว่า นี่คือระบบสังเคราะห์ และใครอยู่เบื้องหลัง

ข้อสรุป:

อย่าทำให้ AI ดูเหมือนเป็นคนในบริบทโลกจริง เพราะจะทำให้สังคมหลงผิดเรื่องความรับผิดชอบ และค่อย ๆ ลดคุณค่าความเป็นมนุษย์ในงานสร้างสรรค์

Source:

WEF