แนวทางการใช้ Generative AI อย่างมีความรับผิดชอบกับข้อมูลที่ไม่มีโครงสร้าง

15 ก.ย. 2568

มาดู 6 ประเด็นด้านความปลอดภัยที่ควรพิจารณาในการใช้ Generative AI กับข้อมูลที่ไม่มีโครงสร้าง

วิธีที่ Generative AI (GenAI) นำข้อมูลมาใช้และใส่ “บริบท” เพิ่มเติมนั้น มีบทบาทสำคัญต่อการจัดการความเสี่ยงด้านความปลอดภัยขององค์กร โดยเฉพาะในเรื่องคุณภาพ ความถูกต้อง ความน่าเชื่อถือ และความสมบูรณ์ของข้อมูล หรือที่เรียกว่า Data Veracity ซึ่งครอบคลุมไปถึงประเด็นด้านความเป็นส่วนตัวของข้อมูลส่วนบุคคล ทรัพย์สินทางปัญญา ความน่าเชื่อถือขององค์กร และความรับผิดชอบต่อสังคม 

Generative AI กำลังได้รับความนิยมอย่างมาก เนื่องจากสามารถสร้างสรรค์คอนเทนต์ในหลากหลายรูปแบบ เช่น ข้อความ ภาพ วิดีโอ และเสียงดนตรี สำหรับธุรกิจที่เริ่มนำ GenAI มาใช้เพื่อเสริมสร้างความคิดสร้างสรรค์ นวัตกรรม และประสิทธิภาพ ความปลอดภัยจึงกลายเป็นเรื่องที่สำคัญอย่างยิ่ง โดยเฉพาะเมื่อต้องจัดการกับข้อมูลที่ไม่มีโครงสร้าง หากผู้บริหารเข้าใจความเสี่ยงเหล่านี้ ก็จะสามารถตัดสินใจได้อย่างรอบคอบและสร้างผลลัพธ์ที่ดียิ่งขึ้น 

ภายในปี 2026 องค์กรที่นำ GenAI มาใช้กับการจัดการเอกสารโดยตรง จะมีกรณีการใช้งานใหม่ๆ เพิ่มขึ้นถึง 20% ส่งผลให้เกิดการเพิ่มผลผลิต ขยายขีดความสามารถ และมอบประสบการณ์ที่ดีกว่าให้แก่ลูกค้า 
 — IDC FutureScape: Worldwide Future of Work 2024 Predictions, October 2023 

การใช้งาน Generative AI และข้อมูลที่พบได้บ่อย

ในด้านการสร้างคอนเทนต์ GenAI สามารถผสานความสามารถในการค้นหาและบริบทจากข้อมูลจำนวนมหาศาล เพื่อสร้างคำตอบหรือคอนเทนต์ที่ใกล้เคียงกับความคิดสร้างสรรค์ของมนุษย์ ช่วยเพิ่มประสิทธิภาพการทำงาน การปฏิบัติตามกฎระเบียบ และความคล่องตัวในการดำเนินงาน ทั้งนี้อยู่บนเงื่อนไขว่าข้อมูลต้องมีคุณภาพและมีมาตรการความปลอดภัย เช่น การวิเคราะห์และการจำแนกข้อมูล 

ตัวอย่างการใช้งานที่เริ่มเห็นมากขึ้น ได้แก่: 

  • การจัดการข้อมูลขาเข้าและขาออก 
  • การสร้างและปรับแต่งคอนเทนต์ด้านการตลาด โซเชียลมีเดีย และอีเมล 
  • การแปลงเอกสารเป็นดิจิทัล รวมถึงการจำแนกและแยกประเภทเอกสาร 
  • การเสริมและสังเคราะห์ข้อมูล 
  • AI เชิงสนทนาและแชตบอต 
  • การสรุปข้อมูลเชิงวิเคราะห์ (Extractive และ Abstractive Summarization) 

อย่างไรก็ตาม ยิ่งมีการนำไปใช้งานจริงมากขึ้น โดยเฉพาะกับข้อมูลที่ไม่มีโครงสร้าง ก็ยิ่งต้องให้ความสำคัญกับการปกป้องความถูกต้องและความปลอดภัยของข้อมูล ซึ่งการกำหนดสิทธิ หน้าที่ และความรับผิดชอบในการบริหารจัดการข้อมูล (Information Governance) เพื่อสนับสนุนความถูกต้องและความปลอดภัยของข้อมูล

Generative AI และข้อมูลที่ไม่มีโครงสร้าง 

ข้อมูลที่ไม่มีโครงสร้าง ซึ่งถือเป็นสัดส่วนใหญ่ของข้อมูลทั่วโลก ไม่ได้ถูกจัดเก็บตามรูปแบบที่แน่นอน ทำให้การวิเคราะห์และประมวลผลด้วยวิธีดั้งเดิมทำได้ยาก แต่ GenAI สามารถเข้ามาช่วยจัดการข้อมูลเหล่านี้เพื่อสร้างมุมมอง ข้อมูลเชิงลึก รวมไปถึงคอนเทนต์ใหม่ๆ ได้ ซึ่งส่งผลเชิงบวกต่อหลายอุตสาหกรรม เช่น การเพิ่มการมีส่วนร่วมของลูกค้า การเพิ่มประสิทธิภาพกระบวนการทำงาน และการสนับสนุนการตัดสินใจที่ขับเคลื่อนด้วย AI 

แต่การใช้พลังของ GenAI กับข้อมูลก็มีความท้าทาย โดยเฉพาะเรื่องความเป็นส่วนตัว การปฏิบัติตามข้อกำหนด และการสร้างคอนเทนต์อย่างมีจริยธรรม ตลอดจนประเด็นอคติและความเป็นธรรม นอกจากนี้ ข้อมูลที่ไม่มีโครงสร้างมักไม่ถูกป้องกัน จึงเสี่ยงต่อการรั่วไหล ค่าบริหารจัดการที่สูง และบทลงโทษจากการละเมิดข้อกำหนด อีกทั้งยังตกเป็นเป้าของการโจมตีทางไซเบอร์ได้ง่าย 

ท้ายที่สุดแล้ว หากข้อมูลไม่มีคุณภาพ ก็อาจทำให้ GenAI เรียนรู้ผิดพลาดและสร้างผลลัพธ์ที่บิดเบือน ดังนั้น ผู้บริหารควรตรวจสอบคุณภาพข้อมูลในองค์กรอยู่เสมอ “ข้อมูลที่สะอาด” กลายเป็นสิ่งจำเป็นอย่างมากในยุคที่ GenAI ถูกใช้อย่างแพร่หลาย 

สิ่งที่ต้องจัดการเร่งด่วน คือ “Dark Data” และ “ROT Data” 

  • Dark Data: Gartner® อธิบายว่าเป็นข้อมูลที่องค์กรเก็บสะสมไว้ในการดำเนินธุรกิจ แต่แทบไม่ถูกนำมาใช้ประโยชน์ เช่น การวิเคราะห์หรือสร้างรายได้ ข้อมูลประเภทนี้สร้างภาระค่าใช้จ่ายมากกว่ามูลค่า
  • ROT Data: ย่อมาจาก Redundant, Obsolete, Trivial ข้อมูลซ้ำซ้อน ล้าสมัย หรือไม่สำคัญ ที่ไม่มีคุณค่าต่อองค์กร แต่กลับกินพื้นที่จัดเก็บและสร้างความเสี่ยงด้านความปลอดภัย 

ด้วยเครื่องมืออย่าง File Analysis, Intelligent Document Processing (IDP) และ Enterprise Content Management (ECM) ข้อมูลเหล่านี้สามารถถูกตรวจจับ จำแนก และกำจัดได้ตามความเหมาะสม 

6 ข้อควรพิจารณาด้านความปลอดภัยในการใช้ Generative AI 

การกำกับดูแลข้อมูลและมาตรการด้านความปลอดภัยจำเป็นต้องเข้มแข็ง เพื่อให้องค์กรเป็น “พลเมืองที่รับผิดชอบ” ต่อการใช้ GenAI และข้อมูล โดยมี 6 ด้านสำคัญที่ควรพิจารณา: 

  1. การคุ้มครองข้อมูลส่วนบุคคล 
    ข้อมูลที่ไม่มีโครงสร้าง เช่น ข้อความ ภาพ และมัลติมีเดีย มีทั้งคุณค่าและความเสี่ยงสูง จึงต้องปกป้องข้อมูลที่เป็นความลับและอ่อนไหว เพื่อให้การใช้ AI เป็นไปอย่างมีจริยธรรม 
  2. การปฏิบัติตามข้อกำหนด (Compliance) 
    ในอุตสาหกรรมที่มีกฎระเบียบเข้มงวด เช่น การแพทย์หรือการเงิน การใช้ GenAI ต้องปฏิบัติตามมาตรฐานด้านกฎหมายและการคุ้มครองข้อมูลอย่างเคร่งครัด 
  3. จริยธรรมของคอนเทนต์ 
    AI อาจสร้างคอนเทนต์ที่ก่อให้เกิดปัญหา เช่น Deepfake ข้อมูลผิดพลาด การละเมิดลิขสิทธิ์ หรือประเด็นความอ่อนไหวทางวัฒนธรรม ผู้บริหารจึงต้องดูแลให้การพัฒนาและใช้งาน GenAI อยู่บนหลักจริยธรรม 
  4. อคติและความเป็นธรรม 
    คุณภาพของผลลัพธ์ขึ้นอยู่กับคุณภาพของข้อมูลที่ใช้ฝึก หากข้อมูลมีอคติ AI ก็จะสะท้อนอคตินั้นออกมา องค์กรจึงต้องมีมาตรการตรวจสอบและแก้ไขอคติอย่างจริงจัง 
  5. มาตรการด้านความปลอดภัย 
    ข้อมูลที่ไม่มีโครงสร้างจำเป็นต้องมีการป้องกันหลายชั้น เช่น การเข้ารหัส การควบคุมสิทธิ์เข้าถึง และการตรวจสอบความปลอดภัยอย่างสม่ำเสมอ เพื่อป้องกันการโจมตีและการรั่วไหล 
  6. ความโปร่งใสและความรับผิดชอบ 
    เพื่อสร้างความเชื่อมั่น ผู้ใช้งานและผู้มีส่วนได้ส่วนเสียต้องเข้าถึงข้อมูลได้อย่างโปร่งใส เช่น การระบุชัดเจนว่าเนื้อหาถูกสร้างด้วย AI และการอ้างอิงแหล่งข้อมูลที่ถูกต้อง 

ให้ความสำคัญกับความถูกต้องและความน่าเชื่อถือของข้อมูลที่ไม่มีโครงสร้าง 

ความสำเร็จของ GenAI ขึ้นอยู่กับการใช้ข้อมูลที่ไม่มีโครงสร้างอย่างมีการกำกับดูแล กำหนดสิทธิ หน้าที่ และความรับผิดชอบในการบริหารจัดการ (Information Governance) ซึ่งถือเป็นกุญแจสำคัญ ไม่เพียงช่วยให้การใช้ข้อมูลมีความถูกต้องและน่าเชื่อถือ แต่ยังสร้างกรอบการจัดการที่สอดคล้องกับข้อกำหนดด้านกฎหมาย จริยธรรม ความโปร่งใส และความปลอดภัยในระดับองค์กร  

Responsible usage of generative AI with unstructured data

ที่มา:  RICOH USA