นักวิจัยได้ทดลองใช้เทคโนโลยีของ ChatGPT ในการสร้างข้อมูลปลอม เพื่อใช้อ้างอิงงานวิจัยทางวิทยาศาสตร์ที่ยังไม่ได้รับการยืนยัน พบว่า สามารถสร้างข้อมูลได้เสมือนจริง แต่หากตรวจสอบอย่างละเอียดจะพบข้อผิดพลาดอยู่ และเชื่อว่า จะไม่ได้รับการอนุมัติงานวิจัย
…
JAMA Ophthalmology ได้เผยแพร่บทความที่ผู้เขียนได้ใช้ ChatGPT ซึ่งเป็น GPT-4 ร่วมกับกาารทำงานแบบ Advanced Data Analysis (ADA) ในกสร้างสร้างแบบจำลองการวิเคราะข้อมูลทางสถิติ และสร้างชุดข้อมูลที่เกิดขึ้นจาก AI เพื่อเปรียบเทียบการผ่าตั้ดใน 2 ขั้นตอน
โดยเป้าหมายของการทดสอบในครั้งนี้เกิดขึ้นในเวลาไม่กี่นาที ซึ่งคุณสามารถสร้างชุดข้อมูลที่ขัดแย้งกับข้อมูลจริง นอกจากนี้ ยังให้ผลตรงกันข้ามกับหลักฐานที่มีอยู่ในขณะนี้อีกด้วย – Giuseppe Giannaccare ผู้ศึกษาเรื่องนี้ได้กล่าวกับ Nature.com
ความสามารถของ AI ในการสร้างความน่าเชื่อถือของข้อมูลนั้น กำลังสร้างความกังวลให้กับบรรดานักวิจัย และบรรณาธิการของวารสารที่เกี่ยวข้องกับงานค้นคว้าวิจัย ที่สามารถจะสร้างข้อความต่าง ๆ ที่ไม่สามารถตรวจได้ด้วยซอฟต์แวร์ป้องกันการคัดลอกผลงานทางวิชาการได้ และยังมีความสามารถสร้างข้อมูลปลอมได้อีกด้วย ก่อให้เกิดความวิตกกังวลต่องานด้านวิชาการมากยิ่งขึ้น
ทดสอบให้เปรียบเทียบการผ่าตัด
ผู้ศึกษาได้ให้ ChatGPT สร้างชุดข้อมูลเกี่ยวกับผู้ที่มีการผ่าตัดดวงตาของผู้ป่วยโรคกระจกตาโป่ง ที่ทำให้มีอาการมองภาพได้ไม่ชัดเจน ซึ่งการรักษาผู้ป่วยราว 15-20% จะใช้การผ่าตัดปลูกถ่ายกระจกตา ใน 2 แบบด้วยกันคือ
โดยวิธีแรกคือการเจาะ Keratoplasty (PK) เป็นการผ่าตัดเอาชั้นกระจกตาที่เสียหายทั้งหมดออก และแทนที่ด้วยเนื้อเยื่อที่มีสุขภาพดีจากผู้บริจาค ส่วนวิธีที่สอง คือ deep anterior lamellar keratoplasty (DALK) ที่จะมาแทนที่ชั้นกระจกตาด้านหน้าเท่านั้น โดยเหลือชั้นในสุดไว้เหมือนเดิม
ผู้ศึกษาได้สั่งให้ AI สร้างข้อมูลสนับสนุนแนวทางการผ่าตัดในวิธีที่สอง หรือ DALK ว่า ให้ผลลัพธ์ที่ดีกว่า วิธีการแรก พร้อมทั้งขอให้แสดงความต่างทางสถิติในการทดสอบภาพ การประเมินรูปร่างของกระจกตา รวมถึงการตรวจสิ่งผิดปรกติ และความแตกต่าง ก่อนและหลังการรักษาว่า มีการมองเห็นได้ดีเพียงใด
ซึ่ง AI ได้สร้างข้อมูลที่ประกอบไปด้วยผู้ป่วยชาย160 ราย และผู้ป่วยหญิง 140 รายและระบุผลการทดสอบ ให้ผลของการผ่าตัดในรูปแบบของ DALK ดีกว่า ซึ่งขัดแย้งกับรายงานผลการทดลองทางคลินิกที่เป็นข้อมูลจริง เมื่อปี 2010
และนักวิจัยที่ได้ทดสอบในครั้งนี้ ยังระบุเพิ่มเติมว่า ข้อมูลที่ได้นั้น หากมองอย่างผิวเผินจะเข้าใจผิดได้ว่า เป็นข้อมูลจริง เนื่องจากมีความคล้ายคลึงกับข้อมูลที่ผ่านการทดลองมาจริง ๆ ทั้งที่ข้อมูลทั้งหมดถูกสร้างปลอมขึ้นมา อาจจะทำให้ผู้ที่ไม่ได้เป็นผู้เชี่ยวชาญในเรื่องนั้น ๆ อาจจะเข้าใจผิดได้
เมื่อตรวจสอบข้อมูลที่ AI ได้สร้างขึ้นอย่างละเอียด จะพบความไม่ตรงกันหลายอย่าง เช่น จำนวนผู้เข้าร่วมการทดลอง ความขัดแย้งกันระหว่างการวัดการมองเห็นก่อนและหลังการผ่าตัด ค่าการตรวจวัดภาพถ่ายดวงตาที่ไม่สมเหตุสมผลกับช่วงอายุของข้อมูลผู้ร่วมทดสอบที่ AI สร้างขึ้นด้วย
สิ่งที่เกิดขึ้น ทำให้ผู้วิจัยกังวลกับสิ่งที่จะเกิดขึ้นในอนาคต ว่า AI จะกลายเป็นอันตรายได้ง่ายมากยิ่งขึ้น หาก AI สามารถหลีกเลี่ยงการตรวจสอบต่าง ๆ เหล่านี้ได้
ที่มา – https://www.nature.com/articles/d41586-023-03635-w