คัดลอก URL แล้ว
ปมสร้าง AI เหนือมนุษย์ ต้นเหตุปลดซีอีโอ OpenAI แบบฟ้าผ่า?

ปมสร้าง AI เหนือมนุษย์ ต้นเหตุปลดซีอีโอ OpenAI แบบฟ้าผ่า?

จากเหตุการณ์ความวุ่นวายที่เกิดขึ้นระหว่างบอร์ดบริหารของ OpenAI กับ Sam Altman รวมถึงพนักงานอีกจำนวนมากภายในบริษัในช่วงสัปดาห์ที่ผ่านมา ซึ่งจบลงด้วยการเปลี่ยนตัวคณะกรรมการบริหารบริษัท และ Sam Altman ได้กลับมารับตำแหน่งซีอีโออีกครั้ง แต่กระแสข่าวถึงสาเหตุที่นำไปสู่การปลดฟ้าผ่า Sam Altman ยังคงไม่ชัดเจน และหลายกระแสกำลังมุ่งเป้าไปที่ Artificial Superintelligence (ASI) หรือ สุดยอด AI ที่มีปัญญาเหนือกว่ามนุษย์ในทุกด้าน และทุกศาสตร์บนโลกนี้ ซึ่งหากไม่ได้รับการควบคุมอาจจะกลายเป็นผลร้ายแก่มนุษยชาติ

อะไรคือ Artificial Superintelligence (ASI)

การพัฒนา AI หรือที่มีชื่อเต็มว่า Artificial Intelligence มีชื่อไทยที่คุ้นหูว่า “ปัญญาประดิษฐ์” ซึ่งหากเปรียบเทียบอย่างง่ายนั่นคือ โปรแกรมคอมพิวเตอร์ชนิดหนึ่งที่มีความฉลาด สามารถคิด ประมวลผลต่าง ๆ และหาคำตอบต่าง ๆ ได้ด้วยตนเอง ผ่านข้อมูลที่มนุษย์ใส่เข้าไปให้โปรแกรมนั้นเรียนรู้ เพื่อให้ทำงานและตัดสินใจบางอย่างแทนมนุษย์ได้

บรรดา AI ที่กำลังพัฒนากันอยู่ในขณะนี้ แบ่งความฉลาดออกเป็น 3 ระดับด้วยกันคือ

ตั้งข้อสงสัย OpenAI อาจจะถึงจุดของ AI เหนือมนุษย์

หลังจากที่บอร์ดบริหารของ OpenAI ได้มีมติถอด Sam Altman ออกจากตำแหน่งซีอีโอ ของบริษัทแบบฟ้าผ่า โดยให้เหตุผลว่า มาจากการสื่อสารที่ไม่ตรงไปตรงมา รวมถึงการไม่ให้ข้อมูลบางอย่างกับบอร์ดบริหาร ในฐานะของซีอีโออีกด้วย

การปลด Sam Altman จึงกลายเป็นที่มาของความวุ่นวายภายในช่วงไม่กี่วันที่ผ่านมา ก่อนที่ไมโครซอฟต์ หนึ่งในผู้ถือหุ้นรายใหญ่ของ OpenAI จะเข้ามาทำหน้าที่ “รับจบ” ปัญหาทุกอย่าง และทำให้ Altman กลับมานั่งบอร์ด

แต่กระแสข่าวยังคงไม่จบ หลังจากที่มีหลายสื่อฯ เริ่มรายงานถึงการปลดล็อกข้อจำกัดบางอย่างในการก้าวไปสู่การพัฒนา AI ที่อยู่ในระดับ superintelligence จากการปรับโมเดลทางคณิตศาสตร์และนำไปสู่ความเป็นไปได้มากยิ่งขึ้นในการต่อยอดจาก Generative AI ที่เราใช้อยู่ในปัจจุบัน เช่น ChatGPT

สำนักข่าวรอยเตอร์ ได้รายงานอ้างอิงแหล่งข่าวที่ระบุถึงช่วงเวลาก่อนการปลด Sam Altman ออกจากตำแหน่ง จากกรณีที่นักวิจัยด้าน AI หลายคนในบริษัทได้แจ้งเตือนไปยังคณะกรรมการบริหาร เกี่ยวกับการค้นพบครั้งสำคัญของ AI ที่อาจจะส่งผลกระทบ หรือเป็นภัยคุกคามต่อมนุษย์ได้

โดยกล่าวถึงอัลกอริทึมที่มีการค้นพบ และแผนการที่จะนำ AK ไปใช้ในทางธุรกิจโดยที่ยังไม่ได้เข้าใจผลลัพธ์ที่อาจจะเกิดขึ้นได้ ซึ่งข้อมูลในขณะนี้ ยังมีการพูดถึงโครงการ Q* หรือ “คิวสตาร์” ที่ OpenAI ได้กล่าวถึงโครงการนี้ ที่พนักงานภายในบริษัทเชื่อว่า จะเป็นความก้าวหน้าครั้งสำคัญของการพัฒนาปัญญาประดิษฐ์

แหล่งข่าวให้ข้อมูลกับรอยเตอร์ โครงการ Q* นี้มีความก้าวหน้าค่อนข้างมาก และทีมงานเชื่อว่า โมเดลที่ได้นี้ จะสามารถปฏิวัติวงการ AI ได้ แม้ว่า สิ่งที่ได้ากโครงการ Q* นี้ ยังเป็นแค่การแก้สมการในระดับประถม และใช้ทรัพยากรค่อนข้างมาก แต่บรรดานักวิจัยเชื่อว่า มันจะสามารถเรียนรู้และปรับปรุงเพิ่มเติมได้มากยิ่งขึ้น

ซึ่งบรรดาบอร์ดบริหารมองว่า การที่ Altman ไม่พูดถึงความก้าวหน้าในประเด็นนี้ ทั้งที่ Altman ตื่นเต้นกับสิ่งที่เกิดขึ้นนี้อย่างมากก็ตาม อาจจะเป็นการเลี่ยงข้อถกเถียงถึง “กฏ” ที่จำเป็นจะต้องใช้ในการควบคุมการพัฒนา AI ไม่ให้กลายเป็นภัยคุกคามต่อมนุษย์

“4 ครั้งในประวัติศาสตร์ของ OpenAI เกิดขึ้นล่าสุดเมื่อ 2-3 สัปดาห์ที่ผ่านมา เมื่อเราอยู่ในห้อง และได้เปิดม่านแห่งความไม่รู้ กลับไปสู่ขอบเขตของการค้นพบที่จะก้าวไปข้างหน้า ถือเป็นเกียรติอย่างยิ่งในชีวิต”

ประโยคนี้ Altman ได้กล่าวไว้ ก่อนที่จะถูกปลดออกจากตำแหน่งในวันถัดไป ซึ่งทำให้หลายฝ่ายตั้งของสังเกตถึงโครงการคิวสตาร์ของ OpenAI ความกังวลและความกลัวของ AI ที่จะกลายเป็นภัยคุกคาม หรือส่งผลกระทบต่อการใช้ชีวิตของมนุษย์ ถูกหยิบยกขึ้นมากล่าวถึง

แม้กระทั่งอีลอน มัสก์ ก็ยังได้กล่าวถึงประเด็นที่เกิดขึ้นภายในบริษัท OpenAI โดยโพสต์ถาม Ilya Sutskever หนึ่งในผู้ก่อตั้ง OpenAI ถึงกรณีการปลด Altman จากซีอีโอ ว่า

“ทำไมคุณถึงได้ทำสิ่งที่ดูรุนแรงแบบนี้ (หมายถึงการปลด Altman)
หาก OpenAI กำลังทำสิ่งที่อันตรายต่อมนุษยชาติ โลกจำเป็นต้องรู้เรื่องนี้

ซึ่งอีลอน มัสก์เองถือเป็นหนึ่งในผู้ร่วม OpenAI ตั้งแต่เมื่อปี 2015 โดยมีเป้าหมายในการพัฒนา AI ร่วมกับการควบคุมไม่ให้ AI นั้นกลายเป็นภัยคุกคามต่อมนุษย์ตั้งแต่เริ่มต้น และในเวลาตาต่อมา อีลอน มัสก์ก็ได้ถอนตัวออกจาก OpenAI ท่ามกลางกระแสข่าวความขัดแย้งในความเห็นเชิงธุรกิจ และเรื่องเงินทุนสนับสนุน


ข่าวที่เกี่ยวข้อง