ASHIFT AI

เจาะเบื้องหลังการทำงานChatGPT

ในยุคที่ AI อย่าง ChatGPT ตอบคำถามได้คล่องราวกับผู้เชี่ยวชาญ จนหลายคนเผลอเชื่อว่า “AI รู้จริง” หรือ “AI ฉลาดพอจะให้คำตอบแทนเราได้” แต่คำถามสำคัญคือ… จริงหรือ? ว่าสิ่งที่พูดคล่องนั้น = เข้าใจเชิงลึกอย่างแท้จริง?

คุณรู้หรือไม่ว่า? กลไกเบื้องหลัง ที่ทำให้ผู้ใช้งานอย่างเรา ๆ เข้าใจว่า AI “รู้” ซึ่งอาจแค่ “ดูเหมือนรู้” นั้น มีชื่อว่า…Probabilistic Model ซึ่งไม่ได้สร้างมาจากความเข้าใจในความหมาย แต่เป็นการ “คาดเดา” จากการเรียนรู้สิ่งที่ AI เห็นบ่อยที่สุด

Probabilistic Model คืออะไร?

Probabilistic Model หรือ แบบจำลองความน่าจะเป็น คือกลไกที่อยู่เบื้องหลังการทำงานของ AI โดยทำหน้าที่คำนวณว่า “คำใดมีแนวโน้มจะปรากฏถัดไป” ในบริบทที่กำหนด โดยอ้างอิงจากข้อมูลจำนวนมหาศาลที่เคยเรียนรู้จากผู้ใช้งาน ผ่านกระบวนการที่เรียกว่า Model Training หรือในบางกรณี อาจรวมถึงการ fine-tune ผ่านฟีเจอร์เช่น Improve Model

โมเดลนี้ ไม่ได้เข้าใจ “ความหมาย” ของคำ อย่างแท้จริง แต่เข้าใจโครงสร้างของ “ความสัมพันธ์ระหว่างคำ” เช่น หากผู้ใช้งานพิมพ์ว่า “เมื่อวานฉันไปเดินที่…” AI จะ “คาดเดา” คำต่อไปว่าอาจเป็น “ตลาด” “ห้าง” หรือ “สวนสาธารณะ” เพราะคำเหล่านี้ปรากฏบ่อยในตำแหน่งนั้น จากฐานข้อมูลมหาศาลที่ AI เคยเรียนรู้. นี่จึงเป็นเหตุผลที่ AI สามารถตอบคำถามได้อย่าง ลื่นไหลและมั่นใจ แม้ในความเป็นจริง ไม่ได้เข้าใจว่า “เราไปตลาดทำไม” อารมณ์ของผู้พูดคืออะไร หรือบริบทเฉพาะเจาะจงในสถานการณ์นั้นเป็นอย่างไรเลย

ลองถาม AI ว่า “ดอกกะหล่ำมีสีอะไร?”

หากพิมพ์คำถามนี้ลงใน AI อย่าง ChatGPT คำตอบที่ได้รับมักจะเป็น “สีขาว” เพราะในข้อมูลที่ถูกใช้ฝึก คำว่า “ดอกกะหล่ำ” มักมาคู่กับคำว่า “สีขาว” แต่ในความจริงแล้ว ดอกกะหล่ำบางพันธุ์มีสีม่วง บางหัวมีจุดด่างจากการเก็บรักษา หรือใบซีดจากแสง และบางครั้งยังแยกไม่ออกว่า คือ บล็อกโคลีพันธุ์ผสมหรือเปล่า เพราะ AI ไม่ได้เข้าใจสิ่งเหล่านี้ เพราะมันไม่เคย “เห็น” จริง ๆ มันแค่จำจากสิ่งที่เคยมีคนเขียนไว้ แล้วคาดเดาว่า “น่าจะเป็นแบบนี้”

หรือ ผู้ใช้ถาม AI : “ไก่ทอดอร่อยที่สุดในไทยคือของแบรนด์ไหน?”

AI ตอบ : KFC / Five Star / Bonchon / Chester’s,

แต่…

– มันไม่รู้ว่า “แบรนด์ไก่ป้าจ๋า ร้านหน้าปากซอย” คือที่สุดในใจของบางคน

– หรือ “แบรนด์ที่ไปซื้อตอนหิวสุด ๆ” ก็คือ The Best ต่อใจไม่รู้ลืม

***นั่นเพราะ AI ไม่มีบริบทส่วนบุคคล***

หรือ ผู้ใช้ถาม AI : “ใส่เสื้อสีอะไรแล้วรวย?”

AI ตอบ: สีเขียว, สีม่วง (ตามหลักฮวงจุ้ย, วันเกิด ฯลฯ)

แต่…

– มันไม่เข้าใจว่าความเชื่อไม่ใช่ข้อมูลตายตัว

-หรือบางคนใส่เสื้อสีอะไรก็ไม่เกี่ยวกับดวงเลย

-หรือใส่ดำทั้งปีแต่ยอดขายพุ่งเพราะ Mindset ล้วน ๆ

เพราะ AI ทำงานบน “ชุดข้อมูลรวม”

ไม่เข้าใจว่า “ความเชื่อเป็นเรื่องพลิกแพลงได้ตามความเชื่อของบุคคล”

“รู้” vs “เดา” ความต่างที่สำคัญใน AI

มนุษย์เรียนรู้จากประสบการณ์ > สัมผัส > เปรียบเทียบ > สังเคราะห์

AI เรียนรู้จาก การจับความสัมพันธ์เชิงสถิติ ของชุดข้อมูลมหาศาลที่ถูกป้อนเข้าไป

สิ่งที่ต่างกันคือ

• มนุษย์สามารถ “เข้าใจความหมาย” และ “ตีความใหม่” ได้

• AI ไม่ได้ “เข้าใจ” คำ แต่แค่ “เดา” ว่าคำไหนมักจะตามมาในประโยคนั้น โดยอิงจากรูปแบบที่เคยเห็นบ่อยที่สุดในอดีต

นี่คือสิ่งที่เรียกว่า “Surface-level Understanding” หรือ ความเข้าใจเชิงผิวเผิน ที่แม้จะฟังคล้ายกับคนที่รู้จริง แต่ลึกลงไปแล้วยังไม่ผ่านการ “เข้าใจเชิงบริบท”

เมื่อ AI เดาผิด: เคสที่ต้องระวัง!!

• ตัวอย่างที่ 1 (เคสทางกฎหมาย)

ในปี 2023 มีเคสที่โด่งดังในสหรัฐฯ : ศาลนิวยอร์กสั่งปรับทนายความ 2 รายเป็นเงิน 5,000 ดอลลาร์ หลังพบว่าทั้งคู่ใช้ ChatGPT ร่างเอกสารคำฟ้องเพื่อยื่นต่อศาล โดยหวังให้ AI ช่วยเขียนแบบมืออาชีพ แต่สิ่งที่ AI สร้างขึ้นกลายเป็น…แหล่งอ้างอิงทางกฎหมายปลอมทั้งหมด!

AI ตอบอย่างมั่นใจและใช้ภาษาที่ดูน่าเชื่อถือ พร้อมให้รายละเอียดของคดี ทั้งชื่อคู่กรณี หมายเลขคำพิพากษา และวันที่อย่างครบถ้วน แต่เมื่อศาลตรวจสอบกลับไม่พบข้อมูลเหล่านั้นในระบบ นั่นหมายความว่า แหล่งอ้างอิงทางกฎหมายเหล่านั้น “ไม่เคยมีอยู่จริง”

ศาลจึงตัดสินว่าการกระทำดังกล่าวเป็น “ความประมาทอย่างร้ายแรง” แม้การใช้ AI จะไม่ผิด แต่

การไม่ตรวจสอบก่อนใช้งานในบริบทสำคัญโดยเฉพาะในเอกสารทางกฎหมาย คือสิ่งที่ไม่อาจ

ยอมรับได้ (The Guardian, 2023)

เคสนี้ตอกย้ำว่า แม้ AI จะเป็นผู้ช่วยที่ดูทรงพลัง แต่ท้ายที่สุด มันก็ยังทำงานจาก “การเดา” มากกว่า

“การรู้จริง” และเมื่อความผิดพลาดนั้นส่งผลกระทบในโลกความเป็นจริง “ผู้รับผิดชอบ คือ มนุษย์! ไม่ใช่ โมเดล”

• ตัวอย่างที่ 2 (เคสจริง โดย แอดมิน Ashift AI)

คำถามจาก แอดมิน Ashift AI : “บรรณาธิการ คือ?”

คำตอบจาก AI : บรรณาธิการ คือ ผู้ที่ทำหน้าที่ควบคุม ดูแล และจัดการเนื้อหาใน

สิ่งพิมพ์หรือสื่อ เช่น หนังสือ นิตยสาร เว็บไซต์ หรือรายการต่าง ๆ ให้มีคุณภาพ ถูกต้อง และสอดคล้องกับแนวทาง หรือ จุดยืนของสื่อนั้น ๆ

คำถามจาก แอดมิน Ashift AI : “บรรณาธิกร คือ?”

คำตอบจาก AI : คำว่า “บรรณาธิกร” ไม่มีใช้ในระบบราชการหรือภาษามาตรฐาน

เป็นการพิมพ์ผิดจาก “บรรณาธิการ” หรือ บางครั้งอาจมาจากการออกเสียงเร็วแล้วเขียนตามเสียง

แต่เมื่อสืบค้นจากเว็บไซต์

สำนักงานราชบัณฑิตยสภา. พจนานุกรมฉบับราชบัณฑิตยสถาน พ.ศ. ๒๕๕๔. พบว่า :

บรรณาธิการ หมายถึง : [บันนาทิกาน] น. ผู้จัดเลือกเฟ้น รวบรวม ปรับปรุง และรับผิดชอบเรื่องลง

บรรณาธิกร หมายถึง : [บันนา-] (โบ) ก. รวบรวมและจัดเลือกเฟ้นเรื่องลงพิมพ์.

ดังนั้น เมื่อเราเข้าใจว่า AI ทำงานบนพื้นฐานของความน่าจะเป็น จึงเป็น ข้อดี เพราะจะทำให้ผู้ใช้งาน

สามารถออกแบบวิธีใช้ให้เหมาะกับบริบทได้ดียิ่งขึ้น

ความสามารถของ AI

– ช่วยร่างข้อความหรือสรุปเนื้อหาเบื้องต้นได้อย่างรวดเร็ว

– สนับสนุนการระดมความคิดในช่วงแรกของงาน

– จัดระเบียบหรือย่อยข้อมูลให้กระชับขึ้น

ในขณะที่มนุษย์ยังคงเป็นผู้ทำหน้าที่

– ตรวจสอบความถูกต้องของเนื้อหา

– เข้าใจบริบทเฉพาะตัว เช่น อารมณ์ ผู้อ่าน หรือช่องทาง

– ตัดสินใจขั้นสุดท้ายด้วยความรับผิดชอบ

แม้ AI จะเป็นเครื่องมือที่ทรงพลัง แต่ไม่ควรเป็น “คำตอบสุดท้าย” ในงานที่ต้องการความแม่นยำหรือ

ความเข้าใจเชิงลึก ความมั่นใจในค าพูดของ AI ไม่ได้แปลว่า “คำตอบนั้นถูกต้องเสมอ”

หากรู้เท่าทัน กลไกเบื้องหลัง

เราจะสามารถใช้ AI ได้อย่างชาญฉลาด “ไม่ใช่แค่ใช้งานตามกระแส”

อ้างอิง : Paul, Kari. Two US Lawyers Fined for Submitting Fake Court Citations Generated by

ChatGPT. The Guardian, 23 June 2023.

https://www.theguardian.com/…/two-us-lawyers-fined…

สำนักงานราชบัณฑิตยสภา. พจนานุกรมฉบับราชบัณฑิตยสถาน พ.ศ. ๒๕๕๔. เข้าถึงได้จาก

https://dictionary.orst.go.th/


Discover more from ASHIFT AI

Subscribe to get the latest posts sent to your email.

Comments

ใส่ความเห็น