คนที่ไม่ถูก AI ครอบงำจะถามแบบนี้: 10 เคล็ดลับการใช้ ChatGPT อย่างชาญฉลาด

คนที่ไม่ถูก AI ครอบงำจะถามแบบนี้: 10 เคล็ดลับการใช้ ChatGPT อย่างชาญฉลาด

บทนำ: ทำไม ChatGPT ถึง "ฉลาด" แต่ยังล้มเหลวได้

ChatGPT รับคำที่เราส่งไปแล้วตอบกลับด้วย "คำตอบที่ดูเหมือนจะเหมาะสม" นี่คือความสะดวกสบาย แต่ถ้าถามอย่างหยาบๆ ก็จะได้คำตอบที่หยาบๆ กลับมา ซึ่งเป็นเรื่องที่มักถูกมองข้ามได้ง่าย


บทความของ ZDNET ไม่ได้พูดถึงเทคนิคพิเศษ แต่เป็น "วิธีการไม่ให้ AI เข้าใจผิด" หรือพูดอีกอย่างคือ เทคนิคการสั่งงานเมื่อมอบหมายงานให้กับลูกน้องมนุษย์


เมื่อดูปฏิกิริยาบนโซเชียลมีเดีย จะเห็นว่า "ไม่ใช่ ChatGPT ที่แย่ แต่เป็นวิธีการถามของเราที่แย่บ่อยครั้ง" และ "แต่ AI ก็สามารถมั่นใจในความผิดพลาดได้" เสียงทั้งสองนี้ผสมกันอยู่ หมายความว่า จำเป็นต้องมี "เทคนิคการเพิ่มคุณภาพการส่งออก" และ "เทคนิคการป้องกันอุบัติเหตุ"



1. ทิ้งคำที่เป็นนามธรรมแล้ววาง "สิ่งที่เป็นรูปธรรม"

คำว่า "ดีๆ" "เข้าใจง่าย" "ดูเหมือนจะใช่" เป็นคำที่มีอิสระมากเกินไปสำหรับ AI
เคล็ดลับในการทำให้เป็นรูปธรรมมี 3 ข้อ

  • วัตถุประสงค์: ข้อความนี้ใช้เพื่ออะไร (เช่น ข้อเสนอภายในองค์กร โพสต์บนโซเชียลมีเดีย สัมภาษณ์งาน)

  • ผู้อ่าน: สำหรับใคร (เช่น ผู้เริ่มต้น ผู้ตัดสินใจ ผู้ปฏิบัติงาน)

  • ระดับความคาดหวัง: อะไรคือ "ดี" (เช่น ข้อสรุปก่อน รายการย่อ มีเหตุผล รวมการโต้แย้ง)


ตัวอย่าง:
× "เสนอแผนการตลาด"
○ "เพิ่มการลงทะเบียนทดลองใช้ฟรีของ BtoB SaaS งบประมาณ 300,000 เยนต่อเดือน ระยะเวลา 6 สัปดาห์ พร้อมขั้นตอนการดำเนินการและ KPI รวมถึงความเสี่ยงที่คาดการณ์ไว้ 5 แผน"



2. ส่งมอบเงื่อนไขเบื้องต้นและข้อมูลพื้นหลัง "ก่อน"

ChatGPT จะเติมข้อมูลพื้นหลังโดยอัตโนมัติ ถ้าเติมถูกก็เยี่ยม ถ้าไม่ก็เกิดอุบัติเหตุ
ดังนั้น จึงควร "ตรึงโลกทัศน์" ไว้ก่อน

  • สถานการณ์ปัจจุบัน (เกิดอะไรขึ้น)

  • ข้อจำกัด (เวลา งบประมาณ กฎเกณฑ์ วิธีการที่ใช้ได้)

  • สิ่งที่ไม่ต้องการ (ตัวอย่าง NG หรือกับดัก)


ยิ่งเพิ่มข้อมูลพื้นหลังมากเท่าไหร่ก็ยิ่งยาวขึ้น แต่ผลลัพธ์คือการทำซ้ำจะลดลงและเร็วขึ้น ซึ่งเป็นประเด็นสำคัญ



3. กำหนดรูปแบบการส่งออกล่วงหน้า

เช่น "ในรูปแบบบทความ" "ในตาราง" "ข้อสรุป→เหตุผล→ตัวอย่าง" การกำหนดรูปแบบจะลดความคลาดเคลื่อน
การกำหนดต่อไปนี้มีผลมากเป็นพิเศษ

  • โครงสร้างหัวข้อ (เทียบเท่า h2/h3)

  • จำนวนรายการย่อ (เช่น ไม่เกิน 3 รายการต่อหัวข้อ)

  • จำนวนตัวอักษร (เช่น บทนำ 200 ตัวอักษร แต่ละส่วน 400 ตัวอักษร)

  • โทน (เช่น สุภาพ หนักแน่น เหมาะสำหรับโซเชียลมีเดีย)


เมื่อรูปแบบถูกกำหนด AI จะสามารถเติมข้อมูลได้โดยไม่ลังเล



4. กำหนดบทบาท (เพอร์โซนา) เพื่อยึดมุมมอง

การให้บทบาทเช่น "คุณเป็นบรรณาธิการ" "คุณเป็นผู้ดูแลระบบ" "คุณเป็น CFO" จะเปลี่ยนวิธีการรับข้อมูล การเลือกคำ และความไวต่อความเสี่ยง


เคล็ดลับคือการระบุไม่เพียงแค่ "ตำแหน่ง" แต่ยังรวมถึงประสบการณ์และผลลัพธ์ด้วย

ตัวอย่าง:
"คุณเป็นผู้รับผิดชอบด้านการตลาด BtoB ในบริษัท SaaS มา 10 ปี และดูแลทั้งการหาลูกค้าและการบำรุงรักษาลูกค้า"



5. เขียนเงื่อนไขข้อจำกัดให้ "ชัดเจน" (รวมถึงสิ่งที่ไม่ทำ)

ข้อจำกัดไม่ได้ลดคุณภาพ แต่กลับเพิ่มขึ้น
เหตุผลง่ายๆ คือ หากไม่มีข้อจำกัด AI จะให้ "คำตอบที่กว้างที่สุด"

  • สื่อที่ใช้ได้ (X, note, press, YouTube ฯลฯ)

  • งบประมาณสูงสุด

  • การแสดงออกที่ใช้ไม่ได้ (โฆษณาเกินจริง การยืนยัน ประสิทธิภาพทางการแพทย์ ฯลฯ)

  • ข้อควรระวังด้านกฎหมายและการปฏิบัติตาม


การระบุข้อกำหนดเช่น "ไม่ใส่ลิงก์ในเนื้อหา" จะทำให้ไม่พังง่าย



6. แสดงตัวอย่างที่ดีและไม่ดี และแชร์เกณฑ์การให้คะแนน

ความชอบในบทความแตกต่างกันไปตามบุคคล AI สามารถคาดเดา "ความชอบของคุณ" ได้เท่านั้น
ดังนั้น แม้จะเป็นตัวอย่างสั้นๆ ก็ควรให้เพื่อปรับเกณฑ์ให้ตรงกัน

  • ตัวอย่างที่ดี (จังหวะนี้ คำศัพท์นี้ ความหนาแน่นนี้)

  • ตัวอย่างที่ไม่ดี (ไม่ชอบการพูดแบบนี้ มีนามธรรมมากเกินไปคือ NG)


นี่คล้ายกับการให้คำแนะนำในงานจริงว่า "บทความอ้างอิงคืออันนี้"



7. ไม่ทำให้เสร็จในครั้งเดียว แบ่งขั้นตอนเพื่อ "จัดการ"

"ก่อนอื่นร่างโครงสร้าง" "ต่อไปคือประเด็นในแต่ละหัวข้อ" "สุดท้ายคือเนื้อหา" การแบ่งนี้แข็งแกร่งมาก


AI พยายามสร้างผลงานสำเร็จรูปในครั้งเดียว อาจทำให้ความสอดคล้องพังทลายหรือเติมเรื่องตามใจชอบ


การแบ่งขั้นตอนจะสร้างผลลัพธ์กลางที่ตรวจสอบได้และการแก้ไขก็จะง่ายขึ้น



8. ให้ถามก่อน (ค้นหาข้อมูลที่ขาด)

นี่คือสิ่งที่มีประสิทธิภาพอย่างเงียบๆ


เพียงแค่บอกว่า "ถามคำถามที่จำเป็นก่อนตอบ" AI จะระบุจุดที่ไม่ชัดเจน
ผลลัพธ์คือ การจัดระเบียบข้อกำหนดและลด "นรกของการถามซ้ำ"



9. สมมติการปรับปรุงซ้ำ (คำสั่งเขียนใหม่)

แทนที่จะพยายามทำให้สมบูรณ์แบบในครั้งเดียว การใช้ "ร่างแรก→แก้ไข" จะเร็วกว่า
คำสั่งแก้ไขมีรูปแบบที่สะดวกดังนี้

  • ไม่ชอบตรงไหน (นามธรรม ยาว อ่อน แข็ง)

  • ต้องการให้เป็นอย่างไร (ทำให้เป็นรูปธรรม สั้นลง ข้อสรุปที่แข็งแกร่ง เพิ่มตัวอย่าง)

  • จะเก็บอะไรไว้ (เก็บการเปรียบเทียบนี้ไว้ รักษาโครงสร้าง)



10. ให้ตรวจสอบตัวเอง (ตรวจสอบข้อผิดพลาด ขาดหาย ข้อสมมติ)

สิ่งที่เน้นย้ำใน SNS คือ "AI สามารถผสมคำโกหกที่ดูเหมือนจริงได้"
เราสามารถปรับปรุงได้มากด้วยการใช้คำสั่ง

  • "ระบุจุดอ่อนของคำตอบของตัวเอง 3 ข้อ"

  • "แยกข้อเท็จจริงและการคาดเดา"

  • "กรณีที่ข้อสมมติพังทลายคืออะไร?"

  • "ระบุจุดที่ไม่แน่นอนว่าไม่แน่นอน"


การเพิ่ม "การตรวจสอบตัวเอง" นี้ในตอนท้ายจะลดการยืนยันที่อันตราย



ปฏิกิริยาบน SNS: คำชมและการระวังถูกกล่าวถึงร่วมกัน

เมื่อบทความของ ZDNET ถูกแชร์บน SNS ปฏิกิริยาแบ่งออกเป็นสองประเภทใหญ่ๆ

 


A. ฝ่าย "สุดท้ายก็ขึ้นอยู่กับโปรมพ์"

ใน Reddit มีการตอบกลับเกี่ยวกับคุณภาพของคำตอบของ AI ว่า "นั่นเป็นเพียงเพราะ 'วิธีการถาม' ที่ไม่ดีหรือไม่?" และมีการโพสต์ลิงก์ไปยังบทความการปรับปรุงโปรมพ์เป็น "หลักฐาน" หมายความว่า แม้จะมีประสบการณ์ที่ไม่ดีผู้ใช้ยังมีโอกาสในการปรับปรุง


B. ฝ่าย "การเชื่อโดยไม่ตรวจสอบเป็นอันตราย จำเป็นต้องใช้ร่วมกับการค้นหา"

ในกระทู้เดียวกัน มีการกล่าวถึงการที่ AI สามารถเสนอคำแนะนำที่อาจทำลายระบบ หรือเสนอคำสั่งที่อันตรายได้จากการหลอน สรุปได้ว่าการใช้ "AI แชท + การค้นหาเว็บ + การตรวจสอบซ้ำ" เป็นการดำเนินงานที่เป็นจริง


C. บน LinkedIn แบ่งปันเป็น "เทคนิคการทำงาน"

บน LinkedIn มีโพสต์ที่แนะนำบทความของ ZDNET ว่าเป็น "นิสัยการใช้โปรมพ์เพื่อให้ผลลัพธ์ดีขึ้นภายใต้สมมติฐานที่ว่า AI สามารถสร้างเรื่องราวได้" และถูกแชร์ในบริบทของการใช้ในงาน (เพิ่มประสิทธิภาพและความเสถียรของคุณภาพ)



##HTML