AI ที่กลายเป็น "เงื่อนไขการเลื่อนตำแหน่ง" : เหตุผลที่คนที่ไม่มี "สกุลเงินใหม่" ในอาชีพจะถูกทิ้งไว้ข้างหลัง

AI ที่กลายเป็น "เงื่อนไขการเลื่อนตำแหน่ง" : เหตุผลที่คนที่ไม่มี "สกุลเงินใหม่" ในอาชีพจะถูกทิ้งไว้ข้างหลัง

“คนที่ไม่ใช้ AI จะไม่เติบโตอีกต่อไป” — บรรยากาศเช่นนี้กำลังแทรกซึมเข้าสู่ที่ทำงานด้วยความเร็วที่ไม่ใช่เรื่องตลกอีกต่อไป


บทความที่ตีพิมพ์ในสื่อเยอรมัน FOCUS ชื่อ "Ohne KI-Kompetenz ist keine Karriere mehr möglich" (ไม่มีความสามารถด้าน AI ก็ไม่มีอาชีพอีกต่อไป) ได้บรรยายถึงจุดเปลี่ยนที่ AI กำลังเปลี่ยนจาก "เครื่องมือที่สะดวก" ไปสู่ "สกุลเงินของอาชีพ" สิ่งที่น่าประทับใจคือทัศนคติต่อ AI ที่ไม่ใช่ "งานอดิเรก" หรือ "ความชอบส่วนตัว" อีกต่อไป การตัดสินใจว่าจะนำมาใช้หรือไม่กำลังกลายเป็นจุดแยกของการประเมินว่า "สามารถใช้ได้หรือไม่" — ความรู้สึกถึงวิกฤตที่รุนแรงนี้แทรกซึมอยู่ในบทความทั้งหมด


เมื่อ "เสรีภาพที่จะไม่ใช้" หายไป

บทความเริ่มต้นด้วยสถานการณ์สมมติที่ค่อนข้างท้าทาย อีเมลจากหัวหน้ามีข้อความว่า "คนที่ไม่ใช้เครื่องมือ AI เป็นประจำจะไม่ได้รับการเลื่อนตำแหน่ง" แม้จะดูเหมือนเรื่องตลก แต่บทความได้กล่าวถึงว่า "Accenture ได้ออกนโยบายนี้จริงภายในองค์กร" สิ่งที่น่ากลัวคือช่วงเวลาที่การใช้ AI เปลี่ยนจาก "แนะนำ" เป็น "เงื่อนไข" สามารถถูกบันทึกเป็นนโยบายได้


แน่นอนว่าไม่ใช่ทุกบริษัทจะติดตามด้วยความเร็วเดียวกัน แต่แม้ในบริษัทที่ไม่ได้ทำให้เป็นนโยบาย ก็ยังเกิดปรากฏการณ์เดียวกันอย่างเงียบๆ การตัดสินใจเลื่อนตำแหน่ง การแบ่งงานในโครงการสำคัญ การจัดที่นั่งในที่ประชุม การคัดเลือกบุคคลสำคัญ การที่ไม่มีการบันทึกเป็นลายลักษณ์อักษรทำให้เมื่อบุคคลตระหนักถึงมันก็ยากที่จะกลับมาได้ คนที่ใช้ AI เพื่อทำงานให้เสร็จเร็วและลึกมากขึ้นจะทำให้ "คนที่ไม่ใช้ AI" ดูช้ากว่าและตื้นกว่าในเชิงเปรียบเทียบ เมื่อการประเมินถูกดึงดูดด้วย "ความสามารถ" และ "ความเร็ว" นี่คือโครงสร้างที่โหดร้าย


เหตุผลที่ผู้จัดการระดับกลางลำบากที่สุด

บทความมุ่งเน้นไปที่ผู้จัดการระดับกลางโดยเฉพาะ ผู้บริหารระดับสูงสั่งการว่า "AI เป็นสิ่งสำคัญที่สุด" แต่ในภาคสนามกลับถูกกดดันด้วยกำหนดเวลา ขาดแคลนบุคลากร และความรับผิดชอบในการอธิบาย ไม่มีพื้นที่สำหรับการเรียนรู้ นอกจากนี้ยังมีความกังวลจากฝั่งลูกน้องว่า "AI จะมาแย่งงาน" แรงกดดันจากด้านบนและความกังวลจากด้านล่างทำให้ผู้จัดการระดับกลางอยู่ในสถานการณ์ที่ลำบาก


บทความยังกล่าวถึงความจริงที่ไม่สะดวกอีกว่า "มีบริษัทหลายแห่งที่ลงทุนใน AI แต่ไม่ได้รับผลลัพธ์" แม้ในความรู้สึกของภาคสนาม การฝึกอบรม AI ก็ยังกลับไปใช้วิธีเดิมๆ — ภาพนี้ไม่ใช่เรื่องแปลก ในบริบทของบทความนี้ ไม่ได้เป็นปัญหาทางเทคนิค แต่เป็น "ปัญหาของการเป็นผู้นำและวิธีการทำงาน" การนำ AI มาใช้ไม่ใช่จุดสิ้นสุด แต่ต้องเปลี่ยนวิธีการทำงานด้วย ไม่เช่นนั้นการลงทุนจะกลายเป็น "ของตกแต่ง"


โครงการ AI ล้มเหลวไม่ใช่เพราะเทคโนโลยี

บทความได้อธิบายอย่างชัดเจนถึง "เหตุผลที่ AI ไม่ได้ผล" ความล้มเหลวส่วนใหญ่มาจากการดำเนินงานขององค์กรไม่ใช่เทคโนโลยี
- ใครจะใช้ AI เพื่อแทนที่งานใดและเพื่อวัตถุประสงค์ใด
- ใครจะรับผิดชอบผลลัพธ์
- จะกำหนดมาตรฐานคุณภาพ (ข้อผิดพลาด, ความลำเอียง, ความสามารถในการอธิบาย) อย่างไร
- จะสร้าง "เส้นทางที่อยากใช้" ในภาคสนามอย่างไร
การนำเครื่องมือมาใช้โดยไม่พิจารณาการออกแบบเหล่านี้จะไม่ทำให้เกิดผลลัพธ์


บทความยังอธิบายการแบ่งสัดส่วนของการเปลี่ยนแปลง AI ว่า "เทคโนโลยี 10%, ข้อมูล 20%, วิธีการทำงานและวัฒนธรรม 70%" ซึ่งหมายความว่าส่วนใหญ่ของความสำเร็จหรือความล้มเหลวอยู่ที่ "คนและองค์กร" นี่เป็นคำเตือนสำหรับบริษัทที่มองว่า AI เป็น "โครงการของฝ่าย IT"


ยิ่งมีประสบการณ์มากยิ่ง "ปฏิเสธ" ง่าย

อีกหนึ่งข้อที่น่าสนใจคือ "คนที่มีประสบการณ์มากยิ่งปฏิเสธ AI" ยิ่งประสบความสำเร็จมานานเท่าไร ก็ยิ่งมีรูปแบบการชนะที่มีอยู่แล้ว เมื่อ AI เข้ามา จะทำให้ค่านิยมสั่นคลอน มีความกังวลว่า "การตัดสินใจของตนเองจะถูกแทนที่ด้วยโมเดลสถิติ" แต่บทความยืนยันว่าความกังวลนี้เป็น "ความเข้าใจผิด"


AI เชี่ยวชาญในเรื่องความเร็วและการสกัดรูปแบบ ในขณะที่มนุษย์ควรรับผิดชอบในเรื่องความเข้าใจบริบท การตัดสินค่า จริยธรรม ความรับผิดชอบ และการออกแบบความสัมพันธ์ กล่าวคือ คนที่มีประสบการณ์ควรจะมีความแข็งแกร่ง ปัญหาคือจะสามารถเชื่อมโยงประสบการณ์กับ AI เพื่อเพิ่มพูนได้หรือไม่ ไม่ใช่การ "ปกป้อง" ประสบการณ์ แต่เป็นการ "เปลี่ยนเป็นอาวุธ" นี่คือจุดแยกของอาชีพ


"AI ไม่ใช่เครื่องมือ แต่เป็นระบบปฏิบัติการขององค์กร"

หนึ่งในข้อความสำคัญของบทความคือสิ่งนี้ การมอง AI เป็นเพียงการเพิ่มซอฟต์แวร์จะล้มเหลว ต้องออกแบบใหม่ให้การทำงานมี AI เป็นพื้นฐาน ไม่เช่นนั้นจะไม่มีค่า ตัวอย่างเช่น เอกสารการประชุม จาก "สร้าง→ตรวจสอบ→แก้ไข→แชร์" เป็น "AI สร้างร่าง→คนจัดการประเด็น→AI เพิ่มเติม→คนตัดสินใจ" ผลลัพธ์คือเอกสารเดียวกัน แต่กระบวนการต่างกัน เมื่อกระบวนการต่างกัน ความสามารถที่จำเป็นก็เปลี่ยนไป


และผู้ที่รับผิดชอบการออกแบบใหม่นี้คือผู้จัดการ — นี่คือจุดยืนของบทความ ถ้าตนเองไม่เข้าใจ แต่บอกลูกน้องให้ใช้ก็ไม่มีความน่าเชื่อถือ หากโยนให้ที่ปรึกษาภายนอกก็จะไม่สามารถนำไปใช้ในชีวิตประจำวันได้ ดังนั้น "ต้องเรียนรู้ด้วยตนเองก่อน"


กลยุทธ์ที่เป็นรูปธรรมเรียบง่ายแต่ยาก

บทความได้จัดระเบียบการกระทำออกเป็น 3 ส่วนใหญ่ๆ

  1. เริ่มต้น
    สร้างบัญชีและเริ่มต้นจากการ "ลดเวลางานที่ใช้ 1 ชั่วโมง" สร้างเครือข่ายที่เชื่อมต่อกับ AI ถ้าจำเป็นก็จ้างโค้ช สิ่งสำคัญคือทำให้การเรียนรู้เป็น "ระบบ" ไม่ใช่ "ความพยายาม"

  2. ดำเนินต่อไป
    AI พัฒนาเร็ว ถ้าหยุดที่การเรียนรู้ระยะสั้นจะล้าสมัยเร็ว เหมือนกับการเรียนภาษา ถ้าไม่ต่อเนื่องก็จะลืม ดังนั้น "ผสมผสานในงานประจำวัน" จะเป็นเส้นทางที่ชนะ

  3. เป็นผู้นำ
    AI ไม่ได้จบที่การเพิ่มประสิทธิภาพส่วนบุคคล แต่รวมถึงการดำเนินงานของทีม ข้อเสนอแก่ลูกค้า การนิยามคุณค่าใหม่ ผู้นำต้องแสดงให้เห็น ถ้าคนที่เข้าใจไม่ชี้นำ องค์กรจะเพียงแค่พยายามแปะ AI เข้ากับกระบวนการเก่า


พูดได้ว่าเป็นเรื่องธรรมดา แต่สิ่งที่ธรรมดาที่สุดคือสิ่งที่ทำได้ยาก เพราะไม่ใช่เพราะไม่มีเวลาเรียนรู้ แต่เพราะกลัวว่า "วิธีการของตนเองจะเปลี่ยน" บทความกำลังส่งข้อความว่าอย่าหลบเลี่ยงจากสิ่งนี้



ปฏิกิริยาบนโซเชียลมีเดีย: การแบ่งแยกไม่ได้อยู่ที่ "ความสามารถ" แต่ที่ "การออกแบบการประเมิน"

 

ประเด็นของบทความนี้เข้ากันได้ดีกับโซเชียลมีเดีย เหตุผลง่ายๆ คือมีธีมที่กระตุ้นอารมณ์ได้ง่าย เช่น "การเลื่อนตำแหน่ง" "การประเมิน" "การเฝ้าระวัง" "ความไม่เท่าเทียม" FOCUS ได้แชร์บทความผ่านบัญชี X อย่างเป็นทางการทำให้เกิดเส้นทางการสนทนา

ปฏิกิริยาบนโซเชียลมีเดียแบ่งออกเป็น 4 ประเภทใหญ่ๆ


1) กลุ่ม "แน่นอน": AI เหมือนเครื่องคิดเลข การไม่ใช้คือการละเลยหน้าที่

การสนับสนุนที่แข็งแกร่งที่สุดคือ "AI เป็นทักษะพื้นฐานที่จำเป็น" เหมือน Excel การค้นหา และอีเมล การไม่ใช้คือการขาดความพยายาม และการที่บริษัทนำมาใช้ในการประเมินก็สมเหตุสมผล โดยเฉพาะในด้านที่ปรึกษา IT และการตลาด มีเสียงว่า "งานถูกออกแบบให้ใช้ AI เป็นพื้นฐาน" ที่นี่ AI ไม่ใช่ "ทักษะพิเศษ" แต่เป็น "เงื่อนไขพื้นฐานของงาน"

2) กลุ่ม "เกินไป": การติดตามการใช้และเงื่อนไขการเลื่อนตำแหน่งคือสังคมเฝ้าระวัง

ในทางกลับกัน การต่อต้านก็แข็งแกร่ง โดยเฉพาะเรื่อง "การติดตามการใช้เครื่องมือ AI และการสะท้อนในเลื่อนตำแหน่ง" ทำให้คิดถึงปัญหาการเฝ้าระวัง ความเป็นส่วนตัว และความโปร่งใสในการประเมิน
- การเพิ่มเพียงจำนวนการใช้ (จำนวนครั้ง) ทำให้เกิดการกลายเป็นรูปแบบ
- ความระมัดระวังไม่ใส่ข้อมูลลับ กลับกลายเป็น "เสียเปรียบ"
- มีงานหรือสถานการณ์ที่ไม่จำเป็นต้องใช้ AI แต่มีมาตรฐานเดียวกันเป็นอันตราย
ประเด็นเหล่านี้ชนกัน

3) กลุ่ม "ภาคสนามลำบาก": ถ้าบอกให้เรียนรู้ ต้องเตรียมเวลาและสภาพแวดล้อมให้

ปฏิกิริยาที่เป็นจริงที่สุดคือที่นี่ ความจำเป็นของ AI เข้าใจได้ แต่ในท่ามกลางกำหนดเวลา การประชุม และการขาดแคลนบุคลากรจะเรียนรู้อย่างไร แม้จะมีการฝึกอบรม แต่ถ้า KPI ของภาคสนามไม่เปลี่ยน การเรียนรู้จะกลายเป็น "ความรับผิดชอบส่วนตัวในเวลาว่าง" ผลคือมีเพียงกลุ่มที่มีจิตสำนึกสูงที่ไปข้างหน้า และความไม่เท่าเทียมในองค์กรก็ขยายตัว — นี่คือเหตุผลที่บทความได้วาดภาพ "ความลำบากของผู้จัดการระดับกลาง" ที่ได้รับการเห็นใจในโซเชียลมีเดีย

4) กลุ่ม "แก่นแท้คือวัฒนธรรม": การนำ AI มาใช้ไม่ใช่การเลือกเครื่องมือแต่เป็นปัญหาการออกแบบงาน

สุดท้ายคือปฏิกิริยาที่ใกล้เคียงกับมุมมองที่บทความเน้นว่า "AI เป็นระบบปฏิบัติการขององค์กร" สิ่งสำคัญในการนำ AI มาใช้คือการออกแบบกระบวนการ การแบ่งหน้าที่ มาตรฐานคุณภาพ และความรับผิดชอบ ถ้าสิ่งเหล่านี้ยังไม่ชัดเจน ภาคสนามจะเหนื่อยล้ากับ "การใช้ AI แบบผิวเผิน" และไม่มีผลลัพธ์ ในโซเชียลมีเดียก็มีการโพสต์ว่า "สุดท้ายคือคนและระบบ" "ถ้าผู้บริหารไม่ตัดสินใจอย่างเด็ดขาดก็เป็นไปไม่ได้"



แล้วเราควรทำอย่างไร (มุมมองการปฏิบัติ)

บทสรุปของบทความคือ "เมื่อวานคือดีที่สุด ถัดไปคือวันนี้" แต่การทำให้ "วันนี้" เป็นจริงต้องมีการระบุรายละเอียดเพิ่มเติม จุดสำคัญคือเริ่มต้นการเรียนรู้ AI เป็น "การปรับปรุงงาน" ไม่ใช่ "การศึกษา"

  • กำหนดธีมรายสัปดาห์และทดลองในงานเดียวกัน (บันทึกการประชุม, สรุป, ข้อเสนอ, การวิเคราะห์, การตอบกลับข้อซักถาม) ##HTML_TAG