นักข่าวสามารถใช้ AI ได้มากน้อยเพียงใด - ความโปร่งใสอาจส่งผลตรงกันข้าม? "ภาวะที่กลืนไม่เข้าคายไม่ออกในการประกาศ" ของข่าวในยุค AI

นักข่าวสามารถใช้ AI ได้มากน้อยเพียงใด - ความโปร่งใสอาจส่งผลตรงกันข้าม? "ภาวะที่กลืนไม่เข้าคายไม่ออกในการประกาศ" ของข่าวในยุค AI

AI ได้กลายเป็น "บรรณาธิการร่วมที่มองไม่เห็น" ในห้องข่าว การถอดเสียงบันทึกการสัมภาษณ์ การจัดระเบียบเอกสารจำนวนมาก การสรุป การเสนอหัวข้อข่าว การช่วยเหลือด้านภาพ... ขั้นตอนที่เคยต้องใช้แรงงานและเวลา ตอนนี้สามารถทำได้ในไม่กี่นาที สำหรับอุตสาหกรรมข่าวที่มีปัญหาด้านการเงิน AI เป็นวิธีที่น่าสนใจในการ "ลดต้นทุนและเพิ่มความเร็ว" อย่างไรก็ตาม ความสะดวกสบายนี้ยังทำให้ "ความรับผิดชอบ" ไม่ชัดเจนและสั่นคลอนความไว้วางใจ


ความตึงเครียดนี้ได้กลายเป็น "ประเด็นขัดแย้งระหว่างแรงงานและนายจ้าง" นักข่าวจาก ProPublica ซึ่งเป็นที่รู้จักในด้านการรายงานเชิงสืบสวนอิสระ ได้แสดงท่าทีแข็งกร้าวในการเจรจาเกี่ยวกับการใช้ AI และการดำเนินงานของ AI ได้กลายเป็นประเด็นหลักในข้อพิพาทแรงงานในอุตสาหกรรมข่าว



1) สิ่งที่เกิดขึ้นในขณะนี้: AI มีประโยชน์—แต่ก็มีอุบัติเหตุเพิ่มขึ้น

เหตุผลที่ฝ่ายปฏิบัติการไม่สามารถปล่อย AI ได้ชัดเจน ในการรายงานที่เน้นข้อมูล AI ช่วยทำให้กระบวนการซับซ้อนง่ายขึ้นและประหยัดเวลา การถอดเสียงอัตโนมัติกลายเป็นเรื่องปกติ และบริการค้นหาเองก็รวมการสรุปด้วย AI


ในทางกลับกัน อุบัติเหตุจากการนำ AI มาใช้เร่งด่วนก็ปรากฏขึ้นเช่นกัน กรณีที่ต้องแก้ไขข้อผิดพลาดของการสรุปด้วย AI โพสต์ที่มีชื่อผู้เขียนที่ไม่มีอยู่จริง และการสร้างเนื้อหาที่บิดเบือนความจริง เหตุการณ์ที่เป็นสัญลักษณ์คือ Ars Technica ที่เผยแพร่บทความที่มี "การอ้างอิงที่บิดเบือน" ซึ่งสร้างโดยเครื่องมือ AI และต่อมาถูกถอนและขอโทษ ข้อบกพร่องทั่วไปของ AI (การผสมผสานความจริงกับความเท็จ) ถูกสำนักข่าวเทคโนโลยีที่มีชื่อเสียงเหยียบย่ำ


กล่าวอีกนัยหนึ่ง AI สามารถเป็นทั้ง "เทวดาแห่งความมีประสิทธิภาพ" และ "ปีศาจแห่งการทำลายความไว้วางใจ" ปัญหาคือ องค์กรข่าวยังไม่ได้ตัดสินใจว่าจะวาง "รั้วป้องกัน" ไว้ที่ไหนโดยคำนึงถึงสองด้านนี้



2) ทำไมถึงมีข้อขัดแย้ง: ประเด็นการกำกับดูแล AI คือ "อำนาจ" มากกว่า "บทความ"

การลดข้อขัดแย้งนี้ให้เหลือเพียง "เขียนบทความด้วย AI หรือไม่" จะเป็นการเข้าใจผิด ความขัดแย้งที่แท้จริงกว้างกว่านั้น

  • การเปิดเผย (Disclosure): จะบอกผู้อ่านอย่างไรเกี่ยวกับการใช้ AI

  • การมีส่วนร่วมของมนุษย์ (Human-in-the-loop): ขั้นตอนใดที่ต้องการการตัดสินใจของมนุษย์

  • การจ้างงานและทักษะ (Jobs): เมื่อ AI แทนที่งาน ใครจะได้รับการปกป้องและใครจะถูกย้าย

  • ความรับผิดชอบในการแก้ไข (Accountability): เมื่อเกิดข้อผิดพลาด ใครจะรับผิดชอบ นักข่าว บรรณาธิการ หรือผู้ที่นำเครื่องมือมาใช้


ฝ่าย ProPublica (ฝ่ายบริหาร) ยืนยันว่าสัญญาที่ผูกพันเป็นเวลาหลายปีในการดำเนินการเทคโนโลยีที่เปลี่ยนแปลงอย่างรวดเร็วเป็นเรื่องเสี่ยง ในขณะที่สหภาพแรงงานโต้แย้งว่า "หากไม่ทำให้เป็นมาตรฐานจะไม่สามารถหยุดยั้งได้" นี่คือการดึงเชือกของการกำกับดูแล


สิ่งสำคัญที่นี่คือ ขอบเขตการใช้ AI ขยายจาก "จุด" ไปเป็น "เส้น" ตั้งแต่การเริ่มต้นรายงานจนถึงการเผยแพร่ AI สามารถมีส่วนร่วมในหลายขั้นตอน ดังนั้นกฎง่ายๆ ว่า "ถ้าใช้ AI ต้องแสดง" อาจไม่สามารถจับภาพความเป็นจริงในสถานที่ทำงานได้อย่างถูกต้อง



3) "การเปิดเผยจะเพิ่มความไว้วางใจ" เป็นภาพลวงตาหรือไม่?—"ภาวะกลืนไม่เข้าคายไม่ออกของการแจ้งเตือน"

ผู้อ่านโดยทั่วไปบอกว่า "ต้องการรู้ว่ามีการใช้ AI" แต่เมื่อมีการระบุการใช้ AI อย่างชัดเจน ความไว้วางใจกลับลดลง—ความขัดแย้งนี้ทำให้สถานที่ทำงานข่าวปวดหัว


ทำไม? มีหลายเหตุผลที่สามารถพิจารณาได้
หนึ่งคือ ผู้อ่านเชื่อมโยง AI กับ "เครื่องมือในการลดต้นทุน" หรือ "สัญลักษณ์ของการทำงานลวกๆ" อีกประการหนึ่งคือ "ภาพหลอน" ของ AI ที่รู้จักกันแพร่หลาย ทำให้เกิดอคติว่า "AI = แหล่งที่มาของข้อผิดพลาด" การถอนบทความของ Ars Technica ได้เสริมสร้างความไม่ไว้วางใจนี้


นอกจากนี้ ยังมีคนจำนวนหนึ่งที่คิดว่า "ไม่ต้องการให้ใช้ AI ในการรายงานข่าว" การเปิดเผยกลายเป็น "ป้ายเตือน" สำหรับกลุ่มนี้


ในที่สุด การเปิดเผยสามารถเป็น "หลักฐานของความซื่อสัตย์" แต่ยังมีความเสี่ยงที่จะทำให้คิดถึง "การลดคุณภาพ" หรือ "การไม่มีนักข่าว" นี่คือ "Catch-22"



4) กฎไม่ทันการเปลี่ยนแปลง: ความเร็วของการเปลี่ยนแปลงทำให้ "ข้อบังคับ" เสื่อมสภาพ

ข้อโต้แย้งที่ว่า AI พัฒนาเร็วเกินไปเป็นที่ได้ยินบ่อยในอุตสาหกรรม บทความที่เพิ่งเป็นที่นิยมเมื่อไม่นานมานี้ได้กระตุ้นว่า "ถ้าคุณไม่ได้สัมผัส AI ในช่วงไม่กี่เดือนที่ผ่านมา ตอนนี้ AI ดูแตกต่างไปมาก" และแพร่กระจายอย่างรวดเร็ว สิ่งนี้เป็นแรงผลักดันให้กับข้อโต้แย้งที่ว่า "แม้จะเขียนข้อบังคับในตอนนี้ ก็จะล้าสมัยในไม่ช้า"


อย่างไรก็ตาม มีมุมมองว่าเพราะการเปลี่ยนแปลงเร็ว จึงจำเป็นต้องมี "หลักการพื้นฐาน" ตัวอย่างเช่น

  • ความรับผิดชอบในการตรวจสอบข้อเท็จจริงอยู่ที่มนุษย์

  • การอ้างอิง ชื่อเฉพาะ และตัวเลขต้องเชื่อมโยงกับหลักฐานที่ตรวจสอบได้

  • ส่วนที่ AI มีส่วนร่วมต้องมีการบันทึกที่สามารถตรวจสอบได้
    ซึ่งเป็น "โครงสร้างการดำเนินงาน" ที่สามารถใช้ได้ไม่ว่าจะมีการเปลี่ยนแปลงประเภทของเครื่องมือหรือไม่


ในความเป็นจริง Trusting News กำลังส่งเสริมการสร้างแนวทางเกี่ยวกับความโปร่งใสและวิธีการอธิบายการใช้ AI



5) "กฎหมาย" ควรเข้ามาแทรกแซงหรือไม่: คลื่นที่ NY FAIR News Act ของรัฐนิวยอร์กก่อให้เกิด

การอภิปรายได้แพร่กระจายไปสู่การเมือง ในรัฐนิวยอร์ก มีการเสนอร่างกฎหมาย (NY FAIR News Act) ที่เรียกร้องให้มีการแสดงความรับผิดชอบและการเปิดเผยที่ชัดเจนสำหรับเนื้อหาข่าวที่ AI มีส่วนร่วม และกำหนดให้มีการตรวจสอบโดยสิทธิ์การแก้ไขของมนุษย์ ซึ่งก่อให้เกิดการสนับสนุนและการคัดค้าน


ฝ่ายสนับสนุนให้เหตุผลว่า "การรับประกันความโปร่งใส" "การปกป้องแรงงาน" และ "สิทธิของผู้อ่าน" ในขณะที่ฝ่ายคัดค้านและกังวลว่า "รัฐบาลอาจเข้ามาแทรกแซงการตัดสินใจแก้ไข" และอาจละเมิด "ความเป็นอิสระของการรายงานและเสรีภาพในการแสดงออก"


สิ่งที่เห็นได้คือ การกำกับดูแล AI กำลังกลายเป็นการออกแบบระบบสังคมที่เกินกว่าการ "ดำเนินงานภายในองค์กร"



6) ปฏิกิริยาบนโซเชียลมีเดีย: เสียงจากสถานที่ทำงานเริ่มเรียกร้อง "การปกครอง" มากกว่า "ความโปร่งใส"

ประเด็นในครั้งนี้บนโซเชียลมีเดียได้เริ่มเปลี่ยนจาก "AI เป็นสิ่งดีหรือไม่ดี" ไปสู่ "จะปกครองอย่างไร" ซึ่งน่าสนใจ


(A) ฝ่ายสหภาพแรงงาน/นักข่าว: เรียกร้องไม่เพียงแค่การจ้างงาน แต่ยังรวมถึง "รั้วป้องกันความไว้วางใจ"

ในโพสต์จาก NewsGuild มีการมองการเจรจาของ ProPublica ว่าเป็น "กำแพงป้องกันการใช้ AI ในทางที่ผิด" และมีโพสต์ที่แสดงท่าทีแข็งกร้าวไม่กลัวการประท้วง บน Bluesky ก็มีโทนเสียงที่แสดงความเป็นเอกภาพกับการเคลื่อนไหวของ ProPublica


นัยคือ "AI จะเข้ามาแน่นอน ถ้าเช่นนั้น จงผูกมัดความโปร่งใส การมีส่วนร่วมของมนุษย์ และผลกระทบต่อการจ้างงานด้วยสัญญาและกระบวนการ"


(B) ชุมชนเทคโนโลยี/ผู้อ่าน: การถอนบทความของ Ars Technica ถูกติดตามด้วยคำถาม "ตรวจสอบหรือไม่" "ใครทำ?"

เกี่ยวกับการถอน "การอ้างอิงที่บิดเบือน" ของ Ars Technica มีการตอบสนองในบอร์ดและชุมชนที่ถามว่า "ทำไมไม่ตรวจสอบ" "ใครใช้เครื่องมือและทำไมไม่หยุด" ซึ่งเป็นการเรียกร้องการตรวจสอบกระบวนการ


นี่ไม่ใช่การวิจารณ์ AI อย่างอารมณ์ แต่เป็นมุมมองที่มองว่าเป็น "ความล้มเหลวในการจัดการกระบวนการ" หาก AI ถูกใช้เป็น "วัตถุดิบ" ก็ต้องมีผู้รับผิดชอบและมาตรฐานในการตรวจสอบวัตถุดิบ


(C) ปฏิกิริยาต่อร่างกฎหมาย: "การแสดง" ไม่เพียงพอ / กลับกัน "เข้าไปลึกเกินไป"

ปฏิกิริยาต่อ NY FAIR News Act มีการแบ่งแยก บน LinkedIn มีการพูดถึงว่า "AI ไม่ใช่แค่ปัญหาการนำเครื่องมือมาใช้หรือคำแสดง แต่รวมถึงการเข้าถึงข้อมูล สิทธิ์การอนุมัติ และการบันทึก" ซึ่งเป็นการพูดถึงการกำกับดูแลที่กว้างขึ้น


ในทางกลับกัน มีการวิจารณ์อย่างหนักแน่นว่ากฎหมายอาจละเมิดความเป็นอิสระของการรายงาน การรับประกันความโปร่งใสโดยไม่กระทบต่อ "เนื้อหาของการแก้ไข" เป็นเรื่องยากในความเป็นจริง



7) แล้วห้องข่าวควร "ปกครอง" อย่างไร: 3 วิธีแก้ปัญหาที่เป็นจริง

คำถามที่บทความนี้โยนให้มีคำตอบที่เป็นจริงว่า "จะใช้ AI หรือไม่" แต่รวมถึง 3 ประเด็นต่อไปนี้

① กำหนด "การใช้ AI ที่สำคัญ" และควบคุมเฉพาะในส่วนนั้น

การเปิดเผยในทุกขั้นตอนอาจทำให้การดำเนินงานล้มเหลวได้ง่าย ดังนั้น

  • การสร้างเนื้อหาบทความ

  • การสรุปที่สำคัญ (ที่แทนที่จุดสำคัญของข่าว)

  • การสร้างหรือแก้ไขภาพและวิดีโอ

  • ##HTML_TAG_