บ้าน ความเห็น การเตือนข่าวปลอมของ openai ก่อให้เกิดข่าวปลอมอย่างไร

การเตือนข่าวปลอมของ openai ก่อให้เกิดข่าวปลอมอย่างไร

สารบัญ:

วีดีโอ: A day with Scandale - Harmonie Collection - Spring / Summer 2013 (กันยายน 2024)

วีดีโอ: A day with Scandale - Harmonie Collection - Spring / Summer 2013 (กันยายน 2024)
Anonim

ห้องปฏิบัติการวิจัย AI ที่ไม่แสวงหาผลกำไร OpenAI ก่อให้เกิดความตื่นตระหนกในการเปิดเผยข้อมูลเมื่อเดือนที่แล้วเมื่อมีการเปิดตัว AI ที่ทันสมัยซึ่งเรียกว่า GPT-2 แต่ในขณะที่มันเฉลิมฉลองความสำเร็จของ GPT-2, OpenAI ประกาศว่าจะไม่ปล่อยโมเดล AI ของตนสู่สาธารณะโดยกลัวว่าในมือที่ไม่ถูกต้อง GPT-2 สามารถนำไปใช้เพื่อจุดประสงค์ที่เป็นอันตรายเช่นการสร้างบทความข่าวที่หลอกลวง และทำให้การผลิตเนื้อหาปลอมโดยอัตโนมัติบนโซเชียลมีเดีย

คาดการณ์การประกาศของ OpenAI ได้สร้างเรื่องราวข่าวที่น่าตื่นเต้น แต่ในขณะที่เทคโนโลยีขั้นสูงใด ๆ สามารถติดอาวุธได้ AI ก็ยังห่างไกลก่อนที่มันจะเป็นผู้เชี่ยวชาญในการสร้างข้อความ ถึงอย่างนั้นมันก็ยังใช้เวลามากกว่า AI สร้างข้อความในการสร้างวิกฤตข่าวปลอม ในแง่นี้คำเตือนของ OpenAI ถูกเปิดเผยเกินไป

AI และภาษามนุษย์

คอมพิวเตอร์มีความยากลำบากในการจัดการภาษามนุษย์ในอดีต มีความซับซ้อนและความแตกต่างมากมายในการเขียนข้อความที่แปลงทั้งหมดของพวกเขาให้เป็นกฎซอฟต์แวร์คลาสสิกเป็นไปไม่ได้จริง แต่ความก้าวหน้าล่าสุดในการเรียนรู้อย่างลึกล้ำและโครงข่ายประสาทเทียมได้ปูทางสำหรับแนวทางที่แตกต่างในการสร้างซอฟต์แวร์ที่สามารถจัดการกับงานที่เกี่ยวข้องกับภาษา

การเรียนรู้อย่างลึกซึ้งได้นำการปรับปรุงที่ยอดเยี่ยมไปสู่สาขาต่าง ๆ เช่นการแปลด้วยคอมพิวเตอร์การสรุปข้อความการตอบคำถามและการสร้างภาษาธรรมชาติ ช่วยให้วิศวกรซอฟต์แวร์สร้างอัลกอริทึมที่พัฒนาพฤติกรรมของตนเองโดยการวิเคราะห์ตัวอย่างมากมาย สำหรับงานที่เกี่ยวข้องกับภาษาวิศวกรจะป้อนข้อมูลจากเครือข่ายนิวรัลในรูปแบบดิจิทัลเช่นข่าวหน้าวิกิพีเดียและโพสต์โซเชียลมีเดีย โครงข่ายประสาทเทียมเปรียบเทียบข้อมูลอย่างระมัดระวังและจดบันทึกว่าคำบางคำติดตามผู้อื่นในลำดับที่เกิดขึ้นซ้ำ ๆ จากนั้นพวกเขาเปลี่ยนรูปแบบเหล่านี้เป็นสมการทางคณิตศาสตร์ที่ซับซ้อนที่ช่วยให้พวกเขาแก้งานที่เกี่ยวข้องกับภาษาเช่นการทำนายคำที่หายไปในลำดับข้อความ โดยทั่วไปแล้วยิ่งข้อมูลการฝึกอบรมที่มีคุณภาพที่คุณให้กับรูปแบบการเรียนรู้ลึกนั้นยิ่งมีประสิทธิภาพมากขึ้นเท่านั้น

จากข้อมูลของ OpenAI นั้น GPT-2 ได้รับการฝึกอบรมบนหน้าเว็บ 8 ล้านหน้าและคำศัพท์นับพันล้านคำซึ่งมากกว่ารุ่นอื่น ๆ ที่คล้ายคลึงกัน นอกจากนี้ยังใช้โมเดล AI ขั้นสูงเพื่อปรับใช้รูปแบบข้อความให้ดีขึ้น ตัวอย่างผลลัพธ์จาก GPT-2 แสดงให้เห็นว่ารูปแบบการจัดการเพื่อรักษาความสอดคล้องกันในลำดับของข้อความที่ยาวกว่ารุ่นก่อน

แต่ในขณะที่ GPT-2 เป็นก้าวไปข้างหน้าในการสร้างภาษาธรรมชาติมันไม่ได้เป็นความก้าวหน้าทางเทคโนโลยีในการสร้าง AI ที่สามารถเข้าใจความหมายและบริบทของข้อความที่เขียน GPT-2 ยังคงใช้อัลกอริทึมในการสร้างลำดับของคำที่คล้ายกับข้อความที่ตัดตอนมาหลายพันล้านข้อความที่เคยเห็นมาก่อนหน้านี้ - มันไม่มีความเข้าใจอย่างชัดเจนในสิ่งที่มันกำลังสร้าง

ในการวิเคราะห์เชิงลึก Tiernan Ray ของ ZDNet ชี้ไปที่หลาย ๆ กรณีที่ตัวอย่างผลลัพธ์ของ GPT-2 ทรยศธรรมชาติของพวกเขาด้วยสิ่งประดิษฐ์ที่รู้จักกันดีเช่นการทำซ้ำของคำศัพท์และการขาดตรรกะและความมั่นคงในข้อเท็จจริง “ เมื่อ GPT-2 เดินหน้าต่อไปเพื่อแก้ไขปัญหาการเขียนที่ต้องพัฒนาความคิดและตรรกะมากขึ้นรอยแตกจะเปิดกว้างพอสมควร” เรย์กล่าว

การเรียนรู้เชิงสถิติสามารถช่วยให้คอมพิวเตอร์สร้างข้อความที่ถูกต้องตามหลักไวยากรณ์ แต่จำเป็นต้องมีความเข้าใจเชิงลึกเพื่อรักษาความสอดคล้องเชิงตรรกะและข้อเท็จจริง น่าเสียดายที่มันยังคงเป็นความท้าทายที่ AI ผสมกันในปัจจุบันไม่สามารถเอาชนะได้ นั่นเป็นเหตุผลที่ GPT-2 สามารถสร้างข้อความที่ดี แต่อาจจะยากที่จะสร้างบทความที่มีรูปแบบยาวจริงหรือปลอมตัวเป็นใครบางคนในลักษณะที่น่าเชื่อถือและเป็นระยะเวลานาน

ทำไม AI Fake-News Panic ถึงล้น

ปัญหาอีกประการหนึ่งเกี่ยวกับการใช้เหตุผลของ OpenAI: สันนิษฐานว่า AI สามารถสร้างวิกฤติข่าวปลอม

ในปี 2559 กลุ่มวัยรุ่นชาวมาเซอะโดเนียกระจายข่าวปลอมเกี่ยวกับการเลือกตั้งประธานาธิบดีสหรัฐให้คนหลายล้านคน น่าแปลกที่พวกเขาไม่มีทักษะภาษาอังกฤษที่เหมาะสม พวกเขาค้นหาเรื่องราวของพวกเขาบนเว็บและประสานเนื้อหาที่แตกต่างกัน พวกเขาประสบความสำเร็จเพราะพวกเขาสร้างเว็บไซต์ที่ดูดีพอที่จะโน้มน้าวให้ผู้เยี่ยมชมเชื่อถือพวกเขาว่าเป็นแหล่งข่าวที่เชื่อถือได้ หัวข้อข่าวที่น่าสนใจผู้ใช้สื่อสังคมออนไลน์ที่ไม่สนใจและอัลกอริทึมที่มีแนวโน้มได้รับความสนใจ

จากนั้นในปี 2560 นักแสดงประสงค์ร้ายได้ก่อให้เกิดวิกฤตทางการทูตในภูมิภาคอ่าวเปอร์เซียโดยแฮ็คเว็บไซต์ข่าวของรัฐกาตาร์และบัญชีโซเชียลมีเดียของรัฐบาลและเผยแพร่คำพูดปลอมในนามของ Sheikh Tamim bin Hamad Al Thani, Emir รัฐกาตาร์

ดังที่เรื่องราวเหล่านี้แสดงให้เห็นความสำเร็จของแคมเปญข่าวปลอมขึ้นอยู่กับการสร้างความเชื่อมั่น (และการทรยศ) ไม่ใช่เพื่อสร้างข้อความภาษาอังกฤษที่เชื่อมโยงกันเป็นจำนวนมาก

คำเตือนของ OpenAI เกี่ยวกับการทำให้การผลิตเนื้อหาปลอมเพื่อโพสต์บนโซเชียลเป็นไปโดยอัตโนมัตินั้นมีการรับประกันมากขึ้นเนื่องจากขนาดและปริมาณมีบทบาทสำคัญในเครือข่ายสังคมมากกว่าที่ทำในสื่อดั้งเดิม สมมติฐานคือ AI เช่น GPT-2 จะสามารถท่วมสื่อสังคมออนไลน์ด้วยการโพสต์ที่ไม่ซ้ำกันหลายล้านเกี่ยวกับหัวข้อเฉพาะที่มีอิทธิพลต่ออัลกอริทึมแนวโน้มและการอภิปรายสาธารณะ

แต่ถึงกระนั้นคำเตือนก็ยังขาดความเป็นจริง ในไม่กี่ปีที่ผ่านมา บริษัท โซเชียลมีเดียได้พัฒนาความสามารถอย่างต่อเนื่องเพื่อตรวจจับและบล็อกพฤติกรรมอัตโนมัติ ดังนั้นนักแสดงที่เป็นอันตรายติดอาวุธด้วย AI ที่สร้างข้อความจะต้องเอาชนะความท้าทายจำนวนมากนอกเหนือจากการสร้างเนื้อหาที่ไม่เหมือนใคร

ตัวอย่างเช่นพวกเขาต้องการบัญชีโซเชียลมีเดียปลอมนับพันบัญชีเพื่อโพสต์เนื้อหาที่สร้างโดย AI แม้จะรุนแรงกว่าเพื่อให้แน่ใจว่าไม่มีวิธีการเชื่อมต่อบัญชีปลอมพวกเขาจะต้องใช้อุปกรณ์ที่ไม่ซ้ำกันและที่อยู่ IP สำหรับแต่ละบัญชี

มันแย่ลง: บัญชีจะต้องถูกสร้างขึ้นในช่วงเวลาที่ต่างกันอาจจะมากกว่าหนึ่งปีขึ้นไปเพื่อลดความคล้ายคลึงกัน เมื่อปีที่แล้วการสืบสวนของ New York Times พบว่าการสร้างบัญชีเพียงอย่างเดียวสามารถช่วยค้นพบบัญชีบอทได้ จากนั้นเมื่อต้องการซ่อนลักษณะอัตโนมัติของพวกเขาจากผู้ใช้รายอื่นและอัลกอริทึมการตรวจสอบบัญชีจะต้องมีพฤติกรรมคล้ายมนุษย์เช่นการโต้ตอบกับผู้ใช้รายอื่นและการตั้งค่าเสียงที่ไม่ซ้ำกันในโพสต์

ไม่มีความท้าทายใด ๆ ที่เป็นไปไม่ได้ที่จะเอาชนะได้ แต่พวกเขาแสดงให้เห็นว่าเนื้อหาเป็นเพียงส่วนหนึ่งของความพยายามที่จำเป็นในการดำเนินการในแคมเปญข่าวโซเชียลมีเดีย และอีกครั้งความไว้วางใจมีบทบาทสำคัญ สื่อโซเชียลที่เชื่อถือได้ไม่กี่คนที่วางโพสต์ข่าวปลอมขึ้นมาจะมีผลกระทบมากกว่าบัญชีที่ไม่รู้จักจำนวนมากที่สร้างเนื้อหาจำนวนมาก

ในการป้องกันคำเตือนของ OpenAI

คำเตือนที่โอ้อวดของ OpenAI ก่อให้เกิดวงจรของการโฆษณาและการตื่นตระหนกว่าเป็นข่าวที่หลอกลวงแดกดันเองพร้อมทั้งกระตุ้นให้มีการวิพากษ์วิจารณ์จากผู้เชี่ยวชาญ AI ที่มีชื่อเสียง

พวกเขาเชิญผู้คนในสื่อให้เข้าถึงผลการค้นหาก่อนเวลาด้วยการคว่ำบาตรการกดเพื่อให้ทุกคนเข้าสู่สาธารณะในวันเดียวกัน ไม่มีนักวิจัยที่ฉันรู้ว่าได้เห็นแบบจำลองขนาดใหญ่ แต่นักข่าวทำ ใช่พวกเขาจงใจระเบิดมัน

- Matt Gardner (@nlpmattg) 19 กุมภาพันธ์ 2019

มนุษย์ใหม่ทุกคนสามารถนำไปใช้ในการสร้างข่าวปลอมเผยแพร่ทฤษฎีสมรู้ร่วมคิดและมีอิทธิพลต่อผู้คน

เราควรหยุดสร้างเด็กทารกงั้นเหรอ?

- Yann LeCun (@ylecun) 19 กุมภาพันธ์ 2019

เพียงแค่อยากให้คุณเป็นผู้นำห้องทดลองของเราพบความก้าวหน้าด้านการเข้าใจภาษาที่น่าอัศจรรย์ แต่เราก็กังวลว่ามันอาจตกอยู่ในมือของคนผิด ดังนั้นเราจึงตัดสินใจที่จะทิ้งมันและเผยแพร่เฉพาะสิ่ง * ACL ปกติแทน การเคารพต่อทีมอย่างมากสำหรับผลงานที่ยอดเยี่ยมของพวกเขา

- (((? () (? () 'yoav)))) (@yoavgo) 15 กุมภาพันธ์ 2019

Zachary Lipton นักวิจัย AI และบรรณาธิการประมาณถูกต้องชี้ไปที่ประวัติของ OpenAI ของ "การใช้บล็อกของพวกเขาและให้ความสนใจกับการยิงหนังสติ๊กที่ยังไม่บรรลุนิติภาวะให้เป็นมุมมองสาธารณะและมักจะเล่นแง่มุมความปลอดภัยของมนุษย์ในการทำงาน ขาที่จะยืนบน "

แม้ว่า OpenAI สมควรได้รับการวิพากษ์วิจารณ์และความร้อนทั้งหมดที่ได้รับเนื่องจากคำพูดที่ทำให้เข้าใจผิด แต่ก็มีสิทธิ์ที่จะกังวลอย่างแท้จริงเกี่ยวกับการใช้เทคโนโลยีที่เป็นอันตรายที่เป็นไปได้แม้ว่า บริษัท จะใช้วิธีการที่ไม่รับผิดชอบ

  • ปีการพิจารณาด้านจริยธรรมของอุตสาหกรรม AI ปีการพิจารณาตามหลักจริยธรรมของอุตสาหกรรม AI
  • ข้อได้เปรียบที่ไม่เป็นธรรม: อย่าคาดหวังว่า AI จะเล่นเหมือนมนุษย์ได้เปรียบอย่างไม่เป็นธรรม: อย่าคาดหวังว่า AI จะเล่นอย่างมนุษย์
  • AI นี้คาดการณ์การหมุนรอบออนไลน์ก่อนที่มันจะเกิดขึ้น AI นี้ทำนายการหมุนรอบออนไลน์ก่อนเกิดขึ้น

ในปีที่ผ่านมาเราได้เห็นว่าเทคโนโลยี AI ทำสู่สาธารณะโดยปราศจากความคิดและการไตร่ตรองสามารถใช้เป็นอาวุธสำหรับเจตนาร้ายได้อย่างไร ตัวอย่างหนึ่งคือ FakeApp แอปพลิเคชัน AI ที่สามารถสลับใบหน้าในวิดีโอได้ ไม่นานหลังจาก FakeApp เปิดตัวมันถูกใช้ในการสร้างวิดีโอโป๊ปลอมที่มีชื่อเสียงและนักการเมืองทำให้เกิดความกังวลเกี่ยวกับการคุกคามของการปลอมแปลง AI ขับเคลื่อน

การตัดสินใจของ OpenAI แสดงให้เห็นว่าเราจำเป็นต้องหยุดและคิดเกี่ยวกับความเป็นไปได้ที่จะเกิดขึ้นของเทคโนโลยีที่เปิดเผยต่อสาธารณะ และเราจำเป็นต้องมีการอภิปรายอย่างแข็งขันมากขึ้นเกี่ยวกับความเสี่ยงของเทคโนโลยี AI

"องค์กรหนึ่งที่หยุดโครงการหนึ่งโดยเฉพาะจะไม่เปลี่ยนแปลงอะไรในระยะยาว แต่ OpenAI ได้รับความสนใจเป็นอย่างมากสำหรับสิ่งที่พวกเขาทำ … และฉันคิดว่าพวกเขาควรได้รับการชื่นชมจากการหันมาสนใจประเด็นนี้" David Bau นักวิจัยที่ห้องปฏิบัติการวิทยาศาสตร์คอมพิวเตอร์และปัญญาประดิษฐ์ (CSAIL) ของ MIT กล่าวกับ Slate

การเตือนข่าวปลอมของ openai ก่อให้เกิดข่าวปลอมอย่างไร