บ้าน ธุรกิจ Ai และการเรียนรู้ด้วยเครื่องจักรหาประโยชน์, ของปลอมตอนนี้ตรวจจับได้ยากขึ้น

Ai และการเรียนรู้ด้วยเครื่องจักรหาประโยชน์, ของปลอมตอนนี้ตรวจจับได้ยากขึ้น

สารบัญ:

วีดีโอ: पृथà¥?वी पर सà¥?थित à¤à¤¯à¤¾à¤¨à¤• नरक मंदिर | Amazing H (กันยายน 2024)

วีดีโอ: पृथà¥?वी पर सà¥?थित à¤à¤¯à¤¾à¤¨à¤• नरक मंदिर | Amazing H (กันยายน 2024)
Anonim

ในขณะที่เรามุ่งหน้าสู่การเลือกตั้งประธานาธิบดีในฤดูกาลถัดไปคุณจะต้องระวังอันตรายที่อาจเกิดขึ้นซึ่งวิดีโอออนไลน์ปลอมนำมาผ่านการใช้ปัญญาประดิษฐ์ (AI) และการเรียนรู้ของเครื่องจักร (ML) การใช้ซอฟต์แวร์ AI ผู้คนสามารถสร้างวิดีโอ Deepfake (ย่อมาจาก "การเรียนรู้อย่างลึกและการปลอม") ซึ่งใช้อัลกอริธึม ML เพื่อทำการแลกเปลี่ยนใบหน้าเพื่อสร้างภาพลวงตาที่ใครบางคนพูดบางสิ่งที่พวกเขาไม่ได้พูด ไม่ใหม่ วิดีโอ Deepfake แสดงขึ้นในหลากหลายรูปแบบตั้งแต่ความบันเทิงไปจนถึงการเมืองจนถึงโลกธุรกิจ ไม่เพียง แต่จะทำให้วิดีโอมีอิทธิพลอย่างไม่เป็นธรรมต่อการเลือกตั้งด้วยข้อความเท็จเท่านั้น แต่พวกเขาสามารถนำความอับอายส่วนตัวหรือทำให้ข้อความแบรนด์เข้าใจผิดได้หากพวกเขาแสดงซีอีโอที่ประกาศเปิดตัวผลิตภัณฑ์หรือการซื้อกิจการที่ไม่ได้เกิดขึ้นจริง

Deepfakes เป็นส่วนหนึ่งของ AI ที่เรียกว่า "Generative Adversarial Networks" หรือ GANs ซึ่งเครือข่ายประสาทสองแห่งแข่งขันกันเพื่อสร้างภาพถ่ายหรือวิดีโอที่ปรากฏขึ้นจริง GANs ประกอบด้วยเครื่องกำเนิดไฟฟ้าซึ่งสร้างชุดข้อมูลใหม่เช่นวิดีโอปลอมและ discriminator ซึ่งใช้อัลกอริธึม ML เพื่อสังเคราะห์และเปรียบเทียบข้อมูลจากวิดีโอจริง เครื่องกำเนิดไฟฟ้าพยายามสังเคราะห์วิดีโอปลอมกับวิดีโอเก่าจนกระทั่งผู้ที่แยกแยะไม่สามารถบอกได้ว่าข้อมูลนั้นเป็นข้อมูลใหม่

ในฐานะที่เป็น Steve Grobman รองประธานอาวุโสและประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของ McAfee ชี้ให้เห็นในการประชุม RSA Conference 2019 ในเดือนมีนาคมที่ซานฟรานซิสโกในเดือนมีนาคมที่ผ่านมาภาพถ่ายปลอมมีมาตั้งแต่การประดิษฐ์ภาพถ่าย เขากล่าวว่าการดัดแปลงรูปภาพเป็นงานง่าย ๆ ที่คุณสามารถทำได้ในแอพพลิเคชั่นเช่น Adobe Photoshop แต่ตอนนี้ความสามารถในการแก้ไขขั้นสูงประเภทนี้กำลังเข้าสู่วิดีโอเช่นกันและพวกเขากำลังทำโดยใช้เครื่องมือซอฟต์แวร์ที่มีความสามารถสูงและเข้าถึงได้ง่าย

วิธีสร้าง Deepfakes

แม้ว่าการทำความเข้าใจแนวคิด AI จะมีประโยชน์ แต่ก็ไม่จำเป็นที่จะต้องเป็นนักวิทยาศาสตร์ด้านข้อมูลในการสร้างวิดีโอ Deepfake มันเกี่ยวข้องกับการทำตามคำแนะนำทางออนไลน์ตาม Grobman ในการประชุม RSA 2019 (ดูวิดีโอด้านบน) เขาเปิดเผยวิดีโอ Deepfake พร้อมกับดร. Celeste Fralick หัวหน้านักวิทยาศาสตร์ข้อมูลและวิศวกรหลักอาวุโสของ McAfee วิดีโอ Deepfake แสดงให้เห็นถึงภัยคุกคามที่เทคโนโลยีนี้นำเสนอ Grobman และ Fralick แสดงให้เห็นว่าเจ้าหน้าที่ของรัฐในวิดีโอพูดว่าบางสิ่งที่เป็นอันตรายอาจทำให้คนเข้าใจผิดคิดว่าข้อความนั้นเป็นของจริง

ในการสร้างวิดีโอ Grobman และ Fralick ดาวน์โหลดซอฟต์แวร์ Deepfake จากนั้นพวกเขาก็ถ่ายวิดีโอของ Grobman เป็นพยานต่อหน้าวุฒิสภาสหรัฐอเมริกาในปี 2560 และวางปาก Fralick ลงบน Grobman

"ฉันใช้ความคิดเห็นสาธารณะที่มีอิสระโดยการสร้างและฝึกอบรมโมเดล ML ซึ่งให้ฉันพัฒนาวิดีโอ Deepfake ด้วยคำพูดของฉันออกมาจากปาก" Fralick บอกผู้ชม RSA บนเวที Fralick กล่าวต่อไปว่าวิดีโอ Deepfake สามารถนำไปใช้ในการหาประโยชน์ทางสังคมและสงครามข้อมูล

ในการทำวิดีโอ Deepfake ของพวกเขา Grobman และ Fralick ใช้เครื่องมือที่ผู้ใช้ Reddit พัฒนาขึ้นชื่อ FakeApp ซึ่งใช้อัลกอริธึม ML และภาพถ่ายเพื่อแลกเปลี่ยนใบหน้ากับวิดีโอ ในระหว่างการนำเสนอ RSA Grobman อธิบายขั้นตอนต่อไป "เราแบ่งวิดีโอออกเป็นภาพนิ่งเราแยกหน้าออกและเราทำความสะอาดโดยจัดเรียงและทำความสะอาดใน Instagram"

สคริปต์ Python อนุญาตให้ทีม McAfee สร้างการเคลื่อนไหวของปากเพื่อให้คำพูดของ Fralick ตรงกับปากของ Grobman จากนั้นพวกเขาจำเป็นต้องเขียนสคริปต์ที่กำหนดเอง ความท้าทายในการสร้างความเชื่อมั่นที่ลึกซึ้งคือเมื่อลักษณะเช่นเพศอายุและโทนสีผิวไม่เข้ากัน Grobman กล่าว

จากนั้นเขาและ Fralick ใช้อัลกอริธึม AI ขั้นสุดท้ายเพื่อจับคู่ภาพของ Grobman ให้การต่อหน้าวุฒิสภาด้วยคำพูดของ Fralick Grobman เสริมว่าใช้เวลา 12 ชั่วโมงในการฝึกอบรมอัลกอริทึม ML เหล่านี้

McAfee สรุปขั้นตอนที่ใช้ในการสร้างวิดีโอ Deepfake ที่แสดงในการประชุม RSA 2019 มันใช้ซอฟต์แวร์ deepfake ที่ชื่อว่า FakeApp และการฝึกอบรม ML model เพื่อดัดแปลงวิดีโอของ Grobman ด้วยคำพูดจาก Fralick (เครดิตรูปภาพ: McAfee)

ผลที่ตามมาของ Deepfakes

วิดีโอ Deepfake ที่สร้างโดย Hacker มีศักยภาพที่จะก่อให้เกิดปัญหามากมาย - ทุกสิ่งทุกอย่างตั้งแต่เจ้าหน้าที่ของรัฐแพร่กระจายข้อมูลที่ผิดพลาดไปจนถึงผู้มีชื่อเสียงที่อับอายจากการที่อยู่ในวิดีโอที่พวกเขาไม่ได้เข้าไปใน บริษัท เมื่อทราบถึงปัญหาเหล่านี้ฝ่ายนิติบัญญัติในเดือนกันยายนจึงได้ส่งจดหมายถึง Daniel Coats ผู้อำนวยการหน่วยข่าวกรองแห่งชาติของสหรัฐอเมริกาเพื่อขอให้มีการทบทวนการคุกคามที่ก่อให้เกิดความลึก จดหมายเตือนว่าประเทศต่าง ๆ เช่นรัสเซียสามารถใช้สื่อสังคมออนไลน์เพื่อเผยแพร่ข้อมูลที่เป็นเท็จได้ ในเดือนธันวาคมผู้ร่างกฎหมายได้นำพระราชบัญญัติ Malicious Deep Fake Prohibition of 2018 ไปใช้เพื่อห้ามการฉ้อโกงเกี่ยวกับ "บันทึกภาพและเสียง" ซึ่งอ้างถึง มันยังคงที่จะเห็นว่าบิลจะผ่าน

ดังที่ได้กล่าวมาแล้วคนดังสามารถประสบความอับอายจากวิดีโอที่ใบหน้าของพวกเขาถูกทับลงบนใบหน้าดาราหนังโป๊ดังเช่นกรณีที่เกิดกับ Gal Gadot หรือจินตนาการถึง CEO ที่คาดคะเนประกาศข่าวผลิตภัณฑ์และสต็อกสินค้าของ บริษัท ผู้เชี่ยวชาญด้านความปลอดภัยสามารถใช้ ML เพื่อตรวจจับการโจมตีประเภทนี้ แต่หากตรวจไม่พบในเวลาที่กำหนดพวกเขาสามารถสร้างความเสียหายที่ไม่จำเป็นให้กับประเทศหรือแบรนด์

ดร. เชสคันนิงแฮมนักวิเคราะห์หลักของ Forrester Research กล่าวว่าด้วย Deepfakes ถ้าคุณรู้ว่าคุณกำลังทำอะไรและคุณรู้ว่าใครจะเป็นเป้าหมายคุณสามารถสร้างวิดีโอที่น่าเชื่อถือเพื่อสร้างความเสียหายให้กับแบรนด์ได้ . เขาเสริมว่าหากคุณเผยแพร่ข้อความเหล่านี้บน LinkedIn หรือ Twitter หรือใช้แบบฟอร์มบอท "คุณสามารถทำลายสต็อกของ บริษัท จากวิดีโอปลอมทั้งหมดโดยไม่ต้องใช้ความพยายามมาก"

ผู้บริโภคอาจถูกหลอกให้เชื่อว่าผลิตภัณฑ์สามารถทำสิ่งที่ไม่สามารถทำได้ผ่านวิดีโอ Deepfake คันนิงแฮมตั้งข้อสังเกตว่าหากซีอีโอของผู้ผลิตรถยนต์รายใหญ่กล่าวในวิดีโอปลอมว่า บริษัท จะไม่ผลิตรถยนต์ที่ใช้พลังงานจากก๊าซแล้วส่งต่อข้อความนั้นบน Twitter หรือ LinkedIn ในวิดีโอนั้นการกระทำนั้นอาจสร้างความเสียหายต่อแบรนด์ได้อย่างง่ายดาย

"น่าสนใจพอจากการวิจัยของฉันผู้คนตัดสินใจตามพาดหัวและวิดีโอใน 37 วินาทีคันนิงแฮมกล่าว" ดังนั้นคุณสามารถจินตนาการได้ว่าคุณจะได้วิดีโอที่ทำงานนานกว่า 37 วินาทีคุณสามารถทำให้คนตัดสินใจได้โดยอิงจาก ไม่ว่าจะเป็นข้อเท็จจริงหรือไม่ และนั่นก็น่ากลัวมาก "

เนื่องจากโซเชียลมีเดียเป็นสถานที่ที่มีช่องโหว่ที่วิดีโอ Deepfake สามารถแพร่ระบาดได้เว็บไซต์โซเชียลมีเดียจึงทำงานอย่างแข็งขันเพื่อต่อสู้กับการคุกคามของ Deepfakes ยกตัวอย่างเช่น Facebook ปรับใช้ทีมวิศวกรรมที่สามารถมองเห็นภาพที่ถูกจัดการเสียงและวิดีโอ นอกเหนือจากการใช้ซอฟต์แวร์แล้ว Facebook (และ บริษัท สื่อโซเชียลอื่น ๆ ) จ้างผู้คนเพื่อค้นหา deepfakes ด้วยตนเอง

“ เราได้ขยายความพยายามอย่างต่อเนื่องของเราในการต่อสู้กับสื่อที่มีการจัดการเพื่อรวมการแก้ปัญหาในเชิงลึก” ตัวแทนจาก Facebook กล่าวในแถลงการณ์ "เรารู้ว่าการเกิดขึ้นอย่างต่อเนื่องของสื่อควบคุมทุกรูปแบบนำเสนอความท้าทายที่แท้จริงสำหรับสังคมนั่นคือสาเหตุที่เราลงทุนในการแก้ปัญหาทางเทคนิคใหม่เรียนรู้จากการวิจัยเชิงวิชาการและทำงานร่วมกับคนอื่น ๆ ในอุตสาหกรรมเพื่อทำความเข้าใจกับ ."

ไม่ใช่ Deepfakes ทั้งหมดที่ไม่ดี

ดังที่เราได้เห็นกับวิดีโอ Deepfake เพื่อการศึกษาโดย McAfee และวิดีโอ Deepfake ที่ตลกในทีวีตอนดึกวิดีโอ Deepfake บางวิดีโอไม่ได้เลวร้ายเสมอไป ในความเป็นจริงในขณะที่การเมืองสามารถเปิดเผยอันตรายที่แท้จริงของวิดีโอ Deepfake แต่อุตสาหกรรมบันเทิงมักจะแสดงให้เห็นถึงด้านที่เบากว่าของวิดีโอ Deepfake

ตัวอย่างเช่นในตอนล่าสุดของ The Late Show With Stephen Colbert วิดีโอ Deepfake ที่ตลกแสดงให้เห็นว่าใบหน้าของนักแสดงชายสตีฟ Buscemi ถูกทับบนร่างของนักแสดงหญิงเจนนิเฟอร์ลอว์เรนซ์ ในอีกกรณีนักแสดงตลก Jordan Peeler ได้แทนที่วิดีโอของอดีตประธานาธิบดีบารัคโอบามาซึ่งพูดด้วยเสียงของเขาเอง วิดีโอ deepfake ที่น่าขบขันเช่นนี้ปรากฏขึ้นทางออนไลน์ซึ่งใบหน้าของประธานาธิบดีทรัมป์ซ้อนทับใบหน้าของนายกรัฐมนตรีเยอรมัน Angela Merkel ขณะที่บุคคลนั้นพูด

อีกครั้งหากวิดีโอ deepfake ถูกใช้เพื่อจุดประสงค์เหน็บแนมหรือตลกขบขันหรือเป็นเพียงความบันเทิงแล้วแพลตฟอร์มโซเชียลมีเดียและแม้กระทั่งสถานที่ผลิตภาพยนตร์ก็อนุญาตหรือใช้ ตัวอย่างเช่น Facebook อนุญาตเนื้อหาประเภทนี้บนแพลตฟอร์มของตนและ Lucasfilm ใช้การเล่นเกมดิจิทัลเพื่อนำเสนอ Carrie Fisher รุ่นเยาว์บนตัวละคร Ingvild Deila ใน "Rogue One: A Star Wars Story"

Grobman ของ McAfee ตั้งข้อสังเกตว่าเทคโนโลยีบางอย่างที่อยู่เบื้องหลังการทำ Deepfakes นั้นถูกนำไปใช้งานได้ดีกับการแสดงหนังคู่ในการสร้างภาพยนตร์เพื่อให้นักแสดงปลอดภัย “ บริบทเป็นทุกสิ่งทุกอย่างหากเป็นเรื่องตลกและเห็นได้ชัดว่าไม่ใช่ของจริงนั่นคือสิ่งที่ใช้เทคโนโลยีอย่างถูกกฎหมาย” Grobman กล่าว "การตระหนักว่ามันสามารถใช้งานได้กับทุกวัตถุประสงค์ที่แตกต่างกันเป็นกุญแจสำคัญ"

(เครดิตรูปภาพ: Statista)

วิธีการตรวจหาวิดีโอ Deepfake

McAfee ไม่ใช่ บริษัท รักษาความปลอดภัยเพียงแห่งเดียวที่ทดลองใช้วิธีตรวจจับวิดีโอปลอม ในรายงานของ บริษัท ที่ส่งมอบที่ Black Hat 2018 มีชื่อว่า "AI Gone Rogue: การกำจัดของปลอมในระดับลึกก่อนที่พวกเขาจะทำให้ Menace เกิดขึ้น" ผู้เชี่ยวชาญด้านความปลอดภัยของไซแมนเทคสองคนหัวหน้าฝ่ายตอบโต้ความปลอดภัย Vijay Thaware และวิศวกรพัฒนาซอฟต์แวร์ Niranjan Agnihotri วิดีโอปลอมจาก Google FaceNet Google FaceNet เป็นสถาปัตยกรรมเครือข่ายประสาทที่นักวิจัยของ Google พัฒนาขึ้นเพื่อช่วยในการตรวจสอบและจดจำใบหน้า ผู้ใช้งานจะทำการฝึกอบรมรูปแบบของ FaceNet บนภาพหนึ่ง ๆ แล้วสามารถยืนยันตัวตนของพวกเขาในระหว่างการทดสอบหลังจากนั้น

เพื่อพยายามหยุดการแพร่กระจายของวิดีโอ deepfake มูลนิธิ AI องค์กรที่ไม่แสวงหาผลกำไรที่มุ่งเน้นการปฏิสัมพันธ์ระหว่างมนุษย์และ AI เสนอซอฟต์แวร์ที่เรียกว่า "ผู้พิทักษ์ความเป็นจริง" เพื่อค้นหาเนื้อหาปลอม สามารถสแกนภาพและวิดีโอเพื่อดูว่ามีการเปลี่ยนแปลงโดยใช้ AI หรือไม่ หากพวกเขามีพวกเขาจะได้รับ "AI ลายน้ำที่ซื่อสัตย์"

  • คู่มือธุรกิจเพื่อการเรียนรู้ของเครื่องคู่มือธุรกิจสำหรับการเรียนรู้ของเครื่อง
  • PornHub, Twitter Ban 'Deepfake' AI-Modified Porn PornHub, Twitter Ban 'Deepfake' AI-Modified Porn
  • ล่าสุด Deepfake Tech จะทำให้คุณเต้นเหมือน Bruno Mars ล่าสุด Deepfake Tech จะให้คุณเต้นเหมือน Bruno Mars

อีกกลยุทธ์หนึ่งคือการรักษาแนวคิดของ Zero Trust ไว้ในใจซึ่งหมายความว่า "ไม่เชื่อใจตรวจสอบเสมอ" - คำขวัญด้านความปลอดภัยทางไซเบอร์ซึ่งหมายความว่าผู้เชี่ยวชาญด้านไอทีควรยืนยันว่าผู้ใช้ทุกคนถูกกฎหมายก่อนที่จะให้สิทธิ์การเข้าถึง ยังคงมีข้อสงสัยเกี่ยวกับความถูกต้องของเนื้อหาวิดีโอที่จำเป็น นอกจากนี้คุณยังต้องการซอฟต์แวร์ที่มีความสามารถในการวิเคราะห์เชิงดิจิทัลเพื่อค้นหาเนื้อหาปลอม

มองหา Deepfakes

ในอนาคตข้างหน้าเราจะต้องระมัดระวังเนื้อหาวิดีโอให้มากขึ้นและระลึกถึงอันตรายที่พวกเขาสามารถนำเสนอต่อสังคมได้หากนำไปใช้ในทางที่ผิด ตามที่ Grobman ตั้งข้อสังเกตว่า "ในระยะเวลาอันใกล้นี้ผู้คนจำเป็นต้องสงสัยในสิ่งที่พวกเขาเห็นและรับรู้ว่าวิดีโอและเสียงสามารถประดิษฐ์ขึ้นได้"


ดังนั้นให้จับตาดูวิดีโอทางการเมืองที่คุณดูในขณะที่เรามุ่งหน้าสู่ฤดูกาลเลือกตั้งครั้งต่อไปและอย่าเชื่อถือวิดีโอทั้งหมดที่มีผู้นำองค์กร เพราะสิ่งที่คุณได้ยินอาจไม่ใช่สิ่งที่พูดจริง ๆ และวิดีโอที่ทำให้เข้าใจผิดอย่างลึกซึ้งมีศักยภาพที่จะสร้างความเสียหายให้กับสังคมของเรา

Ai และการเรียนรู้ด้วยเครื่องจักรหาประโยชน์, ของปลอมตอนนี้ตรวจจับได้ยากขึ้น