บ้าน คุณสมบัติ ปัญญาประดิษฐ์มีปัญหาอคติและเป็นความผิดของเรา

ปัญญาประดิษฐ์มีปัญหาอคติและเป็นความผิดของเรา

สารบัญ:

วีดีโอ: A day with Scandale - Harmonie Collection - Spring / Summer 2013 (กันยายน 2024)

วีดีโอ: A day with Scandale - Harmonie Collection - Spring / Summer 2013 (กันยายน 2024)
Anonim

ในปี 2559 นักวิจัยจากมหาวิทยาลัยบอสตันและไมโครซอฟท์กำลังทำงานเกี่ยวกับอัลกอริทึมปัญญาประดิษฐ์เมื่อพวกเขาค้นพบแนวโน้มชนชั้นและผู้หญิงในเทคโนโลยีที่ใช้บริการที่เป็นที่นิยมและสำคัญที่สุดที่เราใช้ทุกวัน การเปิดเผยนั้นขัดแย้งกับภูมิปัญญาดั้งเดิมที่ปัญญาประดิษฐ์ไม่ได้รับผลกระทบจากอคติทางเชื้อชาติและวัฒนธรรมที่มนุษย์เราทำ

นักวิจัยได้ค้นพบสิ่งนี้ในขณะที่ศึกษาอัลกอริธึมการฝังคำซึ่งเป็น AI ชนิดหนึ่งที่ค้นหาสหสัมพันธ์และการเชื่อมโยงระหว่างคำต่าง ๆ โดยการวิเคราะห์เนื้อความขนาดใหญ่ ตัวอย่างเช่นอัลกอริทึมการฝังคำที่ผ่านการฝึกอบรมสามารถเข้าใจได้ว่าคำสำหรับดอกไม้นั้นเกี่ยวข้องกับความรู้สึกที่น่าพอใจ ในทางปฏิบัติยิ่งขึ้นการฝังคำเข้าใจว่าคำว่า "การเขียนโปรแกรมคอมพิวเตอร์" นั้นเกี่ยวข้องกับ "C ++, " "JavaScript" และ "การวิเคราะห์เชิงวัตถุและการออกแบบ" เมื่อรวมเข้ากับแอปพลิเคชันการสแกนเรซูเม่ฟังก์ชั่นนี้จะช่วยให้นายจ้างค้นหาผู้สมัครที่มีคุณสมบัติด้วยความพยายามน้อยลง ในเครื่องมือค้นหาสามารถให้ผลลัพธ์ที่ดีขึ้นโดยแสดงเนื้อหาที่เกี่ยวข้องกับความหมายของข้อความค้นหา

นักวิจัยของ BU และ Microsoft พบว่าอัลกอริธึมการฝังคำมีอคติที่มีปัญหาเช่น - เชื่อมโยง "โปรแกรมคอมพิวเตอร์" กับคำสรรพนามชายและ "แม่บ้าน" กับผู้หญิง ผลการวิจัยของพวกเขาซึ่งพวกเขาตีพิมพ์ในกระดาษงานวิจัยเรื่อง aptly "ผู้ชายคือการเขียนโปรแกรมคอมพิวเตอร์เป็นผู้หญิงคือการแม่บ้าน?" เป็นหนึ่งในหลาย ๆ รายงานที่จะหักล้างตำนานของความเป็นกลางของ AI และแสดงให้เห็นถึงอคติของอัลกอริทึมซึ่งเป็นปรากฏการณ์ที่เข้าถึงมิติที่สำคัญเนื่องจากอัลกอริทึมมีส่วนร่วมมากขึ้นในการตัดสินใจประจำวันของเรา

ต้นกำเนิดของอัลกอริทึมอคติ

การเรียนรู้ของเครื่องและอัลกอริธึมการเรียนรู้เชิงลึกเป็นซอฟต์แวร์ที่ขับเคลื่อนด้วย AI ที่ทันสมัยที่สุด ตรงกันข้ามกับซอฟต์แวร์แบบดั้งเดิมซึ่งทำงานบนพื้นฐานของกฎที่กำหนดไว้ล่วงหน้าและตรวจสอบได้การเรียนรู้เชิงลึกจะสร้างกฎของตนเองและเรียนรู้จากตัวอย่าง

ตัวอย่างเช่นในการสร้างแอปพลิเคชั่นจดจำภาพโดยอิงจากการเรียนรู้ลึกโปรแกรมเมอร์ "ฝึกอบรม" อัลกอริทึมด้วยการป้อนข้อมูลที่มีป้ายกำกับ: ในกรณีนี้ภาพถ่ายติดแท็กด้วยชื่อของวัตถุที่มี เมื่ออัลกอริทึมกลืนกินตัวอย่างมากพอมันสามารถรวบรวมรูปแบบทั่วไประหว่างข้อมูลที่มีป้ายกำกับที่คล้ายกันและใช้ข้อมูลนั้นเพื่อจำแนกตัวอย่างที่ไม่มีป้ายกำกับ

กลไกนี้ช่วยให้การเรียนรู้อย่างลึกซึ้งในการทำงานหลายอย่างที่เป็นไปไม่ได้จริงด้วยซอฟต์แวร์ที่ใช้กฎ แต่มันยังหมายถึง ซอฟต์แวร์การเรียนรู้ลึกที่สามารถสืบทอดอคติที่ซ่อนเร้นหรือเปิดเผยได้

“ อัลกอริธึม AI นั้นไม่ลำเอียงอย่างแท้จริง” ศาสตราจารย์ Venkatesh Saligrama ผู้สอนที่ภาควิชาวิศวกรรมไฟฟ้าและคอมพิวเตอร์ของมหาวิทยาลัยบอสตันและทำงานเกี่ยวกับอัลกอริธึมการฝังคำ "พวกเขามีฟังก์ชันการทำงานที่กำหนดไว้แล้วและจะรับแนวโน้มใด ๆ ที่มีอยู่แล้วในข้อมูลที่พวกเขาฝึกอบรม"

อัลกอริธึมการฝังคำที่ทดสอบโดยนักวิจัยของมหาวิทยาลัยบอสตันได้รับการฝึกฝนเกี่ยวกับบทความนับแสนจาก Google News, Wikipedia และแหล่งข้อมูลออนไลน์อื่น ๆ ที่มีอคติทางสังคมฝังอยู่ลึก ตัวอย่างเช่นเนื่องจากวัฒนธรรมของพี่ชายที่มีอิทธิพลเหนืออุตสาหกรรมเทคโนโลยีชื่อผู้ชายจึงเกิดขึ้นบ่อยครั้งมากขึ้นกับงานที่เกี่ยวข้องกับเทคโนโลยี - และนั่นนำไปสู่อัลกอริทึมในการเชื่อมโยงผู้ชายกับงานเช่นการเขียนโปรแกรมและวิศวกรรมซอฟต์แวร์

“ อัลกอริทึมไม่มีอำนาจของจิตใจมนุษย์ในการแยกความแตกต่างจากสิ่งที่ผิด” โทลก้าโบลักบาซีนักศึกษาปริญญาเอกปีสุดท้ายของมหาวิทยาลัยบูร์กล่าวเสริม มนุษย์สามารถตัดสินคุณธรรมของการกระทำของเราแม้เมื่อเราตัดสินใจที่จะต่อต้านบรรทัดฐานทางจริยธรรม แต่สำหรับอัลกอริทึมข้อมูลเป็นปัจจัยกำหนดขั้นสูงสุด

Saligrama และ Bolukbasi ไม่ใช่คนแรกที่ส่งสัญญาณเตือนเกี่ยวกับอคตินี้ นักวิจัยที่ IBM, Microsoft, และมหาวิทยาลัยโตรอนโตได้เน้นย้ำถึงความจำเป็นในการป้องกันการเลือกปฏิบัติทางอัลกอริทึมในบทความที่ตีพิมพ์ในปี 2554 ย้อนกลับไปแล้วความลำเอียงอัลกอริทึมเป็นปัญหาที่ลึกลับและการเรียนรู้อย่างลึกซึ้ง อย่างไรก็ตามในปัจจุบันอัลกอริทึมอคติได้ทิ้งเครื่องหมายไว้ในหลาย ๆ สิ่งที่เราทำเช่นการอ่านข่าวการหาเพื่อนช็อปปิ้งออนไลน์และดูวิดีโอบน Netflix และ YouTube

ผลกระทบของอัลกอริทึมอคติ

ในปี 2558 Google ต้องขออภัยหลังจากอัลกอริธึมที่เปิดแอพ Photos ติดแท็กคนผิวดำสองคนเป็นกอริลล่า - อาจเป็นเพราะชุดข้อมูลการฝึกอบรมมีภาพคนดำไม่เพียงพอ ในปี 2559 จากผู้ชนะการประกวดความงาม 44 คนที่ตัดสินโดย AI เกือบทั้งหมดเป็นสีขาวมีเพียงไม่กี่คนที่เป็นชาวเอเชียและมีเพียงคนเดียวที่มีผิวสีเข้ม อีกครั้งเหตุผลก็คืออัลกอริทึมส่วนใหญ่ได้รับการฝึกฝนกับภาพถ่ายของคนผิวขาว

Google Photos คุณจะต้องเสียสละ เพื่อนของฉันไม่ใช่ลิงกอริลลา pic.twitter.com/SMkMCsNVX4

- jackyalcinéไม่ตอบสนองต่อสิ่งต่างๆมากมายที่นี่ DM (@jackyalcine) 29 มิถุนายน 2558

เมื่อเร็ว ๆ นี้การทดสอบบริการวิเคราะห์ใบหน้าของ IBM และ Microsoft พบว่าอัลกอริทึมของ บริษัท เกือบไร้ที่ติในการตรวจสอบเพศของผู้ชายที่มีผิวขาว แต่มักจะผิดพลาดเมื่อนำเสนอด้วยภาพของผู้หญิงที่มีผิวสีเข้ม

แม้ว่าเหตุการณ์เหล่านี้อาจก่อให้เกิดความเสียหายเล็กน้อย แต่ก็ไม่สามารถพูดถึงอัลกอริธึม AI ในขอบเขตที่สำคัญเช่นการดูแลสุขภาพการบังคับใช้กฎหมายและการสรรหาบุคลากร ในปี 2559 การสืบสวนโดย ProPublica พบว่าซอฟต์แวร์ที่ขับเคลื่อนด้วย AI ซึ่งประเมินความเสี่ยงของการกระทำผิดซ้ำในผู้กระทำความผิดนั้นมีความลำเอียงต่อคนที่มีสี การค้นพบนี้เกี่ยวข้องกับโดยเฉพาะอย่างยิ่งเนื่องจากผู้พิพากษาในบางรัฐใช้ COMPAS เพื่อตัดสินว่าใครเป็นอิสระและอยู่ในคุก

ในอีกกรณีหนึ่งการศึกษาแพลตฟอร์มโฆษณาของ Google ซึ่งขับเคลื่อนโดยอัลกอริธึมการเรียนรู้ลึกพบว่าผู้ชายแสดงโฆษณาสำหรับงานที่มีรายได้สูงบ่อยกว่าผู้หญิง การศึกษาแยกพบว่าปัญหาที่คล้ายกันกับโฆษณางานของ LinkedIn อีกอย่างหนึ่งแสดงให้เห็นว่าอัลกอริทึมการจ้างงานแบบลำเอียงมีแนวโน้มที่จะส่งคำเชิญสัมภาษณ์ไปยังบุคคลที่มีชื่อเป็นชาวยุโรป - อเมริกันมากกว่าคนที่มีชื่อแอฟริกัน - อเมริกัน 50%

พื้นที่เช่นการอนุมัติสินเชื่อการจัดอันดับเครดิตและทุนการศึกษาเผชิญกับภัยคุกคามที่คล้ายกัน

ความเอนเอียงอัลกอริทึมนั้นน่าเป็นห่วงมากขึ้นเพราะมันจะขยายอคติทางสังคมได้อย่างไร ภายใต้ภาพลวงตาที่ AI นั้นเย็นการคำนวณทางคณิตศาสตร์ไร้อคติหรืออคติมนุษย์อาจมีแนวโน้มที่จะเชื่อถือการตัดสินใจแบบอัลกอริทึมโดยไม่ต้องตั้งคำถาม

ในการให้สัมภาษณ์กับ Wired UK วิทยากรด้านอาชญาวิทยาของ Edinburgh Napier University Andrew Wooff ตั้งข้อสังเกตว่าโลกแห่งการรักษา "ความกดดันที่ต้องใช้เวลาและมีทรัพยากรมาก" อาจทำให้เจ้าหน้าที่บังคับใช้กฎหมายต้องพึ่งพาการตัดสินใจแบบอัลกอริธึม “ ฉันสามารถจินตนาการถึงสถานการณ์ที่เจ้าหน้าที่ตำรวจอาจใช้ระบบมากกว่ากระบวนการตัดสินใจของตัวเอง” เขากล่าว "ส่วนหนึ่งอาจเป็นไปได้ที่คุณจะสามารถแสดงให้เห็นถึงการตัดสินใจเมื่อมีอะไรผิดพลาด"

การใช้อัลกอริทึมแบบเอนเอียงสร้างวงข้อเสนอแนะ: เราทำการตัดสินใจที่สร้างข้อมูลแบบเอนเอียงมากขึ้นซึ่งอัลกอริทึมจะวิเคราะห์และฝึกอบรมในอนาคต

สิ่งนี้เกิดขึ้นแล้วในเครือข่ายโซเชียลมีเดียเช่น Facebook และ Twitter อัลกอริทึมที่ใช้ฟีดข่าวจะสร้าง "ตัวกรองฟองอากาศ" ซึ่งแสดงเนื้อหาที่สอดคล้องกับความชอบและอคติของผู้ใช้ สิ่งนี้สามารถทำให้พวกเขามีความอดทนน้อยลงต่อมุมมองของฝ่ายตรงข้ามและยังสามารถทำให้สังคมมีขั้วโดยการผลักดันลิ่มผ่านการแบ่งแยกทางการเมืองและสังคม

“ อัลกอริทึมอคติอาจส่งผลกระทบต่อกลุ่มใด ๆ ” Jenn Wortman Vaughan นักวิจัยอาวุโสของ Microsoft กล่าว "กลุ่มที่มีการแสดงข้อมูลน้อยอาจมีความเสี่ยงเป็นพิเศษ"

ในโดเมนที่มีอคติอยู่แล้วเช่นการเลือกปฏิบัติเฉพาะถิ่นของอุตสาหกรรมเทคโนโลยีต่อสตรีอัลกอริธึม AI อาจเน้นความเอนเอียงเหล่านั้นและส่งผลให้เกิดกลุ่มชายขอบที่ไม่ได้เป็นตัวแทน

สุขภาพเป็นอีกหนึ่งโดเมนที่สำคัญ Wortman ชี้ให้เห็น “ มันอาจทำให้เกิดปัญหาร้ายแรงหากอัลกอริทึมการเรียนรู้ด้วยเครื่องจักรที่ใช้สำหรับการวินิจฉัยทางการแพทย์ได้รับการฝึกอบรมข้อมูลจากประชากรหนึ่งและส่งผลให้ไม่สามารถทำงานได้ดีกับผู้อื่น” เธอกล่าว

อคติอาจเป็นอันตรายได้หลายวิธี “ เมื่อปีที่แล้วฉันวางแผนจะพาลูกสาวไปตัดผมและค้นหาภาพ 'ตัดผมทรงเด็กวัยหัดเดิน' ทางออนไลน์เพื่อหาแรงบันดาลใจ "Wortman กล่าว แต่ภาพที่ส่งกลับมานั้นเป็นเด็กผิวขาวเกือบทั้งหมดโดยเริ่มจากมีผมตรงและน่าประหลาดใจมากที่สุด

ผู้เชี่ยวชาญเรียกปรากฏการณ์นี้ว่า "การเป็นตัวแทนอันตราย": เมื่อเทคโนโลยีตอกย้ำภาพลักษณ์หรือลดกลุ่มเฉพาะ “ มันยากที่จะหาจำนวนหรือวัดผลกระทบที่แน่นอนของอคติประเภทนี้ แต่นั่นไม่ได้หมายความว่ามันไม่สำคัญ” Wortman กล่าว

การลบอคติออกจากอัลกอริทึม AI

ผลกระทบที่สำคัญยิ่งขึ้นของอคติ AI ได้รับความสนใจจากหลายองค์กรและหน่วยงานของรัฐและมีการดำเนินการในเชิงบวกเพื่อแก้ไขปัญหาด้านจริยธรรมและสังคมที่เกี่ยวข้องกับการใช้ AI ในด้านต่างๆ

ไมโครซอฟท์ซึ่งผลิตภัณฑ์พึ่งพาอาศัยอัลกอริธึม AI เป็นอย่างมากได้เปิดตัวโครงการวิจัยเมื่อสามปีก่อนที่เรียกว่า Fairness, Accountability, Transparency และ Ethics in AI (FATE) เพื่อให้ผู้ใช้เพลิดเพลินกับข้อมูลเชิงลึกและประสิทธิภาพของบริการ AI อคติ

ในบางกรณีเช่นการประกวดความงามที่ถูกตัดสินโดย AI การค้นหาและแก้ไขแหล่งที่มาของพฤติกรรมลำเอียงของอัลกอริทึม AI นั้นอาจทำได้ง่ายเพียงแค่ตรวจสอบและเปลี่ยนภาพถ่ายในชุดข้อมูลการฝึกอบรม แต่ในกรณีอื่น ๆ เช่นอัลกอริธึมการฝังคำที่นักวิจัยมหาวิทยาลัยบอสตันตรวจสอบความลำเอียงถูก engrained ในข้อมูลการฝึกอบรมในรูปแบบที่ลึกซึ้งยิ่งขึ้น

ทีมงาน BU ซึ่งร่วมงานกับอดัมคาไลนักวิจัยไมโครซอฟท์ได้พัฒนาวิธีการจัดประเภทงานแต่งงานคำตามประเภทเพศของพวกเขาและระบุคล้ายคลึงที่อาจลำเอียง แต่พวกเขาไม่ได้ทำการตัดสินใจขั้นสุดท้ายและจะดำเนินการสมาคมผู้ต้องสงสัยแต่ละคนโดย 10 คนในแผนกเครื่องกล Turk ซึ่งเป็นตลาดออนไลน์ของ Amazon สำหรับงานที่เกี่ยวข้องกับข้อมูลซึ่งจะเป็นผู้ตัดสินว่าสมาคมควรถูกลบหรือไม่

“ เราไม่ต้องการแทรกอคติของเราเองในกระบวนการ” Saligrama ศาสตราจารย์ BU และนักวิจัยกล่าว "เราเพิ่งได้จัดเตรียมเครื่องมือเพื่อค้นหาความสัมพันธ์ที่มีปัญหามนุษย์ทำการตัดสินใจขั้นสุดท้าย"

ในรายงานฉบับล่าสุดกาไลและนักวิจัยคนอื่นเสนอให้ใช้อัลกอริทึมแยกต่างหากเพื่อจำแนกกลุ่มคนที่แตกต่างกันแทนที่จะใช้มาตรการเดียวกันสำหรับทุกคน วิธีนี้สามารถพิสูจน์ได้อย่างมีประสิทธิภาพในโดเมนที่ข้อมูลที่มีอยู่มีอคติอยู่แล้วในความโปรดปรานของกลุ่มที่เฉพาะเจาะจง ตัวอย่างเช่นอัลกอริทึมที่จะประเมินผู้สมัครหญิงสำหรับงานเขียนโปรแกรมจะใช้เกณฑ์ที่เหมาะสมที่สุดสำหรับกลุ่มนั้นแทนที่จะใช้ชุดข้อมูลที่กว้างขึ้นซึ่งได้รับอิทธิพลอย่างลึกซึ้งจากอคติที่มีอยู่

Wortman ของ Microsoft มองว่าการรวมตัวกันในอุตสาหกรรม AI เป็นขั้นตอนที่จำเป็นในการต่อสู้กับอคติในอัลกอริทึม “ หากเราต้องการให้ระบบ AI ของเราเป็นประโยชน์กับทุกคนและไม่ใช่แค่ข้อมูลประชากรบางอย่าง บริษัท ต่างๆจำเป็นต้องจ้างทีมที่หลากหลายเพื่อทำงานกับ AI” เธอกล่าว

ในปี 2549 Wortman ช่วยพบ Women in Machine Learning (WiML) ซึ่งมีการประชุมเชิงปฏิบัติการประจำปีที่ผู้หญิงที่เรียนและทำงานในอุตสาหกรรม AI สามารถพบปะเครือข่ายแลกเปลี่ยนความคิดเห็นและเข้าร่วมการเสวนากับสตรีอาวุโสในอุตสาหกรรมและสถาบันการศึกษา ความพยายามที่คล้ายกันคือ Black in AI Workshop ใหม่ซึ่งก่อตั้งโดย Timnit Gebru นักวิจัยของ Microsoft อีกคนหนึ่งซึ่งมีเป้าหมายเพื่อสร้างความสามารถที่หลากหลายใน AI

Bolukbasi ของมหาวิทยาลัยบอสตันยังเสนอให้ปรับเปลี่ยนวิธีการของอัลกอริธึมในการแก้ปัญหา “ อัลกอริทึมจะเลือกชุดของกฎที่เพิ่มวัตถุประสงค์ของพวกเขาให้มากที่สุดอาจมีหลายวิธีในการเข้าถึงข้อสรุปชุดเดียวกันสำหรับคู่เอาต์พุตอินพุตที่กำหนด "เขากล่าว "ยกตัวอย่างการทดสอบแบบปรนัยสำหรับมนุษย์เราอาจได้คำตอบที่ถูกต้องด้วยกระบวนการคิดที่ผิด แต่ก็ยังได้คะแนนเท่ากันการทดสอบที่มีคุณภาพสูงควรได้รับการออกแบบมาเพื่อลดผลกระทบนี้ รู้เรื่องเพื่อให้ได้คะแนนที่ถูกต้องทำให้อัลกอริทึมตระหนักถึงข้อ จำกัด ทางสังคมที่สามารถมองเห็นได้เป็นแบบอะนาล็อกกับตัวอย่างนี้ (แม้ว่าจะไม่ใช่แบบที่แน่นอน) ซึ่งการเรียนรู้ชุดกฎที่ผิดจะถูกลงโทษในวัตถุประสงค์ หัวข้อ."

ความทึบของ AI นั้นทำให้เกิดความยุติธรรม

ความท้าทายอีกประการหนึ่งในการสร้างอัลกอริธึม AI ที่ยุติธรรมคือปรากฏการณ์ "กล่องดำ" ในหลาย ๆ กรณี บริษัท ต่างๆต้องระมัดระวังอัลกอริธึมของตนเช่น Northpointe Inc. ผู้ผลิต COMPAS ซึ่งเป็นซอฟต์แวร์การคาดการณ์อาชญากรรมได้ปฏิเสธที่จะเปิดเผยอัลกอริทึมที่เป็นกรรมสิทธิ์ของตน คนเพียงคนเดียวที่ทำหน้าที่ภายในของคอมแพคคือโปรแกรมเมอร์ไม่ใช่ผู้พิพากษาใช้เพื่อผ่านการตัดสิน

นอกเหนือจากการรักษาความลับขององค์กรแล้วบางครั้งอัลกอริทึม AI ก็กลายเป็นที่สับสนอย่างมากว่าเหตุผลและกลไกที่อยู่เบื้องหลังการตัดสินใจของพวกเขาหลบเลี่ยงแม้แต่ผู้สร้างของพวกเขา ในสหราชอาณาจักรตำรวจเดอร์แฮมใช้ระบบ AI HART เพื่อตัดสินว่าผู้ต้องสงสัยมีความเสี่ยงต่ำปานกลางหรือสูงในการก่ออาชญากรรมต่อไปภายในระยะเวลาสองปี แต่จากการทบทวนทางวิชาการของ HART ในปีพ. ศ. 2560 พบว่า "ความทึบดูเหมือนยากที่จะหลีกเลี่ยง" ส่วนหนึ่งเป็นเพราะปริมาณและความหลากหลายของข้อมูลที่ระบบใช้ซึ่งทำให้ยากต่อการวิเคราะห์เหตุผลที่อยู่เบื้องหลังการตัดสินใจ “ รายละเอียดเหล่านี้สามารถเผยแพร่สู่สาธารณะได้อย่างอิสระ แต่ต้องใช้เวลาและความพยายามเป็นอย่างมากในการทำความเข้าใจ” กระดาษกล่าว

บริษัท และองค์กรหลายแห่งกำลังพยายามนำความโปร่งใสมาสู่ AI รวมถึง Google ซึ่งได้เปิดตัว GlassBox ซึ่งเป็นความคิดริเริ่มที่จะทำให้พฤติกรรมของอัลกอริทึมการเรียนรู้ด้วยเครื่องเข้าใจได้ง่ายขึ้นโดยไม่ลดคุณภาพของผลผลิต สำนักงานโครงการวิจัยขั้นสูงด้านกลาโหม (DARPA) ซึ่งดูแลการใช้ AI ในกองทัพก็ให้ทุนสนับสนุนความพยายามในการเปิดใช้งานอัลกอริทึม AI เพื่ออธิบายการตัดสินใจของพวกเขา

ในกรณีอื่น ๆ การตัดสินของมนุษย์จะเป็นกุญแจสำคัญในการจัดการกับอคติ เพื่อป้องกันอคติของเผ่าพันธุ์มนุษย์และสังคมที่มีอยู่ไม่ให้คืบคลานเข้าสู่อัลกอริธึมของ HART, Durham Constabulary ให้สมาชิกของพนักงานได้รับรู้รอบอคติหมดสติ กองกำลังตำรวจยังได้ดำเนินการเพื่อลบจุดข้อมูลเช่นลักษณะทางเชื้อชาติซึ่งอาจสร้างพื้นที่สำหรับการตัดสินใจลำเอียง

ความรับผิดชอบของมนุษย์

จากมุมมองที่แตกต่างกันอัลกอริธึม AI สามารถให้โอกาสในการสะท้อนอคติและอคติของเราเอง "โลกมีความเอนเอียงข้อมูลทางประวัติศาสตร์มีความเอนเอียงดังนั้นจึงไม่น่าแปลกใจที่เราได้รับผลลัพธ์ที่ลำเอียง" Sandra Wachter นักวิจัยด้านจริยธรรมข้อมูลและอัลกอริธึมที่มหาวิทยาลัยอ๊อกซฟอร์ดกล่าวกับ ผู้พิทักษ์

Wachter เป็นส่วนหนึ่งของทีมวิจัยจาก Alan Turing Institute ในลอนดอนและ University of Oxford ซึ่งตีพิมพ์บทความเกี่ยวกับระเบียบและสถาบันเพื่อตรวจสอบการเลือกปฏิบัติที่เป็นไปได้ของ AI

Joanna Bryson ยังพูดกับ The Guardian นักวิทยาศาสตร์คอมพิวเตอร์ที่ University of Bath และผู้เขียนร่วมของรายงานการวิจัยเกี่ยวกับความลำเอียงอัลกอริธึมกล่าวว่า "ผู้คนจำนวนมากกำลังพูดว่าแสดงให้เห็นว่า AI นั้นมีอคติไม่ เป็นอคติและ AI กำลังเรียนรู้อยู่ "

ในปี 2559 ไมโครซอฟท์เปิดตัว Tay ซึ่งเป็นบอท Twitter ที่ควรจะเรียนรู้จากมนุษย์และมีส่วนร่วมในการสนทนาอย่างชาญฉลาด แต่ภายใน 24 ชั่วโมงหลังจากการเปิดตัวของ Tay ไมโครซอฟท์ก็ต้องปิดตัวลงหลังจากที่มันเริ่มแสดงความคิดเห็นเกี่ยวกับการเหยียดผิวซึ่งมันได้รับจากการสนทนากับผู้ใช้ Twitter บางทีนี่อาจเป็นเครื่องเตือนใจว่าเป็นเวลาที่ผ่านมาที่มนุษย์เรารับรู้บทบาทของเราในการปรากฎและการเผยแผ่ของปรากฏการณ์อคติอัลกอริทึมและดำเนินการตามขั้นตอนโดยรวมเพื่อยกเลิกผลกระทบของมัน

“ นี่เป็นงานที่ซับซ้อนมาก แต่มันเป็นความรับผิดชอบที่เราในฐานะสังคมไม่ควรหลีกเลี่ยง” Wachter กล่าว

ปัญญาประดิษฐ์มีปัญหาอคติและเป็นความผิดของเรา