วีดีโอ: पृथà¥?वी पर सà¥?थित à¤à¤¯à¤¾à¤¨à¤• नरक मंदिर | Amazing H (ธันวาคม 2024)
หนึ่งในสิ่งที่น่าสนใจที่สุดและไม่คาดคิดการประกาศของ Google ในการประชุมนักพัฒนา I / O เมื่อสัปดาห์ที่แล้วคือมันได้ออกแบบและใช้ชิปของตัวเองสำหรับการเรียนรู้ของเครื่อง ในระหว่างการกล่าวสุนทรพจน์ CEO ของ Google Sundar Pichai แนะนำสิ่งที่เขาเรียกว่า Tensor Processing Unit (TPU) กล่าวว่า บริษัท ใช้สิ่งเหล่านี้ในเครื่องจักร AlphaGo ซึ่งเอาชนะ Go Sed Lee Lee
"TPU เป็นคำสั่งที่มีขนาดประสิทธิภาพต่อวัตต์สูงกว่า FPGA เชิงพาณิชย์และ GPU" นายพิชัยกล่าว ในขณะที่เขาไม่ได้ให้รายละเอียดมากมายนักวิศวกรที่มีชื่อเสียงของ Google Norm Jouppi อธิบายในบล็อกโพสต์ว่า TPU เป็น ASIC แบบกำหนดเอง (วงจรรวมเฉพาะแอปพลิเคชัน) กล่าวอีกนัยหนึ่งมันเป็นชิปที่ออกแบบมาโดยเฉพาะเพื่อให้การเรียนรู้ของเครื่องและปรับแต่งเป็นพิเศษสำหรับ TensorFlow ซึ่งเป็นกรอบการเรียนรู้ของเครื่องของ Google
ภาพ
ในการโพสต์ Jouppi กล่าวว่ามันเป็น "ความอดทนมากขึ้น" ของความแม่นยำในการคำนวณลดลงซึ่งหมายความว่ามันต้องใช้ทรานซิสเตอร์น้อยต่อการดำเนินงาน สิ่งนี้ทำให้ Google สามารถทำงานได้มากขึ้นต่อวินาทีทำให้ผู้ใช้งานได้ผลลัพธ์ที่รวดเร็วยิ่งขึ้น เขากล่าวว่าบอร์ดที่มี TPU สอดเข้าไปในช่องเสียบฮาร์ดไดรฟ์ในชั้นวางของศูนย์ข้อมูลและแสดงภาพของชั้นวางเซิร์ฟเวอร์ที่เต็มไปด้วย TPU ซึ่งเขากล่าวว่าถูกนำมาใช้ในเครื่อง AlphaGo ของ บริษัท
นอกจากนี้ Jouppi กล่าวว่า TPUs กำลังทำงานกับแอปพลิเคชั่นจำนวนมากที่ Google รวมถึง RankBrain เพื่อปรับปรุงความเกี่ยวข้องของผลการค้นหาและ Street View เพื่อปรับปรุงความแม่นยำและคุณภาพของแผนที่และการนำทาง
ในงานแถลงข่าว Urs Hölzleรองประธานฝ่ายโครงสร้างพื้นฐานทางเทคนิคของ Google ยืนยันว่า TPU ทำงานโดยใช้เลขจำนวนเต็ม 8 บิตแทนที่จะเป็นเลขทศนิยมที่มีความแม่นยำสูงสำหรับการออกแบบ CPU และ GPU ที่ทันสมัยที่สุด อัลกอริธึมการเรียนรู้เครื่องจักรส่วนใหญ่สามารถทำได้โดยการปรับด้วยข้อมูลความละเอียดที่ต่ำกว่าซึ่งหมายความว่าชิปสามารถจัดการการทำงานได้มากขึ้นในพื้นที่ที่กำหนด นี่ไม่ใช่แนวคิดใหม่โมดูล Nvidia Drive PX 2 ที่ประกาศเมื่อต้นปีนี้ที่งาน CES มีความสามารถ 8 teraflops ที่ความแม่นยำจุดลอยตัว 32 บิต แต่ถึง 24 teraops ที่เรียนรู้ลึก เลขจำนวนเต็มบิต)
แม้ว่าHölzleปฏิเสธที่จะระบุเฉพาะรายงานว่าเขายืนยันว่า Google ใช้ทั้ง TPU และ GPU ในวันนี้ เขากล่าวว่าสิ่งนี้จะดำเนินต่อไประยะหนึ่ง แต่แนะนำว่า Google มองว่า GPU นั้นกว้างเกินไปเลือกใช้ชิปที่เหมาะสำหรับการเรียนรู้ของเครื่อง เขากล่าวว่า บริษัท จะปล่อยกระดาษที่อธิบายถึงประโยชน์ของชิปในภายหลัง แต่ทำให้ชัดเจนว่าสิ่งเหล่านี้ออกแบบมาเพื่อใช้ภายในเท่านั้นไม่ใช่เพื่อขายให้กับ บริษัท อื่น แอปพลิเคชันอื่นที่เขาอธิบายคือใช้ชิปเพื่อจัดการส่วนหนึ่งของการคำนวณที่อยู่เบื้องหลังเอ็นจิ้นการจดจำเสียงที่ใช้กับโทรศัพท์ Android
ทางเลือกในการใช้ ASIC เป็นเดิมพันที่น่าสนใจโดย Google ความก้าวหน้าที่ยิ่งใหญ่ที่สุดในการเรียนรู้ของเครื่องจักรในช่วงไม่กี่ปีที่ผ่านมา - เทคโนโลยีที่อยู่เบื้องหลังการผลักดันอย่างใหญ่หลวงสำหรับโครงข่ายประสาทส่วนลึก - ได้รับการนำ GPU มาใช้โดยเฉพาะในสาย Nvidia Tesla เพื่อฝึกฝนโมเดลเหล่านี้ เมื่อเร็ว ๆ นี้ Intel ได้ซื้อ Altera ซึ่งเป็นผู้ผลิตชั้นนำของ FPGAs (อาร์เรย์เกทซึ่งสามารถตั้งโปรแกรมได้) ซึ่งอยู่ตรงกลาง พวกเขาไม่ได้เป็นวัตถุประสงค์ทั่วไปเป็น GPU หรือออกแบบมาเป็นพิเศษสำหรับ TensorFlow เป็นชิปของ Google แต่สามารถตั้งโปรแกรมให้ทำงานต่าง ๆ ได้ Microsoft ได้ทำการทดลองกับ Altera FPGAs เพื่อการเรียนรู้อย่างลึกซึ้ง ไอบีเอ็มกำลังพัฒนาชิป TrueNorth Neurosynaptic ซึ่งออกแบบมาเฉพาะสำหรับโครงข่ายประสาทซึ่งเพิ่งเริ่มใช้ในแอพพลิเคชั่นที่หลากหลาย Cadence (Tensilica), Freescale และ Synopsys กำลังผลักดัน DSP ของพวกเขา (ตัวประมวลผลสัญญาณดิจิตอล) เพื่อรันโมเดลเหล่านี้ Mobileye และ NXP เพิ่งเปิดตัวชิปที่ออกแบบมาเฉพาะสำหรับ ADAS และรถยนต์ขับเคลื่อนด้วยตนเอง; และ บริษัท ขนาดเล็กหลายแห่งรวมถึง Movidius และ Nervana ได้ประกาศแผนการสำหรับชิปที่ออกแบบมาโดยเฉพาะสำหรับ AI
มันเร็วเกินไปที่จะรู้ว่าวิธีใดจะดีที่สุดในระยะยาว แต่การมีตัวเลือกที่แตกต่างกันมากหมายความว่าเราน่าจะเห็นการแข่งขันที่น่าสนใจในอีกไม่กี่ปีข้างหน้า