Samsung เผยเปเปอร์วิธีเร่งการประมวลผลปัญญาประดิษฐ์ด้วยโครงประสาท (NPU) ว่าจะเร่งการประมวลผล AI และ Deep learning ได้เร็วกว่าปัจจุบัน 8 เท่า และกินไฟน้อยลง 4 เท่า
SAIT (Samsung Advanced Institute of Technology) ระบุในเอกสารเปเปอร์งานวิจัยว่าอัลกอริทึมที่ทดลองนั้นประสบผลสำเร็จในการทดสอบ และน่าจะเป็นใบเบิกทางสู่ยุคถัดไปที่อุปกรณ์ทุกอย่าง และเซนเซอร์ทุกประเภทมีการควบคุมด้วยปัญญาประดิษฐ์
ในเปเปอร์ระบุว่าวิธีที่ใช้ในการทำให้ประสิทธิภาพดีขึ้นนี้คือนำข้อมูลมารวมเป็นกลุ่มขนาดไม่เกิน 4 บิต จะทำให้คงความแม่นยำได้ (ทาง Samsung เรียกว่า Quantization Interval Learning – QIL) โดยเทคนิคนี้จะทำให้ได้ผลลัพธ์เหมือนปัจจุบัน แต่ใช้ทรานซิสเตอร์น้อยลง 120 เท่า สำหรับกระบวนการบีบอัดข้อมูลให้เหลือขนาด 4 บิตนี้จะทำให้ Deep Learning ทำงานได้เร็วขึ้น เนื่องจากตัวประมวลผลเหล่านี้ถนัดการทำงานง่ายๆ จำนวนมาก มากกว่าจะเป็นงานที่มีความซับซ้อนจำนวนไ่มากนัก
ทาง Samsung ยังไม่เผยว่าเทคนิคนี้จะนำมาใช้งานได้จริงกับงานประมวลผลด้านปัญญาประดิษฐ์เมื่อไหร่ แต่ระบุเอาไว้ว่าตอนที่นำมาใช้ ผลิตภัณฑ์กลุ่มแรกก็คือมือถือของ Samsung นั่นเอง เนื่องจากวิธีนี้กินไฟน้อยลง และลดการประมวลผลลงได้มาก ทำให้ NPU (หน่วยประมวลผลเชิงประสาทเทียม) สามารถทำงานได้โดยไม่ต้องส่งไปยังอินเตอร์เน็ท
สำหรับตอนนี้ชิป Exynos ตัวแรกที่มี NPU ในตัวคือ Samsung Exynos 9820 ที่ใช้อยู่ใน Samsung Galaxy S10 (และคาดว่าจะอยู่ใน Samsung Galaxy Note 10 ด้วย) ในอนาคตเมื่อนำอัลกอริทึมนี้มาใช้น่าจะทำให้เครื่องสามารถทำงานได้อีกมาก ไม่ว่าจะเป็นภาพถ่ายที่ใช้ปัญญาประดิษฐ์ช่วยปรับให้สวยขึ้น หรือ AR ที่สมจริงมากขึ้น เร็วขึ้น และแม่นยำกว่าเดิม
แต่เส้นทางสู่การใช้งานปัญญาประดิษฐ์ของ Samsung ไม่ได้จบลงแค่มือถือเท่านั้น โดยแผนระยะยาวจะนำ Deep Learning นี้ไปใช้กับหน่วยความจำ และเซนเซอร์เพื่อสร้างโลกที่ทุกอย่างมีการทำงานอยู่บนปัญญาประดิษฐ์ทั้งหมด แต่ไม่ต้องส่งข้อมูลกลับไปยังคลาวด์เหมือนอย่างปัจจุบัน
ที่มา – SamMobile