Apple ได้โชว์ความสามารถกล้อง TrueDepth Camera ของ iPhone X ว่าสามารถวัดระยะตื้นลึกใบหน้าผู้ใช้งาน และนำไปแมปปิ้งทำอะไรได้มากมาย เช่น Animoji หรือแม้กระทั่ง Augmented Reality แต่แท้จริงแล้วการทำงานเบื้องหลังนั้นเป็นแบบเดียวกันกับ Xbox Kinect
TrueDepth Camera
ตัวเซนเซอร์นั้นเมื่อถูกเรียกใช้งานให้วัดระยะใบหน้าผู้ใช้งาน Infrared Emitter จะยิงแสงออกมาราวๆ 30,000 จุด แล้ววัดด้วยกล้องอินฟราเรด เพื่อวัดระยะใกล้-ไกล จากวัตถุนั่นเอง
การทำงานเช่นนี้เหมือนกับกล้อง Kinect ที่เคยเป็นเครื่องเล่นเกมส์ของ Xbox ในอดีต โดยเทคโนโลยีดังกล่าวเรียกว่า Structured Light ทำการสาดไฟ LED เป็นแพทเทิร์นใส่วัตถุแล้ววัดระยะการสะท้อนแสงกลับมา จากนั้นทำการประมวลผลเป็นวัตถุแบบสามมิติ
นอกจากตัวยยิงแสง และกล้องอินฟราเรดแล้ว ยังมีกล้องหน้าอีกด้วย โดยปกติแล้วจะใช้เพื่อวัดระยะโฟกัสหน้าชัดหลังเบลอ เพื่อพิจารณาว่าสิ่งไหนอยู่ไกลจนไม่ต้องสนใจ (เนื่องจากภาพจะเบลอ) แต่ทาง Apple ยังไม่ได้ออกมาบอกแน่ชัดว่ากลไกการทำงานของTrueDepthบน iPhone X ใช้เทคนิคดังกล่าวด้วยหรือไม่
อย่างไรก็ตามการทำงานของ iPhone X ในฝั่งซอฟท์แวร์นั้นแตกต่างจาก Kinect ไม่น้อย เนื่องจากข้อมูลที่ได้จากการอ่านจะถูกส่งไปยังระบบประมวลผล Machine Learning เพื่อฝึกฝนอย่างที่โฆษณาว่าไม่ว่าเราจะเปลี่ยนทรงผม ใส่หมวก ใส่แว่น ระบบก็ยังอ่านค่าใบหน้าเราได้เหมือนเดิม
ที่มา – GSMarena