Samsung พัฒนาหน่วยความจำ HBM (High Bandwith Memory) ใหม่ที่มีหน่วยประมวลผล AI ในตัว ใช้ชื่อว่า HBM-PIM (Processing-in-memory)
หน่วยความจำใหม่นี้จะใส่ AI Engine อยู่ข้างใน Memory bank ลดงานที่เกิดขึ้นในตัวหน่วยความจำ HBM ลง และลดการย้ายข้อมูลข้ามไปมาระหว่างหน่วยความจำ และหน่วยประมวลผล ทำให้ประหยัดพลังงานและเวลาที่ใช้ลงมาก
ทาง Samsung ระบุว่าเมื่อนำหน่วยความจำ HBM2 (ชื่อ Aquabolt) มาใช้ร่วมกับวิธีนี้ ทำให้แบนด์วิธในการย้ายข้อมูลเพิ่มขึ้นสองเท่า เนื่องจาก CPU ไม่ต้องย้ายข้อมูลไปๆ มาๆ (อ่านข้อมูลหนึ่งครั้ง เขียนข้อมูลอีกหนึ่งครั้ง เปลี่ยนมาเป็นอ่านเขียนภายในครั้งเดียวเนื่องจากข้อมูลไม่ต้องย้ายที่) แต่กินไฟรวมทั้งระบบลดลง 70% นอกจากนี้ไม่ต้องมีการแก้ไขฮาร์ดแวร์ หรือซอฟท์แวร์เพื่อใช้งานฟีเจอร์นี้ ทำให้สามารถนำไปใช้กับมือถือที่อยู่ระหว่างการพัฒนาแทนแรมเดิมๆ ได้ทันที
นอกจากลดอัตราการบริโภคพลังงานลงอย่างมหาศาลแล้ว PIM ยังเหมาะกับการนำไปใช้ทำงาน Maching Learning อีกด้วย โดยนักวิจัยพบว่าประสิทธิภาพเพิ่มขึ้นเกินสองเท่า โดยอยู่ระหว่างการทดสอบในกลุ่มนักวิจัยพัฒนา AI ชั้นนำ คาดว่าการทดสอบจะแล้วเสร็จภายในครึ่งแรกของปีนี้
จากในภาพข้างต้นจะเห็นได้ว่า Memory Bank จะมี PCU (Programmable Computing Unit) ทำงานที่ความเร็ว 300 MHz และมีจำนวนทั้งสิ้น 32 PCU ต่อหนึ่ง Die และใช้คำสั่งทางเมมโมรีแบบปกติ (เหมือนหน่วยความจำทั่วไป) เพื่อใช้คำสั่งประมวลผลบน DRAM
การนำพื้นที่ไปใช้เป็น PCU จะลดพื้นที่หน่วยความจำลงครึ่งหนึ่ง เนื่องจากกินพื้นที่บน Die ไปเกินครึ่ง ทาง Samsung แก้ไขปัญหานี้ด้วยการทำขนาด 6GB ที่มีการจัดเรียงตัวดังนี้
- 4Gb จำนวน 4 ชั้น (มี PCU) – จะได้ความจุ 2GB
- 8Gb จำนวน 4 ชั้น (ไม่มี PCU) – จะได้ความจุ 4GB
ปกติแล้วถ้าไม่มี PCU หน่วยความจำนี้จะเป็น HBM2 ที่มีความจุ 8GB
*หมายเหตุ – 8Gb คือ 1GB
หน่วยความจำของ Samsung ยังคงใช้กระบวนการผลิตขนาดที่ค่อนข้างใหญ่ (20nm) แต่คาดว่าในอนาคตน่าจะลดขนาดลงมาเรื่อยๆ เรื่องที่น่าเสียดายคือ Samsung ตั้งเป้าว่าระยะแรกนี้หน่วยความจำดังกล่าวจะถูกนำไปใช้กับงานขนาดสเกลขนาดใหญ่ที่ต้องการหน่วยความจำมหาศาล ไม่ว่าจะเป็นดาต้าเซนเตอร์ โฮมเอนเตอร์เทนเมนต์ และงานประมวลผล AI เป็นหลัก ยังไม่มีแผนจะนำมาใช้กับมือถือ หรืออุปกรณ์เกมมิ่งในตอนนี้
ที่มา – GSMarena, Tom’s hardware