กูเกิลจริงจังกับงานด้าน deep learning ถึงขนาดออกแบบชิปประมวลผลเองในชื่อ TPU (Tensor Processing Unit) โดยในงาน Google I/O 2017 กูเกิลก็เปิดตัว TPU รุ่นที่สอง ที่มีความสามารถมากขึ้น

เป้าหมายของกูเกิลคือนำ TPU ขึ้นไปอยู่บนคลาวด์ เพื่อให้นักวิจัยหรือคนที่ต้องการเทรน AI ให้เร็วกว่าทำเอง เข้ามาเช่าใช้งาน แต่ในช่วงแรกเพื่อเปิดโอกาสให้คนลองใช้กันมากๆ กูเกิลเลยสร้างคลาวด์พิเศษ TensorFlow Research Cloud (TFRC) ให้กลุ่มนักวิจัยใช้งานกันฟรีๆ

No Description

TensorFlow Research Cloud เป็นคลัสเตอร์ที่มี TPU มากถึง 1,000 ตัว แต่ละตัวมีสมรรถนะสูงถึง 180 teraflops และมีหน่วยความจำให้เรียกใช้ 64GB นอกจากนี้ ระบบทั้งหมดยังออกแบบมาสำหรับการรัน TensorFlow อย่างมีประสิทธิภาพ

ผู้ที่มีสิทธิรันงานบน TensorFlow Research Cloud ไม่จำเป็นต้องมาจากภาคการศึกษา จะเป็นนักวิจัยอิสระหรือผู้สนใจทั่วไปก็ได้ เพียงแต่ต้องยื่นใบสมัครไปให้กูเกิลพิจารณาคัดเลือกก่อน

No Description

ที่มา – Google Research Blog

Source:  www.blognone.com

Tagged with:

Filed under: IT News

Like this post? Subscribe to my RSS feed and get loads more!