เมื่อปีที่ผ่านมา ได้มีการเปิดตัวเทคโนโลยีใหม่ ML Kit ที่ I/O โดยมีจุดมุ่งหมายเพื่อทำให้ Machine Learning ง่ายขึ้นสำหรับทุกคน เราจะไม่สามารถลิ้มรสประสบการณ์ปลื้มปิติเหล่านี้ได้เลย หากไม่ได้มีสร้าง ML Kit มาให้กับเหล่านักพัฒนานับหลายพันคน และที่สำคัญกว่านั้น การมีส่วนร่วมของผู้ใช้ฟีเจอร์ ML Kit เพิ่มขึ้นมากกว่า 60% ต่อเดือน ด้านล่างเป็นตัวอย่างแอพขนาดเล็กที่เราได้มีโอกาสได้ร่วมงานกัน
ในปีนี้ ก็อดใจไม่ได้ที่จะแนะนำ 4 ฟีเจอร์ใหม่ ที่ I/O ซึ่งก็ยังมีอีกเยอะแยะมากมาย
การตรวจจับและติดตามวัตถุของ API ช่วยให้คุณสามารถระบุวัตถุที่เด่นอยู่ในภาพ แล้วระบุได้แบบเรียลไทม์ นอกจากนั้นยังสามารถจับคู่ API นี้กับ cloud solution (เช่น การใช้ API ค้นหาผลิตภัณฑ์ของ Google Cloud) เพื่อสร้างประสบการณ์การค้นหาภาพได้แบบเรียลไทม์
การตรวจจับและติดตามวัตถุของ API ช่วยให้คุณสามารถระบุวัตถุที่เด่นอยู่ในภาพ แล้วระบุได้แบบเรียลไทม์ นอกจากนั้นยังสามารถจับคู่ API นี้กับ cloud solution (เช่น การใช้ API ค้นหาผลิตภัณฑ์ของ Google Cloud) เพื่อสร้างประสบการณ์การค้นหาภาพได้แบบเรียลไทม์
เมื่อคุณเลื่อนภาพหรือวิดีโอสตรีมผ่านไปยัง API มันจะส่งพิกัดของวัตถุหลักนั้นกลับมา พร้อมกับจัดหมวดหมู่คร่าวๆให้อีกด้วย โดย API จะให้หมายเลขอ้างอิงสำหรับพิกัดของวัตถุชนิดนั้นนี้เมื่อเวลาผ่านไป
หุ้นส่วนบริษัทจำนวนหนึ่งได้สัมผัสประสบการณ์การใช้งานโดยขับเคลื่อนโดย API นี้เรียบร้อยแล้ว ยกตัวอย่างแบรนด์ดังอย่าง Adidas ที่ได้นำฟีเจอร์การค้นหาด้วยภาพนี้ลงสู่แอพพลิเคชั่นเช่นกัน
การแปลภาษาบนอุปกรณ์ API ช่วยให้คุณใช้รูปแบบออฟไลน์เดียวกัน ที่มีการรองรับ Google Translate ในการแปลข้อความได้อย่างรวดเร็ว นอกจากนี้การแปลข้อความแบบไดนามิกในแอพของคุณ สามารถแปลได้ถึง 58 ภาษา โดย API นี้ทำงานทั้งหมดบนอุปกรณ์ เพราะฉะนั้นบริบทของข้อความที่แปลแล้วจะไม่หายจากอุปกรณ์ของคุณ
คุณสามารถใช้ API นี้เพื่อให้ผู้ใช้สื่อสารกับผู้อื่นที่ไม่เข้าใจภาษาหรือแปลเนื้อหาที่ผู้ใช้สร้างขึ้นได้
จะเห็นว่า ทางด้านขวาแสดงให้เห็นถึงการใช้ ML Kit ในการจดจำข้อความ การตรวจจับภาษา และการแปลของ API ได้ในคราวเดียวกัน
นอกจากนี้การร่วมมือกับทีม Material Design เพื่อสร้างชุดรูปแบบการออกแบบโดยรวม ML เข้าสู่แอปของคุณนั้น ในเร็วๆนี้กำลังจัดให้มีการใช้งานรูปแบบเหล่านี้ และหวังว่าในไม่ช้า ML Kit และ AI จะถูกยอมรับในวงกว้างมากขึ้น
รูปแบบต่างๆในการออกแบบสำหรับ Machine Learning เปิดให้ใช้งานได้ในเว็บไซต์ Material.io
คุณสามารถสร้างรูปแบบการจัดหมวดหมู่ภาพแบบกำหนดเองตามความต้องการของคุณได้อย่างง่ายดายด้วย AutoML Vision Edge ตัวอย่างเช่น หากต้องการให้แอปของคุณสามารถระบุประเภทที่แตกต่างกันของอาหาร หรือแยกแยะความแตกต่างระหว่างสายพันธุ์สัตว์ เพียงแค่อัปโหลดข้อมูลที่คุณต้องการ ไปยังคอนโซล Firebase ก็สามารถใช้เทคโนโลยี AutoML ของ Google เพื่อสร้างโมเดล TensorFlow Lite ที่กำหนดเองเพื่อให้คุณสามารถทำงานบนอุปกรณ์ของคุณได้ และหากพบว่าการรวบรวมชุดข้อมูลนั้นยากลำบาก คุณสามารถใช้แอพ open source เพื่อให้กระบวนการนี้ง่ายขึ้นและมีการทำงานร่วมกันมากขึ้นอีกด้วย
เป็นที่น่าตื่นเต้นอย่างมาก ที่จะเป็นปีแรก และหวังว่าความคืบหน้าของเราจะเป็นแรงบันดาลใจให้กับคุณ ในการเริ่มต้นใช้ Machine Learning