![]() |
| Dr. Joan Santoso saat memaparkan materinya. (Dok/Istimewa). |
Kegiatan ini menyoroti pentingnya transisi dari ketergantungan pada server berskala besar menuju pemrosesan lokal langsung di perangkat pengguna (on-device).
Dalam pemaparannya, Dr. Joan Santoso, yang juga dikenal sebagai Google Developer Expert (GDE) AI & Cloud serta Director Research & Innovation Institut STTS, menegaskan bahwa pendekatan on-device mampu meningkatkan efisiensi sistem sekaligus memperkuat perlindungan data pengguna.
Menurutnya, pemrosesan lokal membuat sistem lebih cepat merespons karena inferensi dilakukan langsung di perangkat, tanpa harus bergantung pada komputasi berbasis cloud. Selain itu, data pengguna tidak perlu dikirim ke server eksternal sehingga risiko kebocoran dapat diminimalkan.
Joan menekankan, keberhasilan implementasi on-device machine learning tidak hanya bergantung pada kecanggihan model. Strategi optimasi menjadi faktor krusial, terutama dalam menghadapi keterbatasan memori, daya, dan kapasitas komputasi perangkat.
Peserta diajak memahami praktik terbaik seperti kompresi model, quantization, hingga pemilihan arsitektur yang efisien. Langkah tersebut dinilai mampu menjaga keseimbangan antara performa dan efisiensi tanpa mengorbankan akurasi secara signifikan.
Dalam sesi lanjutan, diperkenalkan pula kombinasi teknologi yang disebut sebagai “the perfect match” bagi pengembang AI modern, yakni JAX dan LiteRT.
JAX dikenal unggul dalam komputasi berperforma tinggi dengan dukungan diferensiasi otomatis serta akselerasi berbasis perangkat keras. Teknologi ini efektif untuk tahap pengembangan dan eksperimen model.
Sementara itu, LiteRT—yang sebelumnya dikenal sebagai TensorFlow Lite—berperan sebagai jembatan optimasi agar model dapat dikonversi dan dijalankan secara efisien di berbagai perangkat edge, mulai dari smartphone hingga sistem embedded.
Kombinasi keduanya menghadirkan alur kerja yang solid. Pengembang dapat membangun dan melatih model dengan performa tinggi, lalu melakukan deployment secara ringan, cepat, dan hemat daya.
Melalui workshop ini, ditegaskan bahwa masa depan AI tidak selalu bergantung pada server raksasa. Inovasi justru terletak pada kemampuan mengoptimalkan teknologi agar dapat bekerja maksimal langsung di genggaman pengguna. (Red)


Komentar