تیم تحریریه Ostad IT گزارش می دهد: در حالی که دنیای فناوری به سمت هوشمندسازی هر چه بیشتر گجت های پوشیدنی و گوشی های هوشمند حرکت می کند، گوگل با برندی جدید و قدرتمند به نام LiteRT، گام بلندی برای تسلط بر بازار هوش مصنوعی روی دستگاه برداشته است. این فریمورک که پیش از این با نام TensorFlow Lite شناخته می شد، اکنون با معماری بازطراحی شده و بهینه سازی های گسترده، آماده است تا تجربه ای متفاوت از سرعت و دقت را در اپلیکیشن های موبایل و وب به ارمغان بیاورد.
تحول از TensorFlow Lite به LiteRT؛ چرا این تغییر مهم است؟
گوگل در سال ۲۰۲۴ میلادی زمزمه های تغییر نام و ساختار TFLite را آغاز کرد و اکنون در ابتدای سال ۲۰۲۶، این پروژه به بلوغ کامل رسیده است. هدف اصلی از معرفی LiteRT گوگل، ایجاد یک استاندارد واحد برای اجرای مدل های هوش مصنوعی در محیط های محدود از نظر منابع سخت افزاری است. در واقع LiteRT دیگر فقط یک کتابخانه برای تنسورفلو نیست، بلکه یک اکوسیستم مستقل است که از مدل های PyTorch و JAX نیز به خوبی پشتیبانی می کند.
این فریمورک به گونه ای طراحی شده است که شکاف میان سخت افزار و نرم افزار را از بین ببرد. با افزایش پیچیدگی مدل های هوش مصنوعی، دیگر پردازنده های مرکزی (CPU) پاسخگوی نیاز کاربران نیستند. LiteRT با تمرکز بر پردازشگرهای عصبی (NPU) و گرافیکی (GPU)، اجازه می دهد تا سنگین ترین پردازش ها در کسری از ثانیه و با کمترین مصرف انرژی انجام شوند.
ویژگی های کلیدی LiteRT گوگل؛ سرعت و انعطاف پذیری بی نظیر
یکی از مهم ترین دستاوردهای LiteRT گوگل، افزایش ۱.۴ برابری سرعت در پردازش های گرافیکی (GPU) نسبت به نسخه های پیشین است. این بهبود عملکرد به واسطه موتور جدیدی به نام ML Drift محقق شده است که از استانداردهایی نظیر OpenCL، Metal و WebGPU پشتیبانی می کند. این یعنی توسعه دهندگان می توانند یک بار کدنویسی کنند و مدل خود را با بالاترین کارایی روی اندروید، iOS، ویندوز و حتی مرورگرهای وب اجرا نمایند.
علاوه بر این، LiteRT گوگل با معرفی قابلیت Asynchronous Execution یا اجرای ناهمگام، تاخیر در پردازش های بلادرنگ مانند تشخیص چهره یا تبدیل گفتار به متن را تا ۵۰ درصد کاهش داده است. این ویژگی برای اپلیکیشن هایی که نیاز به پاسخگویی آنی دارند، یک مزیت رقابتی حیاتی محسوب می شود.
| ویژگی | توضیحات فنی | مزیت برای توسعه دهنده |
|---|---|---|
| شتاب دهنده GPU | پشتیبانی از ML Drift و WebGPU | اجرای ۱.۴ برابر سریع تر مدل ها |
| پشتیبانی از NPU | یکپارچگی با Qualcomm و MediaTek | کاهش مصرف باتری و افزایش سرعت |
| تبدیل مدل | سازگاری با PyTorch و JAX | عدم وابستگی به یک فریمورک خاص |
| اجرای ناهمگام | Zero-copy buffer interoperability | حذف سربار پردازنده مرکزی (CPU) |
تحلیل تخصصی؛ LiteRT چگونه آینده اپلیکیشن ها را تغییر می دهد؟
کارشناسان استاد آی تی معتقدند که معرفی LiteRT گوگل، نقطه عطفی در توسعه اپلیکیشن های مبتنی بر هوش مصنوعی است. تا پیش از این، اجرای مدل های زبانی بزرگ (LLM) روی گوشی های معمولی یک چالش بزرگ محسوب می شد، اما اکنون با بهینه سازی های LiteRT برای مدل هایی نظیر Gemma 3 1B، شاهد ظهور نسل جدیدی از دستیارهای هوشمند آفلاین خواهیم بود. این موضوع نه تنها امنیت داده های کاربران را افزایش می دهد، بلکه هزینه های سرور را برای شرکت های توسعه دهنده به شدت کاهش می دهد.
استفاده از واژه نامه های تخصصی هوش مصنوعی مانند Quantization (کوانتیزاسیون)، Inference Engine (موتور استنتاج) و Edge Computing (رایزش لبه ای) در مستندات LiteRT نشان می دهد که گوگل قصد دارد این فریمورک را به قلب تپنده اینترنت اشیا (IoT) تبدیل کند. برای کسب اطلاعات بیشتر در مورد چگونگی بهره مندی از این فناوری ها در کسب و کار خود، می توانید مقاله تحلیل پیشرفت های کلیدی هوش مصنوعی گوگل ۲۰۲۵ را در سایت ما مطالعه کنید.
یکپارچگی با NPU؛ قدرت واقعی در سخت افزار
تمرکز ویژه LiteRT گوگل بر NPU یا واحدهای پردازش عصبی، نشان دهنده همکاری نزدیک گوگل با غول های سخت افزاری نظیر کوالکام و مدیاتک است. در تست های انجام شده، سرعت اجرای برخی مدل ها روی NPU تا ۱۰۰ برابر سریع تر از CPU گزارش شده است. این یعنی کارهایی که قبلا چندین ثانیه طول می کشید، اکنون در چند میلی ثانیه انجام می شود.
LiteRT با ارائه دو روش تدوین AOT (قبل از اجرا) و JIT (در حین اجرا)، به توسعه دهندگان اجازه می دهد تا بر اساس نیاز خود، تعادلی میان سرعت بارگذاری اولیه اپلیکیشن و کارایی نهایی برقرار کنند. این سطح از کنترل بر سخت افزار، چیزی است که پیش از این در دنیای هوش مصنوعی موبایل به ندرت دیده می شد.
جمع بندی و آینده نگری
LiteRT گوگل تنها یک تغییر نام ساده نیست، بلکه بازتعریف استانداردهای هوش مصنوعی برای میلیاردها دستگاه در سراسر جهان است. با پشتیبانی از مدل های متن باز و فراهم کردن بستری برای اجرای روان مدل های سنگین، گوگل مسیر را برای خلاقیت هر چه بیشتر برنامه نویسان هموار کرده است. اگر به دنبال پیاده سازی این فناوری های نوین در پروژه های خود هستید، تیم متخصص ما در کنار شماست.
منبع:
Google Developers Blog – LiteRT: The Universal Framework for On-Device AI

