TensorFlow Mobile chủ yếu được sử dụng cho bất kỳ nền tảng di động nào như Android và iOS. Nó được sử dụng cho những nhà phát triển có mô hình TensorFlow thành công và muốn tích hợp mô hình của họ vào môi trường di động. Nó cũng được sử dụng cho những người không thể sử dụng TensorFlow Lite. Những thách thức chính mà bất kỳ ai cũng có thể tìm thấy khi tích hợp mô hình môi trường máy tính để bàn của họ vào môi trường di động là:
- Để xem cách sử dụng TensorFlow di động.
- Họ đang xây dựng mô hình của họ cho một nền tảng di động.
- Họ đang thêm các thư viện TensorFlow vào các ứng dụng di động của họ.
- Chuẩn bị tệp mô hình.
- Tối ưu hóa kích thước nhị phân, kích thước tệp, sử dụng RAM, v.v.
Các bài viết liên quan:
Các trường hợp sử dụng máy học trên thiết bị di động
Các nhà phát triển liên kết với TensorFlow sử dụng nó trên GPU công suất cao. Nhưng nó là một cách rất tốn thời gian và tốn kém để gửi tất cả dữ liệu thiết bị qua kết nối mạng. Chạy nó trên mọi thiết bị di động là một cách dễ dàng để thực hiện.
1) Nhận dạng hình ảnh trong TensorFlow: Đây là một cách hữu ích để phát hiện hoặc cảm nhận hình ảnh được chụp bằng điện thoại di động. Nếu người dùng đang chụp ảnh để biết có gì trong đó, có thể có cách áp dụng các bộ lọc thích hợp hoặc dán nhãn để tìm chúng bất cứ khi nào cần thiết.
2) Nhận dạng giọng nói TensorFlow: Nhiều ứng dụng khác nhau có thể xây dựng với giao diện điều khiển bằng giọng nói. Nhiều khi người dùng không thể đưa ra hướng dẫn, vì vậy việc truyền nó liên tục đến một máy chủ sẽ tạo ra rất nhiều vấn đề.
3) Nhận dạng cử chỉ trong TensorFlow: Nó được sử dụng để điều khiển các ứng dụng với sự trợ giúp của tay hoặc các cử chỉ khác, thông qua phân tích dữ liệu cảm biến. Chúng tôi thực hiện điều này với sự trợ giúp của TensorFlow.
Ví dụ về Nhận dạng ký tự quang học (OCR), Dịch, Phân loại văn bản, Nhận dạng giọng nói, v.v.
TensorFlow Lite:
TensorFlow Lite là phiên bản nhẹ được thiết kế đặc biệt cho nền tảng di động và thiết bị nhúng. Nó cung cấp một giải pháp học máy cho thiết bị di động với độ trễ thấp và kích thước nhị phân nhỏ.
TensorFlow hỗ trợ một tập hợp các nhà khai thác cốt lõi đã được điều chỉnh cho các nền tảng di động. Nó cũng hỗ trợ trong các hoạt động tùy chỉnh trong các mô hình.
Hướng dẫn TensorFlow Lite giải thích một định dạng tệp mới dựa trên Bộ đệm phẳng, là một thư viện tuần tự hóa nền tảng mã nguồn mở. Nó bao gồm bất kỳ trình thông dịch di động mới nào, được sử dụng để giữ cho các ứng dụng nhỏ hơn và nhanh hơn. Nó sử dụng một trình cấp phát bộ nhớ tùy chỉnh để có độ trễ tải và thực thi tối thiểu.
Kiến trúc của Tensorflow lite
Mô hình TensorFlow được đào tạo trên đĩa có thể chuyển đổi thành định dạng tệp TensorFlow Lite bằng trình chuyển đổi TensorFlow Lite. Sau đó, chúng tôi sử dụng tệp đã chuyển đổi đó trong ứng dụng di động.
Để triển khai tệp mô hình lite:
- Java API: Nó là một trình bao bọc xung quanh API C ++ trên Android.
- C ++ API: Nó có thể tải mô hình lite và gọi trình thông dịch.
- Trình thông dịch: Nó thực thi mô hình. Nó sử dụng tính năng tải hạt nhân có chọn lọc, đây là một tính năng độc đáo của Lite trong TensorFlow.
Chúng tôi cũng có thể triển khai các hạt nhân tùy chỉnh bằng cách sử dụng API C ++.
Sau đây là những điểm liên quan đến TensorFlow Lite
Nó hỗ trợ một tập hợp các nhà khai thác đã được điều chỉnh cho các nền tảng di động. TensorFlow cũng hỗ trợ các hoạt động tùy chỉnh trong các mô hình.
Đây là một định dạng tệp mới dựa trên Bộ đệm phẳng.
Nó là một trình thông dịch trên thiết bị sử dụng kỹ thuật tải có chọn lọc.
Khi tất cả các toán tử được hỗ trợ được liên kết, TensorFlow Lite nhỏ hơn 300kb.
Nó hỗ trợ Java và C ++ API.
TensorFlow Lite Vs. TensorFlow Mobile
Như chúng ta đã biết TensorFlow Lite và TensorFlow Mobile là gì và cách chúng hỗ trợ TensorFlow trong môi trường di động và hệ thống nhúng, chúng ta biết chúng khác nhau như thế nào. Sự khác biệt giữa TensorFlow Mobile và TensorFlow Lite được đưa ra dưới đây:
- Đây là phiên bản tiếp theo của điện thoại di động TensorFlow. Về cơ bản, các ứng dụng được phát triển trên TensorFlow lite sẽ có hiệu suất tốt hơn và ít tệp nhị phân hơn so với TensorFlow mobile.
- Nó vẫn đang trong giai đoạn đầu, vì vậy không phải tất cả các trường hợp đều phù hợp, đó không phải là trường hợp của TensorFlow di động.
- TensorFlow Lite hỗ trợ các nhóm toán tử cụ thể. Do đó, ở đây, không phải tất cả các mô hình sẽ hoạt động trên TensorFlow Lite theo mặc định.