TensorFlow Lite to lekkie rozwiązanie dostarczane przez TensorFlow do uruchamiania modeli uczenia maszynowego na urządzeniach mobilnych i IoT. Kiedy interpreter TensorFlow Lite przetwarza model rozpoznawania obiektów, wykorzystując jako dane wejściowe klatkę z kamery urządzenia mobilnego, dane wyjściowe zazwyczaj obejmują kilka etapów, aby ostatecznie zapewnić przewidywania dotyczące obiektów obecnych na obrazie.
Najpierw ramka wejściowa z kamery urządzenia mobilnego jest wprowadzana do interpretera TensorFlow Lite. Następnie interpreter wstępnie przetwarza obraz wejściowy, konwertując go do formatu odpowiedniego dla modelu uczenia maszynowego. Ten etap wstępnego przetwarzania zwykle obejmuje zmianę rozmiaru obrazu w celu dopasowania go do rozmiaru wejściowego oczekiwanego przez model, normalizację wartości pikseli i potencjalne zastosowanie innych przekształceń specyficznych dla architektury modelu.
Następnie wstępnie przetworzony obraz przechodzi przez model rozpoznawania obiektów w interpreterze TensorFlow Lite. Model przetwarza obraz, wykorzystując wyuczone parametry i architekturę, aby wygenerować przewidywania dotyczące obiektów znajdujących się w ramce. Predykcje te zazwyczaj obejmują takie informacje, jak etykiety klas wykrytych obiektów, ich lokalizacje na obrazie oraz wskaźniki pewności powiązane z każdą prognozą.
Gdy model dokona przewidywań, interpreter TensorFlow Lite wysyła te informacje w ustrukturyzowanym formacie, który może zostać wykorzystany przez aplikację korzystającą z modelu. Dane wyjściowe mogą się różnić w zależności od konkretnych wymagań aplikacji, ale zazwyczaj obejmują wykryte klasy obiektów, ramki ograniczające obiekty na obrazie i powiązane wskaźniki zaufania.
Na przykład, jeśli model rozpoznawania obiektów jest przeszkolony do wykrywania typowych obiektów, takich jak samochody, piesi i znaki drogowe, dane wyjściowe interpretera TensorFlow Lite mogą zawierać przewidywania, takie jak „samochód” z obwiednią określającą lokalizację samochodu w obraz i poziom ufności wskazujący pewność modelu co do przewidywań.
Dane wyjściowe interpretera TensorFlow Lite dla modelu uczenia maszynowego rozpoznawania obiektów przetwarzającego klatkę z kamery urządzenia mobilnego obejmują wstępne przetwarzanie obrazu wejściowego, przepuszczanie go przez model w celu wnioskowania i dostarczanie w ustrukturyzowanym formacie przewidywań dotyczących obiektów obecnych na obrazie nadaje się do dalszej obróbki przez aplikację.
Inne niedawne pytania i odpowiedzi dotyczące EITC/AI/TFF Podstawy TensorFlow:
- Jak można użyć warstwy osadzającej, aby automatycznie przypisać odpowiednie osie dla wykresu reprezentacji słów jako wektorów?
- Jaki jest cel maksymalnego łączenia w CNN?
- W jaki sposób proces ekstrakcji cech w splotowej sieci neuronowej (CNN) jest stosowany do rozpoznawania obrazu?
- Czy konieczne jest użycie funkcji uczenia asynchronicznego w przypadku modeli uczenia maszynowego działających w TensorFlow.js?
- Jaki jest parametr maksymalnej liczby słów w interfejsie TensorFlow Keras Tokenizer API?
- Czy do wyszukiwania najczęściej występujących słów można użyć interfejsu API TensorFlow Keras Tokenizer?
- Co to jest TOKO?
- Jaki jest związek między liczbą epok w modelu uczenia maszynowego a dokładnością przewidywań na podstawie uruchomienia modelu?
- Czy interfejs API sąsiadów pakietu w uczeniu strukturalnym neuronowym TensorFlow tworzy rozszerzony zestaw danych szkoleniowych w oparciu o naturalne dane graficzne?
- Jaki jest interfejs API sąsiadów pakietu w uczeniu się o strukturze neuronowej TensorFlow?
Zobacz więcej pytań i odpowiedzi w EITC/AI/TFF TensorFlow Fundamentals