Machine Learning: ML Kit si occupa dei selfie della versione ufficiale

Google ha reso il kit ML pubblicamente disponibile. Con il rilascio di GA (disponibilità generale), un kit di sviluppo software (SDK) progettato per applicazioni di machine learning per sviluppatori di dispositivi mobili è pronto per l’uso in modo produttivo. Nel frattempo, ottieni un nuovo modulo di suddivisione dei selfie.

Google ha introdotto per la prima volta l’SDK in Google I / O 2018. Nella versione GA “Vision”, contiene otto metodi di analisi di immagini e video, mentre in “Natural Language” ci sono attualmente quattro funzioni per l’analisi e l’elaborazione del testo. Nonostante la loro disponibilità generale, tre API sono ancora in versione beta. ML Kit era originariamente strettamente collegato a Firebase, ma a giugno Google lo ha ritirato dalla piattaforma mobile.

L’area Vision fornisce API per l’estrazione di testo da immagini (riconoscimento del testo), la lettura di codici a barre (scansione di codici a barre) e la creazione di descrizioni per immagini (denominazione di immagini). Un’altra API che aiuta a trasferire testi scritti a mano (riconoscimento dell’inchiostro digitale). Infine, ci sono API per il rilevamento della modalità, il rilevamento del volto e per l’identificazione e il tracciamento di oggetti su più fotogrammi in un video (Rilevamento e tracciamento di oggetti).

La suite ML viene fornita con una dozzina di API al momento del rilascio

(Immagine: Google)

Il nuovo componente aggiuntivo, Selfie Segmentation, mira a separare la persona o le persone dallo sfondo nei selfie. L’API crea una maschera di output delle stesse dimensioni dell’immagine. Ogni pixel nella maschera contiene un numero in virgola mobile compreso tra 0 e 1 che rappresenta la fiducia nella capacità della persona di vedere in posizione. Opzionalmente, la maschera può essere impostata utilizzando il parametro RAW_SIZE_MASK Scala a dimensione fissa.

L’API funziona sia con le immagini che con i video, con questi ultimi che includono gli output precedenti nel calcolo per creare transizioni più fluide. La segmentazione delle Seflie apprende individui e gruppi senza la sintonizzazione manuale. La funzionalità dovrebbe essere la stessa su Android e iOS. Per ora, l’API di segmentazione verticale è ancora sperimentale.

ML Kit crea una maschera dall’immagine di input a sinistra, che viene posizionata sopra l’immagine a destra.

(Immagine: Google)

Anche l’API Pause Detection è ancora contrassegnata come beta. Porta alcune innovazioni nella versione attuale. Quindi ora sta dando una coordinata Z per vedere se la parte è davanti o dietro l’anca di una persona. Può anche imparare altre pose dai campi del fitness e dello yoga.

Anche Google ce l’ha Programma educativo interattivo E questioni correlate Notebook Collab Implementato, che è rivolto alle applicazioni di fitness e può calcolare flessioni e squat nei video, tra le altre cose.

Un tutorial che calcola flessioni e squat.

(Immagine: Google)

Non ci sono nuove aggiunte alla versione GA nell’area Natural Language. Le API associate si occupano del riconoscimento della lingua del testo (identificazione della lingua) e della traduzione automatica tra due lingue su un totale di 50 (traduzione). C’è anche un’API che suggerisce automaticamente le risposte (risposte intelligenti).

Il 27 e 28 aprile Macchine per il controllo della mente Trattenuto per la quarta volta. Quest’anno, gli organizzatori heise Developer, iX e dpunkt.verlag ospitano la conferenza degli sviluppatori come evento online. I workshop si terranno anche online nelle settimane successive alla conferenza.

Argomento principale Nel programma della conferenza È il campo dell’elaborazione del linguaggio naturale. Inoltre, l’argomento emergente MLOps è l’obiettivo principale

La più recente estrazione di entità API nel gruppo ML è avvenuta a dicembre. Identifica singole entità o unità nei testi, ad esempio per valutare indirizzi e-mail, numeri IBAN o date. Oltre alla segmentazione verticale e al rilevamento della modalità, è la terza API classificata come sperimentale.

Maggiori dettagli sulla disponibilità generale di ML Kit e la nuova aggiunta, Selfie Segmentation, sono disponibili sul blog per gli sviluppatori di Google. Una descrizione delle API può essere trovata nella pagina using Istruzioni per ML Kit.


(rme)

Alla home page

READ  Apple tvOS 17 è qui e porta FaceTime sulla tua TV

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto