Amazon rilascia Alexa Presentation Language 1.1 in versione beta

Amazon rilascia Alexa Presentation Language 1.1 in versione beta

Disponibile la versione non definitiva della suite che mira a semplificare la realizzazione delle skill di Alexa dedicate agli Echo con schermo

Poco prima del 4 luglio statunitense, Amazon ha fatto in tempo a rilasciare l’ultima versione di Alexa Presentation Language (APL), la suite di strumenti progettata per consentire agli sviluppatori di creare competenze “visivamente ricche” per i dispositivi Echo con display. APL 1.1, in versione beta, arriva dopo il lancio di APL 1.0 nell’ottobre del 2018 ed è disponibile in tutte le lingue, con compatibilità per Echo Show, Echo Spot e il nuovo Echo Show 5.

Nei prossimi giorni lo sarà anche per i tablet Fire e i vari stick Fire TV. Quindi, cosa c’è di nuovo sul rinnovato sistema? Prima di tutto AnimateItem, un nuovo comando che serve ad animare la posizione, la scala, la rotazione o l’opacità di qualsiasi componente o layout APL.

Cos’altro può fare

AnimateItem può anche essere combinato con Alexa Vector Graphics (un sottoinsieme dello standard Scalable Vector Graphics) per creare una serie di esperienze interattive e visivamente coinvolgenti. I dispositivi che supportano solo la versione di APL 1.0 mostreranno del semplice testo statico. APL 1.1 viene fornito con il sistema avanzato Alexa Design System, che Amazon afferma di essere stato riprogettato per meglio adattarsi ai dispositivi con varie dimensioni dello schermo.

Il fine è, innanzitutto, accelerare il lavoro di progettazione. Ad esempio, se uno sviluppatore importa Alexa-Styles in un documento APL e utilizza lo stile textStyleBody per quello del testo, la dimensione di quest’ultimo si adatterà automaticamente in base alla distanza di visualizzazione tipica di un dispositivo.

Dal lato dell’authoring e degli strumenti, APL 1.1 introduce la possibilità di selezionare elementi e vederli evidenziati nella gerarchia dei componenti, rendendo teoricamente più semplice associare ciò che è visibile nella vista di progettazione con il componente corrispondente, aggiornandone le proprietà. Proprio l’authoring condivide ora il rendering, l’associazione dei dati e il codice di valutazione dell’espressione con il runtime eseguito sui dispositivi Alexa, riducendo così le discrepanze tra l’esperienza di creazione e ciò che viene visualizzato sui display reali.

Leggi anche:  149