A cosa serve il sensore LiDAR sugli iPhone 12

Per i ricercatori, i dati sull'utilizzo dell'iPhone non sono anonimi come sostiene Apple

Apple ha presentato i nuovi smartphone che montano il chip già visto a bordo di iPad Pro. Ecco perché è importante

I sensori LiDAR (Light Detection and Ranging) svolgono un ruolo enorme nel mondo dela guida autonoma. Il suo compito è quello di “mappare” un’area circostante misurando le distanze degli oggetti tramite i raggi luminosi riflettenti. Apple ha introdotto il sensore LiDAR nelle sue ammiraglie di fascia alta, iPhone 12 Pro e Pro Max, per migliorare la fotografia. Non è la prima volta che l’azienda lo utilizza, visto che a marzo del 2020, aveva fatto il debutto sul nuovo iPad Pro.

Tuttavia, se lo scopo principale del sensore in quel dispositivo era aiutare la realtà aumentata, con il nuovo iPhone, Apple punta su tre scenari: effetti foto e video, posizionamento preciso di elementi AR nell’ambiente circostante e scansione di oggetti e stanze. Le ultime due applicazioni potrebbero essere in gran parte per sviluppatori e aziende come l’edilizia, ma per un consumatore medio, gli effetti di foto e video potrebbero essere la parte più interessante.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Poiché LiDAR può funzionare al buio sparando al laser per calcolare le distanze, Apple lo utilizza per migliorare l’autofocus sugli iPhone di fascia alta. La società afferma che grazie al chip, i telefoni hanno una messa a fuoco automatica 6 volte più veloce in condizioni di scarsa illuminazione rispetto a una normale fotocamera. Inoltre, il sensore LiDAR consente al dispositivo di scattare foto migliori in modalità ritratto, in condizioni di scarsa illuminazione.

Nuova era fotografica

Il concetto di utilizzare un sensore di profondità dedicato non è nuovo. Molti telefoni di fascia media come OnePlus Nord utilizzano una fotocamera con tale sensore per migliorare le foto in modalità ritratto. Ma questi funzionano bene solo alla luce del giorno piuttosto che in condizioni di scarsa illuminazione. Alcuni dispositivi come Huawei P30 Pro e Samsung Galaxy S20 Ultra dispongono di un sensore del tempo di volo (ToF), dove i raggi infrarossi mappano i dintorni.

Leggi anche:  I data center: buoni vicini di casa?

Ma se il ToF invia un singolo impulso flash per misurare l’area, avere un sensore LiDAR permetterà a più sviluppatori di introdurre casi di utilizzo migliori per app e giochi in realtà aumentate, ottimizzati e sicuramente più precisi di quanto non lo siano oggi. Snapchat ha già confermato che aggiornare l’app per beneficiare del LiDAR su iOS e la stessa Apple spera che molti altri seguano il suo esempio per sfruttare al massimo la tecnologia.