Gli iPhone del futuro riconosceranno la depressione

Gli iPhone del futuro riconosceranno la depressione

Apple sta lavorando alla tecnologia in grado di rilevare gli stati d’animo degli utenti

Apple potrebbe finalizzare presto una tecnologia capace di diagnosticare, tramite iPhone, certe condizioni di salute mentale degli utenti, come la depressione e il declino cognitivo. Lavorando con l’Università della California a Los Angeles e la società di biotecnologie Biogen, la compagnia raggiungerà un risultato del genere grazie ad una serie di nuovi sensori, presenti su prossimi dispositivi. Apple ha già un’ampia offerta di tecnologie legate alla salute, tra cui il monitoraggio del cuore, del sonno e dell’attività, tramite Apple Watch e iPhone. Gli addetti ai lavori, parlando al Wall Street Journal, affermano che i ricercatori utilizzeranno i dati dei sensori dello smartphone per cercare segnali digitali collegati a determinate condizioni di salute mentale, tra cui depressione e ansia, e li inseriranno in un algoritmo. Questo dovrebbe essere in grado di prevedere in modo affidabile criticità maggiori da inserire come trend in una versione futura dell’app Salute di iOS.

I dettagli provengono da due progetti di ricerca. Uno dell’UCLA, che sta esplorando lo stress, l’ansia e la depressione in collaborazione con Apple, ed è chiamato in nome in codice “Seabreeze”. L’altro, nome in codice “Pi”, è opera della Biogen, con sede a Cambridge, nel Massachusetts, e si propone di studiare il lieve deterioramento cognitivo. Si tratta di progetti in fase iniziale, con Apple che deve ancora confermarne i dettagli. Per diagnosticare efficacemente una condizione di salute mentale, un paziente richiede un attento monitoraggio da parte di esperti, così che possano cercare cambiamenti nel comportamento rispetto alla norma. L’UCLA afferma che la sua ricerca sui segni di stress, ansia e depressione è iniziata con una fase pilota utilizzando le funzionalità di rilevamento delle cadute nell’Apple Watch e nell’iPhone nel 2020. Il team lo sta espandendo per utilizzare i dati di 3.000 persone quest’anno e terrà traccia dei dati della fotocamera dell’iPhone, della tastiera e dei sensori audio e li combinerà con le informazioni dell’orologio su movimento, sonno e segni vitali.

Leggi anche:  Google Workspace sarà disponibile per tutti