Apple ha deciso di rendere più semplice l’utilizzo dei suoi iPhone, iPad e Mac alle persone con disabilità, inserendo nuove funzioni di accessibilità iOS e macOS. Continua a leggere per scoprire di cosa si tratta.
Se c’è un campo in cui iOS supera di molto ciò che Google propone su Android, è quello che riguarda le opzioni accessibilità. Si tratta di un pannello di funzioni che semplifica la gestione dell’iPhone o dell’iPad a tutti gli utenti affetti da disabilità: non vedenti o ipovedenti, non udenti, o persone con disabilità fisica e cognitiva, ecc.
In occasione della giornata mondiale della sensibilizzazione sull’accessibilità (Global Accessibility Awareness Day) del 18 maggio scorso, l’azienda statunitense ha svelato alcune delle più importanti novità del prossimo aggiornamento iOS per quanto riguarda di accessibilità (alcune in inglese, ma il supporto per le altre lingue dovrebbe arrivare a breve). Naturalmente il resto delle funzioni di iOS 17 verrà rivelato il 5 giugno nel corso della WWDC 2023. Secondo Apple: “questi aggiornamenti si basano sui progressi hardware e software e includono l’apprendimento automatico sui dispositivi, al fine di garantire la privacy degli utenti”. In altre parole, non si tratta di utilizzare un servizio cloud per usare queste funzionalità di accessibilità, ma l’elaborazione dei dati avverrà sul dispositivo stesso.
L’azienda di Cupertino ha in serbo molte nuove funzioni di accessibilità iOS per permettere agli utenti di usare iPhone e iPad sempre con più facilità. Tra queste vi è l’Assistive Access. Si tratta di riprogettare l’interfaccia di iOS e di alcune app per ridurre il tutto alle funzioni essenziali. Infatti l’home pege sarà in grado di mostrare 5 app al massimo (Chiamate, Messaggi, Musica Foto e Fotocamera).
Per facilitarne l’utilizzo, ognuna di queste app verrà privata dei suoi numerosi menu e sottomenu. Ad esempio, l’app Fotocamera non avrà tutte le modalità di scatto che possono essere difficili da gestire.
Più interessante, Live Speech è destinato alle persone che rischiano di perdere la loro voce (ad esempio a causa di una malattia alla laringe). La funzione permetterà di creare un modello di voce sintetico basato sulla propria voce, grazie ad una sessione di registrazione di 15 minuti. Il dispositivo utilizzerà poi il principio del machine learnin per riprodurre altre parole con la voce dell’utente.
Lo scopo è quello di riprodurre il testo digitato sullo schermo, o registrare delle frasi complete che possono essere poi utilizzate in alcune situazioni. Live Speech dovrebbe inoltre essere disponibile anche su macOS. iPhone e iPad dovrebbero inoltre includere la funzione Point and Speak. Questa dovrebbe aiutare gli ipovedenti a comprendere più facilmente alcune scritte su dispositivi ed elettrodomestici (come ad esempio il forno a microonde). Point and Speak decifrerà infatti ciò che vede, per poi leggere ad alta voce il testo indicato. Per fare ciò verrà utilizzata la fotocamera dell'iPhone, lo scanner LiDAR del dispositivo e, naturalmente, la tecnologia machine learning.
Infine, Apple prevede di includere altre piccole funzioni di accessibilità iOS, che verranno integrate a quelle già esistenti. Una di queste è Voice Control, che permetterà di inserire testi tramite la voce. La funzione offrirà inoltre suggerimenti fonetici per scegliere la parola giusta tra diversi suggerimenti (“quando” o “quanto” per esempio). Voice Over da parte sua consentirà infine un migliore controllo della velocità dell'assistente Siri.
Foto: © Unsplash, Apple.