Apple annuncia il rilevamento delle porte, i sottotitoli in tempo reale e altre funzionalità di accessibilità

Come parte del Global Accessibility Awareness Day, Apple ha annunciato una serie di nuove funzionalità per gli utenti di iPhone e Apple Watch sordi, ipoudenti, non vedenti o ipovedenti.

Apple è stata ripetutamente onorata per il suo lavoro sull’accessibilità e in precedenza ha segnato il Global Accessibility Awareness Day promuovendo il suo lavoro sul campo. Ora è stata annunciata tutta una serie di funzionalità di accessibilità che arriveranno “a fine anno con aggiornamenti software su tutte le piattaforme Apple”.
“Apple incorpora l’accessibilità in ogni aspetto del nostro lavoro e ci impegniamo a progettare i migliori prodotti e servizi per tutti”, ha dichiarato Sarah Herrlinger, senior director of Accessibility Policy and Initiatives di Apple. “Siamo entusiasti di presentare queste nuove funzionalità, che combinano innovazione e creatività da parte dei team di tutta Apple per offrire agli utenti più opzioni per utilizzare i nostri prodotti nei modi che meglio si adattano alle loro esigenze e vite”.

I punti salienti delle nuove funzionalità includono Door Detection per aiutare le persone ipovedenti, mentre VoiceOver viene ampliato e gli utenti ipoudenti saranno in grado di vedere le didascalie dal vivo di ciò che viene detto intorno a loro.

Rilevamento porta

Door Detection è una “funzione di navigazione all’avanguardia”, afferma Apple. Individua automaticamente le porte “all’arrivo a una nuova destinazione” e, oltre a mostrare la distanza da una porta, la descriverà. Ciò include se “è aperto o chiuso e quando è chiuso, se può essere aperto spingendo, girando una manopola” e così via.

La funzione richiede LiDAR, che attualmente lo limita a iPhone 12 Pro, iPhone 12 Pro Max, iPhone 13 Pro, iPhone 13 Pro Max e iPad Pro.

Funzioni di accessibilità fisica e motoria

Una nuova funzione di mirroring di Apple Watch è quella di aiutare “gli utenti a controllare Apple Watch da remoto dal loro iPhone abbinato”.

Ciò significa che l’accessibilità dell’iPhone o le funzioni assistive come il controllo vocale possono essere utilizzate “come alternative al tocco del display di Apple Watch”.

Apple si sta anche basando sulla sua precedente funzione AssistiveTouch in cui gli utenti potevano controllare l’Apple Watch con i gesti. “Con nuove azioni rapide su Apple Watch”, afferma Apple, “un gesto a doppio pizzico può rispondere o terminare una telefonata, ignorare una notifica, scattare una foto, riprodurre o mettere in pausa i contenuti multimediali nell’app In riproduzione e avviare, mettere in pausa o riprendere un allenamento”.

Didascalie dal vivo

Disponibile in versione beta entro la fine del 2022, i sottotitoli live saranno inizialmente supportati solo negli Stati Uniti e in Canada. Richiederà anche iPhone 11 o versioni successive, iPad con processori A12 Bionic o successivi e Mac Apple Silicon.

Con l’hardware giusto, gli utenti saranno in grado di utilizzare Live Captions per “seguire più facilmente qualsiasi contenuto audio”, afferma Apple. Questo è “sia che si tratti di un telefono o di una chiamata FaceTime, di un’app di videoconferenza o social media, di contenuti multimediali in streaming o di una conversazione con qualcuno accanto a loro”.

Su un Mac durante una chiamata, i sottotitoli dal vivo includono l’opzione di digitare una risposta e far pronunciare quel testo ad alta voce per altre persone nella conversazione.

Lascia un commento