Apple zeigt eindrückliche Bedienungshilfen aus iOS 18 und Co.

Heute ist der alljährlich begangene «Global Accessibility Awareness Day (Welttag der Barrierefreiheit)». Pünktlich zu diesem Aktionstag stellt Apple seit ein paar Jahren immerzu neue Accessibility-Funktionen für das iPhone, den Mac und andere Plattformen des Unternehmens vor – es ist dies jeweils eine erste Vorschau auf die kommenden OS-Generationen, noch bevor Apple die neuen Systeme zur wenige Wochen später stattfindenden WWDC offiziell vorstellt.

Zu den Neuerungen in iOS 18 und Co. gehören heuer neben anderen Funktionen mit «Eye Tracking» die Möglichkeit für Personen mit körperlichen Einschränkungen, ein iPad oder ein iPhone vollständig mit den Augen zu steuern. Mit «Music Haptics» gibt es eine neue Möglichkeit für gehörlose oder schwerhörige Personen, Musik «mithilfe der Taptic Engine im iPhone zu erleben». «Vocal Shortcuts» ermöglicht es Personen mittels selbst erzeugten Tönen, Aufgaben zu erledigen. Die Bewegungs- oder Reisekrankheit beim Benutzen eines iPhone oder iPad in einem Fahrzeug soll durch «Vehicle Motion Cues» verhindert werden können – und auch «CarPlay» und visionOS erhalten neue zusätzliche Bedienungshilfen. Apple scheut nicht zurück, zu erwähnen, dass die neuen Funktionen Gebrauch machen von leistungsfähiger «künstlicher Intelligenz und maschinellem Lernen».

Zur neuen Augensteuerung von iPadOS- und iOS-Apps via FaceTime- resp. Front-Kamera schreibt Apple, dass diese «keine zusätzliche Hardware oder Zubehör erfordert». «Mit Eye Tracking können Nutzerinnen und Nutzer durch die Elemente einer App navigieren und Dwell Control verwenden, um jedes Element zu aktivieren und auf zusätzliche Funktionen wie physische Tasten, Wischen und andere Gesten ausschliesslich mit ihren Augen zuzugreifen.»

«Eye Tracking» für iPhone und iPad (Apple)

Mit «Music Haptics», so Apple, spielt die Taptic Engine eines iPhone «Klopfgeräusche, Texturen und raffinierte Vibrationen zum Ton der Musik» ab. Die neue Bedienungshilfe «funktioniert mit Millionen von Songs aus dem Apple-Music-Katalog». Weiter wird Apple die Funktion als API für Entwickler freigeben, damit auch Musik in Dritt-Apps zugänglicher gemacht werden kann.

Zu «Vocal Shortcuts» informiert der Mac-Hersteller, dass damit selbst-definierte Wörter oder Befehle «an Siri-Shortcuts und komplexe Aufgaben» gebunden werden können. Eine weitere Funktion namens «Listen for Atypical Speech» macht die Spracherkennung «für ein breiteres Spektrum an Sprache» zugänglich. Durch «geräteinternes maschinelles Lernen» werden Sprachmuster der Nutzerin oder des Nutzers erkennt und erlernt. Es ist dies gedacht für Personen mit erworbenen oder fortschreitenden Erkrankungen, die die Sprache beeinträchtigen. Apple nennt als Beispiele zerebrale Lähmung, amyotrophe Lateralsklerose (ALS) oder Schlaganfall. Diese Funktionen basieren auf den bereits letztes Jahr mit iOS 17 eingeführten Funktionen für Nutzende, die «nicht sprechen können oder bei denen die Gefahr besteht, dass sie ihre Fähigkeit zu sprechen verlieren».

Spannend ist auch, was Apple zu den neuen «Vehicle Motion Cues» schreibt: «Die Forschung zeigt, dass Bewegungs- respektive Reisekrankheit häufig durch einen sensorischen Konflikt zwischen dem, was eine Person sieht, und dem, was sie fühlt, verursacht wird.» Dies hindere einige Personen daran, ein iPhone oder ein iPad während der Fahrt in einem sich fortbewegenden Fahrzeug bequem zu nutzen. Die Vehicle Motion Cues sind «animierte Punkte am Rand des Bildschirms, die Veränderungen in der Fahrzeugbewegung darstellen, um sensorische Konflikte zu reduzieren» – ohne dabei das eigentlich Angezeigte zu beeinträchtigen. Möglich macht diese eindrückliche Bedienungshilfe die im iPhone und iPad integrierten Sensoren, die erkennen, wenn sich die nutzende Person «in einem fahrenden Fahrzeug befindet und reagiert entsprechend». Die Funktion könne so eingestellt werden, so Apple weiter, dass sie auf dem iPhone automatisch angezeigt wird, oder sie kann über das Kontrollzentrum fix ein- und ausgeschaltet werden.

Zu den neuen Bedienungshilfen von «CarPlay» gehören eine erweiterte Sprachsteuerung, Farbfilter und eine Tonerkennung. Neu kann auch das Auto-Infotainmentsystem und dessen Apps komplett über die Stimme navigiert werden. Die neue Tonerkennung informiert taube oder schwerhörige Insassen des Fahrzeuges mit einer Warnung über Autohupen und Sirenen. Farbenblinde und visuell beeinträchtigte Personen können die CarPlay-Bedienoberfläche neu mit Farbfiltern sowie zusätzlichen visuellen Anpassungen wie fetterem oder grösserem Text für sich optimieren.

 ()
Tonerkennung in CarPlay (Apple)

In visionOS wird es neu systemweite Unterstützung für Live-Untertitel geben, diese ermögliche es allen das Headset nutzende Personen, darunter «auch Gehörlosen und Schwerhörigen, gesprochenen Dialogen in Live-Unterhaltungen und Audiodateien von Anwendungen zu folgen». Ebenso kommt die Unterstützung «für zusätzliche Made-for-iPhone-Hörgeräte und Cochlea-Hörprozessoren», so Apple weiter. Und: «Zu den Aktualisierungen für die Zugänglichkeit des Sehvermögens gehören die Funktionen ‹Transparenz reduzieren›, ‹Smart Invertieren› und ‹Blinkende Lichter dimmen› für Benutzer mit geringer Sehkraft oder für Benutzer, die helle Lichter und häufiges Blinken vermeiden möchten».

 ()
Live-Untertitel in visionOS (Apple)

Als weitere neue A11y-Funktionen nennt Apple zusätzliche Stimmen für «VoiceOver», einen «Reader Mode» in der «Magnifier (Lupe)»-App, ein virtuelles Trackpad für «AssistiveTouch» und mehr.

Die genannten neuen Bedienungshilfen werden gemäss Apple «später in diesem Jahr» eingeführt. Die meisten der neuen Funktionen dürften Bestandteil der für den Herbst erwarteten iOS 18, iPadOS 18, macOS 15, visionOS 2 und Co. sein.

Von Stefan Rechsteiner
Veröffentlicht am

Gönner-Abo

Ab CHF 5.– im Monat

👉🏼 Wir benötigen deine Unterstützung! Unterstütze macprime mit einem freiwilligen Gönner-Abo und mache die Zukunft unseres unabhängigen Apple-Mediums aus der Schweiz mit möglich.

macprime unterstützen