Nye tilgjengelighetsfunksjoner i iOS 15
Apple annonserte at det er nye tilgjengelighetsfunksjoner som kommer senere i år, med iOS 15, til de forskjellige produktene og tjenestene. Disse funksjonene er utviklet for personer med mobilitet, syn, hørsel og kognitive funksjonshemminger.
Sarah Herrlinger, Apples seniordirektør for Global Accessibility Policy and Initiatives, hadde dette å si om det: «Hos Apple har vi lenge følt at den beste teknologien i verden bør svare på behovene til alle, og våre Teamene våre jobber utrettelig for å bygge tilgjengelighet inn i alt vi gjør." "Med disse nye funksjonene flytter vi grensene for innovasjon med neste generasjons teknologier som bringer moroa og funksjonen til Apple-teknologi til enda flere mennesker – og ikke vi kan se frem til å dele dem med brukerne våre.»
Her er de nye tilgjengelighetsfunksjonene som kommer med iOS 15:
Apple kunngjør mange flere i sin uttalelse, som vi gir deg en lenke til på slutten av artikkelen. Vi viser deg det mest interessante:
AssistiveTouch for Apple Watch:
For brukere med begrenset mobilitet vil AssistiveTouch tillate deg å bruke klokken uten å måtte berøre skjermen eller kontrollene. Innebygde bevegelsessensorer, en optisk hjertefrekvenssensor og maskinlæring på enheten vil gjøre det mulig for Apple Watch å oppdage subtile forskjeller i muskelbevegelser og seneaktivitet som vil kontrollere en markør på skjermen gjennom håndbevegelser som en klype eller klem.
Her legger vi igjen en video der vi snakker om denne fantastiske funksjonen:
iPad øyesporing:
Senere i år vil iPadOS støtte tredjeparts øyesporingsenheter for å la folk kontrollere iPad med øynene.
Bakgrunnslyder:
Lyder rundt oss kan være distraherende og forårsake ubehag eller ubehag. I et show av støtte for nevromangfold, legger Apple til nye bakgrunnslyder som vil minimere distraksjoner og hjelpe brukere med å fokusere, slappe av eller slappe av. Vi kan lage en lys, mørk eller balansert støy og lyden av havet, regnet eller en bekk spiller i bakgrunnen for å kamuflere støyene fra miljøet vi befinner oss i. I tillegg er alt dette mikset og integrert med andre systemlyder og meldinger.
SignTime. Kommuniser med Apple ved å bruke tegnspråk:
SignTime vil tillate kunder å kommunisere med AppleCare og detaljhandel ved hjelp av tegnspråk. Det er en funksjon som ble lansert 20. mai i USA, Storbritannia og Frankrike, og som vil komme til flere land i fremtiden.
Voiceover-forbedringer:
Nylige oppdateringer til VoiceOver lar brukere utforske flere detaljer om personer, tekst, tabelldata og andre objekter i bilder. VoiceOver kan beskrive posisjonen til en person sammen med andre objekter i bilder, og med Markup kan brukere legge til bildebeskrivelser for å tilpasse bildene deres.
MFi (laget for iPhone) Høreapparatforbedringer:
Apple introduserer ny støtte for toveis høreapparater, som muliggjør håndfrie telefonsamtaler og FaceTime. Neste generasjons modeller for MFi-brukere kommer senere i år.
Hodetelefonaudiogrammer:
Hodetelefoner vil motta audiogramstøtte. Dette vil tillate brukere å tilpasse lyden ved å importere de siste hørselstestresultatene.
I tillegg kommer andre nyheter, som de vi vil kommentere omtrent nedenfor:
- Lydhandlinger vil erstatte fysiske knapper med munnlyder som klikk og "ee" for ikke-talende brukere med begrenset mobilitet.
- skjerm- og tekststørrelsesinnstillingene kan konfigureres i hver kompatible app, for å gjøre det lettere for brukere med fargeblindhet eller andre synsvansker å se skjermen.
- nye Memoji-tilpasnings alternativer vil tilby større representasjon, slik at brukere kan ta på seg oksygenrør, cochleaimplantater og beskyttende hjelmer.
Mange av disse nye funksjonene er planlagt utgitt senere i år, noe som tyder på at de vil bli inkludert i iOS 15 eller en av oppdateringene.
Hilsen.
Kilde: Apple.com