JAWS i NVDA – porównanie nowości i kierunków zmian.

W ostatnich latach można zauważyć stopniowy, lecz nieubłagany wyścig NVDA z programem JAWS już nie tylko jednostronnie, ale także obustronnie. Istnieją obszary, w których to drogi, komercyjny program musi nadrabiać dystans do darmowego czytnika ekranu. Obecnie za korzystaniem z programu JAWS, gdy alternatywą jest darmowy NVDA mamy tylko jeden argument. warto wybrać go właściwie tylko wtedy, gdy korzystamy z urządzenia lub aplikacji, którą lepiej wspiera. O przyzwyczajeniu użytkownika nie piszemy, bo ta kwestia nie jest przeszkodą nie do pokonania. Obszarów, w których produkt Amerykańskiej firmy VISPERO GROUP ma dużą przewagę nad darmowym odpowiednikiem nie ma już prawie wcale, bo np. wsparcie NVDA dla podstawowej edycji w pakiecie Office właściwie zrównało się z tym, co oferuje JAWS. Nadal większość zaawansowanych funkcji edycyjnych jest w sposób bardziej kompleksowy obsługiwana przez płatną aplikację, co nieszczególnie powinno dziwić, ale funkcje potrzebne większości osób w typowych zastosowaniach obydwa czytniki obsługują już w sposób porównywalnie zadowalający, w pewnych aspektach zaczyna się pojawiać przewaga NVDA.

Czy możliwe jest tworzenie tabel w programie Word? Jak najbardziej, Poruszanie się po nich również.

Podstawowe formatowanie takie jak np. wyrównywanie tekstu, zmiana czcionki, formatowanie akapitów, wstawianie łączy i innych tego typu elementów można już od dłuższego czasu wykonywać zarówno z JAWSEM jak i z NVDA.

JAWS zachowuje nadal przewagę w ilości sposobów i kolejności oznajmiania różnych elementów oraz w personalizacji oznajmiania dla konkretnych dokumentów.

NVDA zaczyna natomiast zdobywać przewagę w odczytywaniu informacji przez Microsoft User Interface Automation UIA.

NVDA jest programem, który nie instaluje sterownika lustrzanego grafiki WDDM (Windows Display Driver Management), czego wymaga Program JAWS w trybie zgodności ze starszymi wersjami aplikacji i systemu. Przez to NVDA w wersji przenośnej jest naprawdę przenośny, ponieważ w sposób ograniczony, ale może pracować z tym, co ma w swojej przenośnej kopii z np. Pendrive’a czy karty pamięci na dowolnym komputerze z Windows. JAWS niestety wymaga Instalacji m. in. Video Accessibility, którego WDDM jest obecnie częścią. Windows 11 i późniejsze będą stopniowo odchodzić od tego modelu na rzecz Microsoft User Interface Automation, przez co sterownik video przestanie być w pewnym momencie niezbędny.

NVDA jest od początku tworzony w ten sposób, żeby informacje uzyskiwać bezpośrednio z obiektów aplikacji, z której korzysta użytkownik.

Od dłuższego czasu obserwujemy sytuację, w której to NVDA Potrafi odczytać coś więcej na stronie internetowej czy w Aplikacji.

Ponieważ JAWS jest projektem dłużej istniejącym, mającym w sobie więcej zależności, twórcom dostosowanie się do nowych wersji systemu czy oprogramowania zaczyna zajmować co raz więcej czasu, mimo ścisłej przecież współpracy z Microsoftem. Wiadomo też, że cykl wydawniczy Windows i aplikacji użytkowych znacznie przyspieszył od czasu, gdy w sieci przesyłało się głównie dane czy pobierało aktualizacje, a pracowało na oprogramowaniu lokalnie. Obecne oprogramowanie, aby oferować pełnię swych możliwości musi właściwie przez cały czas być podłączone do Internetu. Tak duża ilość zmieniających się warunków nie ułatwia twórcom czytników ekranu, na dowolny system zapewnienia użytkownikom możliwie najlepszych doświadczeń i jak najlepszego dostępu do interfejsu oprogramowania. Dlatego komercyjny Screenreader ma tutaj znacznie trudniej. Oto prosty przykład.

Jeżeli NVDA czegoś nie odczytuje w wersji dostarczanej przez NV ACCESS, to w wielu przypadkach sprawę załatwiają różne dodatki, które są tworzone znacznie szybciej niż kompleksowe rozwiązania dostarczane przez JAWS. Oczywiście ciemną stroną dodatków do NVDA jest niestety ich zmienna jakość, brak tłumaczenia na ojczysty język użytkownika, dublujące się dodatki oferujące zbliżony zakres funkcji, trudności z aktualizacjami z powodu braku jednego centralnego repozytorium oraz problemy ze zgodnością dodatków, których twórca regularnie nie aktualizuje oraz nie dostarcza w formie aktualizatora.

Aby potwierdzić powyższe obserwacje wystarczy przeczytać sekcję co nowego w JAWS i co nowego w NVDA w podręcznikach do obu programów. O ile w NVDA znajdziemy mnóstwo informacji nie tylko o poprawkach, lecz także o wprowadzeniu obsługi takich czy innych elementów interfejsu jakiejś aplikacji czy nowych przydatnych skrótów klawiszowych i innych poleceń, tak w programie JAWS z rzadka pojawiają się nowe naprawdę interesujące funkcje, a producent skupia się na poprawie obsługi tego co już jest lub na wprowadzeniu obsługi tych rozwiązań, które stają się co raz bardziej popularne, są nowe lub zmieniają się np. ostatnio takim obszarem jest praca z Google docs, gdzie JAWS mocno się rozwija, ale przecież NVDA również się rozwija w tym kierunku.

Ostatnie nowości, to głównie poprawa współpracy z Windows 11 w przypadku obu czytników ekranu. Z nowości w JAWS warto wyróżnić dwie funkcje, które pojawiły się lub zostały rozbudowane w wersji 2022 i 2023. Pierwszą taką funkcją jest Smart Glance (inteligentne spojrzenie), czyli funkcja, która na podstawie wyróżnień wizualnych i kolorów wyszukuje punkty na stronie www, w aplikacji internetowej lub wszędzie tam, gdzie wykorzystywany jest wirtualny kursor PC, które mogą być ważne. Takie wyróżnienia są klasyfikowane w ten sposób, że im jest ich mniej, tym bardziej mogą one być potencjalnym ważnym punktem na stronie np. pole hasła, które trzeba wpisać. Osobiście podczas naszych testów takie obszary były wybierane przez funkcję Smart Glance dość ciekawie, chociaż nie zawsze były to istotne elementy na stronie.

Drugą ważną nową funkcją jest w JAWS możliwość uzyskania dostępu do listy powiadomień, które pojawiły się w systemie zarówno w formacie Toast „tost” jak i zostały przesłane bezpośrednio do czytnika ekranu przez funkcje User Interface Automation.

Funkcja ta pojawiła się pierwszy raz w wersji 2022, natomiast w 2023 rozwinięto jej możliwości.

Dawniej, za czasów Windowsa 7 i wcześniejszych powiadomienia mogły dostarczać głównie aplikacje zainstalowane lokalnie i osadzone mocno w systemie.

Obecnie powiadomienia mogą wysyłać nie tylko aplikacje, ale również strony internetowe przez mechanizmy powiadomień w przeglądarce, a nawet samodzielne aplikacje internetowe osadzone na stronach.

Wiele witryn uzyskuje dostęp do lokalizacji, gdy tego potrzebujemy i przeglądarki informują o tym. Dla naszych kont mail, bo częściej mamy więcej niż jedno, może być wyświetlane powiadomienie o każdej nowej wiadomości itd. W dodatku wiele aplikacji ochoczo tworzonych przez programistów wysyła wiele komunikatów tekstowych bezpośrednio do czytników ekranu poprzez stosowną funkcję ułatwień dostępu User Interface Automation. Takich komunikatów jest często zbyt dużo i pojawiają się zbyt często. Niechlubnym przykładem jest niestety sama przeglądarka Microsoft Edge z Chromium, Gdzie do czytnika ekranu przesyłany jest właściwie komunikat o każdej zmianie np. otwarcie nowej karty, zamknięcie karty, ładowanie strony, załadowano stronę, czyli przy każdym wciśnięciu entera lub jakiejś innej popularnej funkcji.

W komputerze jednego z naszych redaktorów pojawiło się… 500 takich powiadomień w ciągu dwudziestu czterech minionych godzin.

Nowa przeglądarka powiadomień w JAWS pozwala te powiadomienia przeglądać, a obecnie także tworzyć reguły służące do pomijania tych, które są mniej istotne i nie pozwalają skupić się na pracy lub rozrywce.

Nowe reguły dotyczące powiadomień pozwalają na znacznie więcej i chętnie odsyłamy tutaj do pomocy JAWS.

Niezależnie od ustawionych reguł, powiadomienia te zawsze można przejrzeć w przeglądarce powiadomień JAWS.

Powstała ona dlatego, że wielu z tych powiadomień nie widać w centrum akcji i nie można się do nich odwołać w czasie późniejszym, gdy się pojawiły lub pojawiło się jednocześnie bardzo dużo takich powiadomień.

A co ciekawego w NVDA?  Tutaj pojawiła się nowość, która w dobie masowych ataków przy użyciu dokumentów, stron i wiadomości zawierających podejrzane łącza sprawdzi się świetnie. Łatwo podejrzeć czy np. link prowadzi do oryginalnego serwisu transakcyjnego naszego banku czy na spreparowaną przez przestępców stronę służącą do wyłudzenia danych.

To tylko jedna z licznych nowości, poprawek i zmian wprowadzonych tylko w wersji 2023.1, czyli wersji na pierwszy kwartał 2023 roku.

Jak widać, nowości tych jest znacznie więcej niż w JAWS i są one bardziej różnorodne, bo oprócz bieżącego ulepszania współpracy z Windowsem i aplikacjami użytkowymi, pojawia się mnóstwo nowych funkcji, jak dawniej w JAWS.

Jeżeli ktoś ma możliwość, to warto korzystać z obu tych czytników zamiennie, a czasem nawet z narratora, który również dynamicznie się rozwija, chociaż klawiszologia i ogólnie działanie tego programu różni się dość znacząco od tego, co oferują JAWS i NVDA.

Co w przyszłości?

Chociaż nieco ponad 1,5 roku temu został wydany Windows 11, to już trwają prace nad nowym systemem w wersji 12. Z dostępnych informacji wynika, że użycie sztucznej inteligencji do interakcji z tą wersją Windowsa ma być tak duże, że nigdy wcześniej niespotykane w żadnym systemie. Takie przyszłościowe rozwiązania zawarte w nowym Windowsie nie są pozbawione podstaw, biorąc pod uwagę rozwoju GPT od Open AI oraz CHAT GPT od Microsoftu.

Miejmy nadzieje, że rozwój sztucznej inteligencji pozwoli nie tylko na szybsze przetwarzanie i uzyskiwanie informacji, ale również na szybsze i lepsze działanie technologii wspomagających, w tym NVDA i JAWS’a.

Wirtualny wolontariusz w Be My Eyes, czyli sztuczna inteligencja pomoże wspierać osoby niewidome i słabowidzące.

Wiele ostatnio pisze i mówi się o Chat GPT, czyli bocie firmy Microsoft, który komunikuje się z użytkownikami wykorzystując Mechanizmy sztucznej inteligencji.

Firma Microsoft musiała nawet nałożyć ograniczenia na swój nowy produkt, ponieważ np. obrażał on piszących z nim użytkowników.

Wielu uczniów czy studentów wykorzystało Chat GPT do wykonania niektórych zadań np. napisania treści wypracowań lub odpowiedzi na pytania.

W związku z tym na wielu portalach traktujących o technologii pojawiło się wiele treści ostrzegających przed rozwojem tego typu technologii, przed możliwą utratą pełnej kontroli, jaką do tej pory sprawuje nad nią człowiek lub jej wykorzystaniem w sposób szkodliwy dla państw, grup społecznych czy nawet całej ludzkości.

Rzeczywiście z rozwojem sztucznej inteligencji i wzrostem oddawania kontroli programom i automatom wiąże się pewne ryzyko, ale przecież ryzyko niosły ze sobą różne wynalazki z przeszłości. Najpierw był wynalazek, a później kodyfikowano sposoby i dopuszczalne ramy jego użycia. Podobnie będzie w przypadku Sztucznej inteligencji.

Chcielibyśmy dzisiaj napisać o pozytywnym przykładzie rozwoju tego typu technologii.

Co to jest Be My EyES?

Jest to miejsce, które kojarzy wolontariuszy chcących pomagać osobom niewidomym lub słabowidzącym z osobami poszukującymi takiej pomocy. Jednym zdaniem platforma ta łączy potrzebujących z mogącymi pomóc tak jak np. platforma fixly łączy osoby potrzebujące pomocy w różnych dziedzinach takich jak naprawa komputerów z osobami, które chcą taką naprawę wykonać, a same nie potrafią. Platforma Be My Eyes wystartowała w 2012 roku.

A jak można skorzystać z Be My Eyes?

W przypadku Be My Eyes zastosowań jest wiele w zależności od potrzeb. Można skorzystać z pomocy w nawigacji po nieznanym obiekcie np. duży budynek, lotnisko, można poprosić wolontariusza o odczytanie etykiet, dat ważności produktów czy też uzyskać wsparcie w innych czynnościach, jeżeli tylko wolontariusz posiada wiedzę na dany temat i może zobaczyć w kamerze to, w czym ma udzielić pomocy.

Be My Eyes wchodzi na nowy poziom.

Platforma uzyskała dostęp do technologii sztucznej inteligencji GPT-4 firmy Open AI powołując do życia tzw. Wirtualnego wolontariusza.

W czym może pomóc wirtualny wolontariusz?

Wykorzystanie GPT-4 w zakresie przetwarzania danych wizualnych pomoże osobom niewidomym uzyskiwać informacje o tym, co jest np. na obrazie praktycznie w taki sam sposób, jak zrobiłby to żywy człowiek.

Wykorzystanie sztucznej inteligencji do przetwarzania danych wizualnych pozwoli uzyskać informacje nie tylko o tekście, jaki może znajdować się na obrazie przy pomocy optycznego rozpoznawania znaków OCR, ale pomoże również uzyskać kontekstowe informacje na temat takiego obrazu.

Jak mówi Michael Buckley, dyrektor generalny firmy Be My Eyes, w krótkim czasie, w którym uzyskano dostęp do GPT 4 Open AI, zaobserwowano niezrównaną wydajność w porównaniu do dowolnej technologii OCR istniejącej wcześniej.

Dodał, że implikacje dla dostępności są ogromne. W przyszłości, społeczność osób mających problemy ze wzrokiem i niewidomych będzie mogła wykorzystywać te narzędzia nie tylko do wielu zastosowań związanych z interpretacją danych wizualnych, ale również w wielu innych sytuacjach ogólnie zwiększając ich niezależność w życiu.

Różnica między GPT-4 a innymi modelami uczenia językowego i maszynowego polega zarówno na możliwości prowadzenia rozmowy, jak i na większym stopniu sprawności analitycznej oferowanej przez tę technologię.

Podstawowe aplikacje do rozpoznawania obrazu mogą jedynie zidentyfikować to, co znajduje się przed nimi, podczas gdy GPT-4 może ekstrapolować, analizować i rozumieć kontekst, co pozwala na zaoferowanie znacznie bardziej wszechstronnej pomocy.

Jednym z najbardziej ekscytujących aspektów funkcji Wirtualnego Wolontariusza jest jego zdolność do oferowania natychmiastowej pomocy wizualnej w wielu różnych zadaniach. Oto kilka przykładów zastosowania BE My Eyes. użytkownicy mogą wysłać zdjęcie zawartości swojej lodówki do narzędzia, które następnie nie tylko zidentyfikuje, co znajduje się w środku, ale także zaproponuje przepisy, które można przygotować z tych składników.

Nowa funkcja przeszła testy beta z wybraną grupą pracowników Be My Eyes, uzyskując w większości pozytywne opinie. Testerzy chwalili użyteczność tej funkcji, szczególnie w jednym przypadku, gdy użytkownik był w stanie z powodzeniem poruszać się po dworcu kolejowym. Funkcja ta dostarczała szczegółowych informacji o lokalizacji użytkownika na mapie i oferowała instrukcje krok po kroku, jak bezpiecznie dotrzeć do pożądanego celu.

W kolejnym przykładzie użytkowniczka Be My Eyes pokazuje, jak aplikacja pomaga jej w wielu zadaniach, w tym opisuje wygląd sukienki, identyfikuje roślinę, czyta mapę, tłumaczy etykietę, kieruje ją do określonej bieżni na siłowni i mówi, które przyciski nacisnąć w automacie.

Jesper Hvirring Henriksen, z firmy Be My Eyes, wyjaśnia, że przemierzanie skomplikowanego świata to tylko połowa sukcesu. Osoby z dysfunkcją wzroku napotykają na wyzwania związane z korzystaniem z czytników ekranu w celu zrozumienia stron internetowych, zwłaszcza jeśli chodzi o obrazy. “GPT-4 jest w stanie podsumować wyniki wyszukiwania w sposób, w jaki widzący naturalnie je skanują – nie czytając każdego najdrobniejszego szczegółu, ale koncentrując się na ważnych danych. “Ta technologia może uprościć zadania, takie jak czytanie wiadomości online i nawigowanie po zaśmieconych stronach e-commerce dla osób z wadami wzroku.

Wirtualny Wolontariusz będzie dostępny dla użytkowników w najbliższych miesiącach, a przez Buckleya został okrzyknięty jako “zmieniający zasady gry.

Jeśli Wirtualny Wolontariusz nie będzie w stanie odpowiedzieć na pytanie, automatycznie zaoferuje użytkownikom możliwość połączenia się za pośrednictwem aplikacji z widzącym wolontariuszem w celu uzyskania pomocy.

Narzędzie będzie bezpłatne dla wszystkich członków społeczności niewidomych i słabowidzących korzystających z aplikacji Be My Eyes.

Obecnie można zarejestrować się w aplikacji, aby zostać umieszczonym na liście oczekujących na dostęp.

Od siebie dodamy, że im więcej użytkowników, tym Wirtualny wolontariusz zyska więcej umiejętności i wiedzy, dlatego warto się zarejestrować i korzystać, gdy potrzeba. Doświadczenia z korzystania i wiedza zostaną wykorzystane później, aby pomoc świadczona innym w przyszłości była na jeszcze wyższym poziomie.

Źródło: Applevis.com

Co raz bardziej przyjazny dla niewidomych InPost

Pamiętacie nasz artykuł sprzed ponad roku? Napisaliśmy wtedy o dostępnym odbiorze paczek bez konieczności obsługi ekranu dotykowego paczkomatu, a jedynie przy pomocy aplikacji mobilnej InPost dla iOS lub androida.
Od pewnego czasu dostępna jest również możliwość, o której tylko wspomnieliśmy w poprzednim tekście jako o możliwości potencjalnej. Okazuje się, że bardzo szybko stało się możliwe nie tylko odbieranie paczek, ale również ich nadawanie.
Co zwykle stanowiło barierę w trakcie nadawania paczki dla osoby niewidomej, która nie ma możliwości skorzystania z pomocy? Mogłoby się wydawać, że np. poprawne zaklejenie paczki i istotnie, zapakowanie jest trudne dla osób mniej sprawnych manualnie, ale nie to było główną trudnością. Barierą główną jest, czy też było umieszczenie etykiety na paczce, a wcześniej jej poprawne wydrukowanie oraz brak możliwości obsługi paczkomatu bez użycia aplikacji w zakresie nadawania przesyłek.
W przypadku chęci nadania paczki przez InPost w aplikacji, z możliwością przesłania jej do dowolnego paczkomatu w pobliżu odbiorcy lub nawet do domu bezpośrednio w formie przesyłki kurierskiej problemu etykiety na paczce nie ma. Po prostu nie trzeba jej drukować i naklejać. Zniknął też problem nadawania paczek z wykorzystaniem niedostępnego dla niewidomych interfejsu paczkomatu, wystarczy sama aplikacja mobilna. Oczywiście aby nadać paczkę musimy dysponować danymi odbiorcy, tj. numerem telefonu, adresem e-mail oraz danymi adresowymi. Jedyne wymogi, jakie należy spełnić względem samej paczki, to zmierzyć ją po poprawnym i starannym zapakowaniu i przy tworzeniu przesyłki w aplikacji wybrać odpowiedni rozmiar. W aplikacji wszystko jest bardzo dobrze opisane, więc można tworzyć przesyłkę w systemie śledząc kreator i wykonując potrzebne do realizacji kroki.
W dodatku, można zapłacić za przesyłkę m. in. Blikiem, Google Pay czy Apple Pay, co szczególnie ucieszy użytkowników iPhone’ów i telefonów z androidem, którzy korzystają z tej funkcji w swoich urządzeniach.
Od utworzenia przesyłki mamy prawie 30 dni na jej zaniesienie do dowolnego paczkomatu i jej nadanie.
To bardzo dużo czasu, więc z pewnością można to zrobić w najwygodniejszym dla nas terminie, gdy tylko znajdzie się chwila na odwiedzenie najbliższego paczkomatu.

Jak wygląda proces nadawania po utworzeniu przesyłki?

Po podejściu do paczkomatu wystarczy sięgnąć po telefon, uruchomić aplikację InPost, odczekać chwilę i przejść do sekcji nadaję w aplikacji. Następnie należy rozwinąć szczegóły przesyłki, którą chcemy nadać. Wśród informacji o przesyłce znajdziemy obok kodu QR przycisk: „otwórz skrytkę zdalnie”, podobnie jak ma to miejsce w przypadku odbierania paczek. Po wciśnięciu tego przycisku aplikacja zlokalizuje dla nas kilka najbliższych paczkomatów i jeżeli pierwszy od góry nie będzie tym, przy którym akurat stoimy należy wskazać właściwy. W naszym teście nadawania przesyłek lokalizacja paczkomatu i nasza została skojarzona bezbłędnie. Po wybraniu paczkomatu otrzymujemy pytanie, czy to na pewno ten paczkomat i czy chcemy otworzyć skrytkę.
Po wybraniu opcji tak paczkomat otworzy skrytkę dostosowaną do wybranego przez nas rozmiaru paczki.
Postępujemy podobnie, jak w przypadku odbioru paczki, czyli lokalizujemy skrytkę nawigując od środka paczkomatu, czyli tego miejsca, gdzie jest ekran dotykowy. W aplikacji otrzymujemy oczywiście informację, która to kolumna i który rząd oraz w którą stronę od środka urządzenia należy się przemieścić. Tę ostatnią informację słychać z resztą dość dokładnie, gdy skrytka otwiera się.
Po zlokalizowaniu skrytki wystarczy już tylko umieścić w niej paczkę i zamknąć drzwiczki dokładnie, aż klikną.
Teraz możemy śledzić drogę naszej przesyłki w aplikacji. Oczywiście po dostarczeniu w aplikacji pojawi się stosowne powiadomienie, a status przesyłki zmieni się na doręczona.
Gdy umieścimy paczkę lub paczki w skrytce, nadawca również zostanie poinformowany o tym fakcie. Teraz, w zależności od dokonanego wyboru będzie oczekiwać na kuriera InPost lub na informację, że paczka dotarła do wskazanego przez nadawcę paczkomatu.
Gotowe.
Aplikację ze sklepu Google Play pobierzecie pod tym adresem. Użytkownicy mobilnych urządzeń Apple znajdą wersję aplikacji InPost dla swoich urządzeń pod tym linkiem.
Teraz wśród niewidomych InPost naprawdę zyska solidnych klientów, a w każdym razie na pewno dotyczy to członków naszej redakcji.
p.s.
Ciekawe, czy i jeżeli tak, to kiedy pojawi się możliwość nadawania przesyłek kurierskich, w tym tych większych oraz ubezpieczonych bez konieczności drukowania etykiet, z możliwością utworzenia w aplikacji mobilnej oczywiście. Warto na to czekać i zgłaszać się z propozycjami do firmy InPost.

Opis wytycznej WCAG 1.4. Rozróżnialność – część pierwsza

W tym artykule zajmiemy się wytyczną 1.4, traktującą o szeroko pojętej rozróżnialności. Ze względu na dość dużą liczbę kryteriów sukcesu, opis tej wytycznej i uszczegóławiających ją kryteriów ukaże się w dwóch częściach. Oto część pierwsza.

Tradycyjnie już zacznijmy od treści samej wytycznej.

Wytyczna 1.4 Rozróżnialność

Ułatwiaj oglądanie i słuchanie treści oraz oddzielanie informacji od tła.

Sama wytyczna, jak już dobrze wiemy z poprzednich przykładów pozostałych wytycznych jest dość krótka, ale jej przekaz jest jasny. Należy ułatwić rozróżnianie informacji przekazywanych w treści od tła, na jakim są one umieszczone.

Aby rozwinąć tę wytyczną i ułatwić jej wdrażanie, przejdźmy do kryteriów sukcesu.

Kryterium sukcesu 1.4.1 Użycie koloru

(Poziom A)

Kolor nie jest wykorzystywany jako jedyny wizualny sposób przekazywania informacji, wskazywania czynności do wykonania lub oczekiwania na odpowiedź, czy też wyróżniania elementów wizualnych.

Co jest celem spełnienia tego kryterium sukcesu?

Celem tego kryterium jest zapewnienie wszystkim użytkownikom, którzy korzystają ze wzroku w pełni jak i z różnymi ograniczeniami dostępu do informacji przekazywanych przez różnice w kolorach w taki sposób, że każdy użyty do przekazywania informacji kolor ma przypisane mu znaczenie.

Gdy informacja jest przekazywana przez różnice kolorów na obrazie lub w innej formie nietekstowej, kolor może nie być widoczny dla użytkowników mających trudności z rozróżnianiem części lub nawet większości kolorów. W takim przypadku przekazanie tej samej informacji przy użyciu innych środków wizualnych zapewnia tym użytkownikom, którzy nie widzą lub nie rozróżniają kolorów możliwość ich postrzegania.

Zatrzymajmy się przy tym zagadnieniu.

Kolor jest jednym z najważniejszych atutów w projektowaniu treści internetowych i zapewnia większości osób natychmiastowy dostęp do różnego typu informacji. Kolor określa estetykę strony czy dokumentu, ich użyteczność oraz dostępność.

Niestety nie wszyscy użytkownicy, nawet słabowidzący a może właśnie szczególnie oni mogą postrzegać kolory w sposób ograniczony lub w ogóle nie mieć takiej możliwości, mimo szczątkowego korzystania ze wzroku. Kolor może być niepoprawnie dostrzegany też przez osoby starsze lub tych użytkowników, którzy posługują się monitorami z monochromatycznymi lub o ograniczonych możliwościach wyświetlania wielokolorowych treści.

Wszystkie wymienione grupy użytkowników nie będą miały dostępu do informacji przekazywanych wyłącznie przy pomocy różnic w kolorach.

Przykłady takich źle skonstruowanych treści to np. oznaczenie wymaganych pul formularza do wypełnienia wyłącznie kolorem czerwonym, rozróżnienie dwóch lub więcej porównywanych wartości na wykresach wyłącznie przy pomocy kolorów.

Jak zatem poprawnie przekazywać takie informacje? Można np. podświetlić niewypełnione, ale wymagane do wypełnienia pola formularza lub użyć innych atrybutów wizualnych takich jak podkreślenie, obramowanie itp.

Nie powinno to przy tym zniechęcać do stosowania koloru jako nośnika informacji, gdy zapewnimy stosowną alternatywę dla osób, które widzą, ale nie mogą poprawnie dostrzegać kolorów.

Kryterium to nie odnosi się bezpośrednio do osób korzystających z technologii wspomagających. O tym traktują inne wytyczne i kryteria sukcesu WCAG.

Podsumowując, nawet, jeżeli zapewnione zostanie stosowne przekazanie informacji zarówno w kolorze jak i technologiom wspomagającym, to kryterium nie jest jeszcze spełnione. Wymaga ono widocznej alternatywy dla kolorów, żeby informacje mogli odczytać wszyscy ci, którzy mają trudności z postrzeganiem kolorów i niekoniecznie korzystają z technologii wspomagających.

Korzyści wynikające ze spełnienia tego kryterium

Korzyści te dość wyraźnie wynikają z opisanego już celu, podsumujmy je tu jednak krótko i wymieńmy.

  • Użytkownicy Słabowidzący często doświadczają ograniczonego widzenia kolorów, a zatem dodatkowe oznaczenie wizualne pomoże im uzyskiwać te same informacje, które przekazuje się w kolorze.
  • Niektórzy starsi użytkownicy mogą nie widzieć dobrze kolorów, więc alternatywa w postaci innego wskazania wizualnego ułatwi im przyswojenie informacji.
  • Użytkownicy, którzy mają daltonizm, odnoszą korzyści, gdy informacje przekazywane za pomocą koloru są dostępne w inny wizualny sposób.
  • Osoby korzystające z monochromatycznych wyświetlaczy o ograniczonej liczbie kolorów mogą nie mieć dostępu do informacji zależnych od koloru, więc alternatywne wizualne atrybuty ten dostęp umożliwią.
  • Użytkownicy, którzy mają problemy z rozróżnianiem kolorów, mogą szukać lub słuchać wskazówek tekstowych.

Kryterium sukcesu 1.4.2 Kontrola odtwarzania dźwięku

(Poziom A)

Jeśli jakieś nagranie audio włącza się automatycznie na danej stronie i jest odtwarzane przez okres dłuższy niż 3 sekundy, istnieje mechanizm umożliwiający przerwanie lub wyłączenie nagrania albo mechanizm kontrolujący poziom głośności niezależnie od poziomu głośności całego systemu.

Co jest celem spełnienia tego kryterium?

Gdy to kryterium jest spełnione, to osoby korzystające z czytnika ekranu wraz z programową syntezą mowy, będą mogły bez przeszkód zapoznać się z zawartością otwieranej strony. Jeżeli to kryterium nie zostanie spełnione, wtedy każdy dźwięk, którego odtwarzanie rozpocznie się automatycznie po załadowaniu strony i nie zostanie wstrzymany po trzech sekundach lub nie ma możliwości zatrzymania go na żądanie użytkownika uniemożliwi zapoznanie się z zawartością tej strony takiemu użytkownikowi.

To kryterium sukcesu jest tak ważne, że wymaga spełnienia go przed wszystkimi innymi, jeżeli na stronie będzie odtwarzana zawartość audio.

Jakie są korzyści ze spełnienia tego kryterium?

Są one dość oczywiste. Umożliwią każdej osobie, która korzysta z czytnika ekranu wraz z programowym syntezatorem mowy zapoznanie się z zawartością otwartej strony bez zakłóceń. Zapewnienie mechanizmu pozwalającego wstrzymać odtwarzanie automatycznie lub uruchomić je na żądanie użytkownika pozwoli spełnić to kryterium i jednocześnie odtworzyć dźwięk wtedy, gdy użytkownik będzie gotowy do jego odsłuchania lub zignorować go, jeżeli nie będzie chciał go odtworzyć, a tylko zapoznać się ze stroną.

Korzyść odnoszą nie tylko użytkownicy czytników ekranu, ale również wszyscy ci, którzy mają trudności ze skupieniem uwagi na zapoznawaniu się z treścią, gdy odtwarzany jest dźwięk.

Kryterium sukcesu 1.4.3 Kontrast (minimum)

(Poziom AA)

Wizualna prezentacja tekstu lub obrazu tekstu posiada współczynnik kontrastu wynoszący przynajmniej 4.5:1, poza następującymi wyjątkami:

• Duży tekst:
Duży tekst oraz grafiki takiego tekstu posiadają kontrast przynajmniej 3:1;
• Incydentalne:
Tekst lub obrazy tekstu, które są częścią nieaktywnego komponentu interfejsu użytkownika , które są czystą dekoracją , które nie są widoczne lub które są częścią obrazu zawierającego inne istotne treści wizualne, nie wymagają minimalnego kontrastu;
• Logotyp:
Tekst, który jest częścią logo lub nazwy własnej produktu (marki), nie wymaga minimalnego kontrastu.

Co jest celem tego kryterium sukcesu

Celem tego kryterium sukcesu jest zapewnienie wystarczającego kontrastu między tekstem a jego tłem, aby mogły go czytać osoby z umiarkowanie słabym wzrokiem, które nie korzystają z technologii wspomagających zwiększających kontrast.

W przypadku osób, które nie mają problemów z rozróżnianiem kolorów i odcieni zmiana kontrastu nie ma żadnego wpływu lub jest on minimalny na czytelność tekstu dla takich osób.

Tekst większy jest łatwiej rozróżnialny niż tekst mniejszy, a zatem zalecany współczynnik kontrastu jest dla niego odpowiednio niższy. Dla standardowego tekstu zaleca się stosować współczynnik kontrastu wynoszący 4,5:1, natomiast dla tekstów i obrazów większych o większym obrysie i kroju czcionki 3:1. Wartości te są wartościami progowymi, a zatem nie można ich zaokrąglić w dół.
O dokładnych zaleceniach przeczytacie więcej we WCAG 2.1 w sekcji zrozumieć kryterium sukcesu 1.4.3.

 

Kryterium sukcesu 1.4.4 Zmiana rozmiaru tekstu

(Poziom AA)

Oprócz napisów rozszerzonych oraz obrazów tekstu, rozmiar tekstu może zostać powiększony do 200% bez użycia technologii wspomagających oraz bez utraty treści lub funkcjonalności.

Co jest celem tego kryterium?

Celem tego kryterium sukcesu jest zapewnienie, że wizualnie renderowany tekst, w tym kontrolki tekstowe interfejsu użytkownika (znaki tekstowe, które zostały wyświetlone tak, aby były widoczne [w porównaniu ze znakami tekstowymi, które nadal są w postaci danych, takich jak ASCII]) mogą być pomyślnie przeskalowane, dzięki czemu może być on odczytywany bezpośrednio przez osoby mające niewielkie problemy ze wzrokiem, bez konieczności korzystania z technologii wspomagających, takich jak lupa ekranowa. Użytkownicy mogą odnieść korzyści ze skalowania całej zawartości strony internetowej, ale tekst ma największe znaczenie.

Jak to dokładnie rozumieć?

Chodzi o to, aby wyświetlany dokument, strona czy aplikacja, z uwzględnieniem kontrolek interfejsu użytkownika oraz wyświetlanych danych mogła być powiększona do dwukrotności swojej wyjściowej długości i szerokości bez utraty funkcjonalności i czytelności. Jeżeli wystąpi dalsza konieczność powiększania, zaleca się użycie technologii wspomagającej np. wspomnianej lupy ekranowej.

Aby spełnić to kryterium, twórca treści powinien wykonać ją tak, aby powiększenie zawartości bez utraty spójności było możliwe do wykonania zarówno przez agenta użytkownika np. przeglądarkę internetową jak i powinien zapewnić mechanizm powiększania zawartości do 200% standardowego rozmiaru dla tych użytkowników, którzy z różnych przyczyn takiego powiększenia nie mogą przeprowadzić po swojej stronie np. korzystają ze starszych aplikacji.

Nie zaleca się stosowania w treści obrazów tekstu, ponieważ taki obraz w powiększeniu może ulegać pikselizacji, a zatem należy wstawiać obraz tekstu tylko wtedy, gdy nie ma innej możliwości.

Kryterium sukcesu 1.4.5 Obrazy tekstu

(Poziom AA)

Jeśli wykorzystywane technologie mogą przedstawiać treść wizualnie, do przekazywania informacji wykorzystuje się tekst, a nie obraz tekstu, z wyjątkiem następujących sytuacji:

• Możliwy do dostosowania:
Obraz tekstu może być dostosowany wizualnie do wymagań użytkownika;
• Istotny:
Prezentacja tekstu w postaci graficznej jest istotna dla zrozumienia przekazywanej informacji.

Co jest celem tego kryterium sukcesu?

Celem tego kryterium sukcesu jest zachęcenie autorów treści, aby zawsze, gdy tylko to możliwe stosowali tekst, a nie obraz tekstu. Nawet, jeżeli tekst trzeba specjalnie dostosować, należy stosować wizualną prezentację tekstu przy użyciu stosownego formatowania zamiast obrazów tekstu. Istnieją oczywiście przypadki, gdy nie jest to możliwe np. logotyp z tekstem traktowanym jako całość stanowi obraz i jest grafiką. Nie można wyodrębnić tekstu z logotypu, a zatem powinien pozostać obrazem z tekstem.

Komu jest to potrzebne i kto skorzysta?

Skorzystają z pewnością osoby, które mają trudności z odczytywaniem konkretnych rodzin czcionek, lub z innym atrybutem tekstu. Łatwiej jest dostosować zawartość tekstową do wymagań osoby czytającej niż robić to z obrazem. Zamiast obrazu do np. formatowania nagłówków na stronie warto zastosować arkusze stylów css, zamiast stosowania konkretnego obrazu, bitmapy. Jest wiele sposobów na przedstawienie tekstu jako obrazu wizualnie bez konieczności rzeczywistego przekształcania fragmentu tekstu w obraz.

Dla tych, którym będzie to potrzebne proponuję sekcję WCAG poświęconą tematowi, jak spełnić kryterium sukcesu 1.4.5 oraz jak zrozumieć kryterium sukcesu 1.4.5.

Kryterium sukcesu 1.4.6 Kontrast (wzmocniony)

(Poziom AAA)

Wizualna prezentacja tekstu lub obrazu tekstu posiada współczynnik kontrastu wynoszący przynajmniej 7:1, poza następującymi wyjątkami:

• Duży tekst:
Duży tekst oraz grafiki takiego tekstu posiadają kontrast przynajmniej 4,5:1;
• Incydentalne:
Tekst lub obrazy tekstu, które są częścią nieaktywnego komponentu interfejsu użytkownika , które są czystą dekoracją , które nie są widoczne lub które są częścią obrazu zawierającego inne istotne treści wizualne, nie wymagają wzmocnionego kontrastu;
• Logotyp:
Tekst, który jest częścią logo lub nazwy własnej produktu (marki), nie wymaga wzmocnionego kontrastu.

Co jest celem tego kryterium?

Oczywiście cel jest dokładnie taki sam, jak w przypadku kryterium 1.4.3, czyli kontrast minimum. Tutaj mamy do czynienia jednak z wyższymi wymaganiami, co odzwierciedla poziom zgodności AAA kryterium 1.4.6.

Z pewnością trudniej jest spełnić kryterium na tym poziomie zgodności, ale jest to możliwe. Odsyłamy do stosownych wskazówek zarówno we CAG 2.1 jak i w zasobach dodatkowych, które są w tym dokumencie proponowane w celu pogłębienia wiedzy i możliwości.

Podsumowanie

To oczywiście nie wszystkie kryteria sukcesu związane z tą wytyczną. Wszystkie pozostałe od 1.4.7 aż do 1.4.13 postaramy się przybliży ć w kolejnym tekście z tego cyklu.

 

Jieshuo Screenreader – ostatnie nowości

właściwie co miesiąc wprowadza do niego mniejsze lub większe nowości. Tak stało się również ostatnim razem. I tak, pojawiło się:

 

  • wsparcie dla gestów zastępujących przyciski nawigacyjne umieszczone u dołu ekranu
  • indywidualne ustawienia prędkości wysokości i głośności mowy dla każdego syntezatora, jaki mamy zainstalowany w naszym systemie (tylko premium)
  • tryb Kieszonkowy – wykrywanie nie chcianych gestów, jeżeli telefon mamy schowane w kieszeni.
  • optymalizacja używania asystenta głosowego. Odtąd informacje z pomocy nie powinny przeszkadzać podczas nasłuchiwania
  • znacznie szybsze tłumaczenie z języka angielskiego i innych, bez pośrednictwa Chińskich narzędzi, a za pośrednictwem Google’a.
  • zmiana częstotliwości suwaków nawigacyjnych w aplikacjach i systemie, teraz o 1%, a nie 5%.

 

Więcej informacji, choćby w czeskim serwisie Pelion

 

Natan – nowy polski głos w rodzinie syntezatorów RHVoice

To bardzo miła i dobra wiadomość, że ludziom chce się tworzyć, nagrywać i edytować próbki swojej mowy, tak by potem powstawać z niej mogły głosy syntetyczne. Takim nowym głosem jest Natan.

Do tego pierwszy głos – Magda, oraz silnik głosu, przez cały czas są aktualizowane.

I jeszcze jedna nowość. Polskie głosy RHVoice są teraz dostępne również na Androida.

 

Wszystkie szczegóły można znaleźć w serwisie Grzegorza Złotowicza na specjalnej  stronie informacyjnej polskich syntezatorów RHVoice