Miejsce: Birmingham, Wielka Brytania (Eastside Rooms Conference Centre, Woodcock Street, B7 4BL)
Organizator/Charakter: Queen Alexandra College (QAC); objazdowa, bezpłatna wystawa technologii i usług wspierających osoby niewidome i słabowidzące, hybrydowa forma dostępu osobistego i częściowo online
Sight Village Central2025 to największa w Wielkiej Brytanii objazdowa wystawa dedykowana technologiom i usługom dla osób z dysfunkcją wzroku. W tym roku wydarzenie odbywa się stacjonarnie w Birmingham, a udział jest bezpłatny, co ułatwia dostępność dla szerokiej grupy odbiorców.
Temat przewodni i zakres
Wystawa skupia się na prezentacji najnowszych rozwiązań dla osób z dysfunkcją wzroku — od sprzętu brajlowskiego, przez lupy elektroniczne, oprogramowanie do odczytu ekranu, aż po wsparcie ze strony szkół i organizacji pomocowych.
Co w programie? (przykładowe wątki)
Praktyczny pokaz sprzętu brajlowskiego i elektronicznego lupy
Demonstracja oprogramowania odczytu ekranu i innych technologii wspomagających
Prezentacje szkół i organizacji wsparcia dla osób z dysfunkcją wzroku
Możliwość bezpośredniego kontaktu z producentami i dystrybutorami urządzeń na miejscu.
Dla kogo i po co?
Sight Village Central2025 jest skierowana do osób niewidomych i słabowidzących, ich rodzin oraz specjalistów (np. nauczycieli, terapeutów, doradców). Umożliwia przetestowanie urządzeń, zdobycie wiedzy od ekspertów oraz budowanie relacji z dostawcami technologii.
Dostępność wydarzenia
Wydarzenie odbywa się w komfortowej lokalizacji – Eastside Rooms, centrum przystępne komunikacyjnie. Uczestnicy mogą skorzystać z przestrzeni wystawowej, sal seminariów oraz dostępnych stref gastronomicznych. Zwiedzanie jest bezpłatne—wymagana wcześniejsza rejestracja; bilety dostępne przez Ticket Tailor.
Dlaczego to ważne?
Umożliwia osobom z dysfunkcją wzroku bezpośrednie doświadczenie nowych technologii, co wspiera autonomię i jakość życia.
Łączy środowiska użytkowników, ekspertów i dostawców w jednym miejscu, co sprzyja wymianie wiedzy i rozwijaniu lokalnej sieci wsparcia.
Może inspirować polskie inicjatywy do organizowania podobnych działań w celu promowania dostępności technologicznej.
Podsumowanie
Sight Village Central 2025 stanowi doskonałą platformę do spotkania z nowymi technologiami dla osób z dysfunkcją wzroku oraz do dialogu między użytkownikami, ekspertami i dostawcami. To wydarzenie warto śledzić i promować jako wzór wspierania inkluzji za pomocą technologii wspomagających.
Czas dostępu: 09.07.2025, godz. 10:00 UTC, https://www.qac.ac.uk/exhibitions/sight-village-2025-events/1080.htm, https://www.qac.ac.uk/exhibitions/sight-village-central-2025–the-event-concluded-successfully/1465.htm, https://www.srsb.org.uk/Feeds.aspx?FeedType=DYN&Key=8b75730b-95f2-4ff3-ba08-9be1c3201528
Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.
Cadence Tablet to przenośne, wielowierszowe urządzenie Braille’a, stworzone przez firmę Tactile Engineering powiązaną z Purdue University. Umożliwia odczyt do ośmiu linii tekstu, oferując pełną dotykową interakcję, która zbliża świat niewidomych do ekranów, z których na co dzień korzystają widzący.
Zastosowania w praktyce
Edukacja i praca
Młodzi użytkownicy mogą korzystać z tabletów Cadence do nauki lub gier – np. wirtualnego stołowego tenisa. Z kolei profesjonaliści, jak inżynierowie czy web developerzy, używają go do przeglądania kodu lub rysunków podczas spotkań online .
Wsparcie w transmisji wydarzeń sportowych
Podczas wyścigów Indianapolis 500 tablet będący częścią projektu umożliwi słuchaczom niewidomym śledzenie pozycji i prędkości bolidów na żywo, dzięki systemowi telemetrycznemu i audio-opisom.
Dlaczego to przełom?
Wielowierszowy odczyt – do 8 linii jednocześnie znacząco zwiększa komfort czytania kodu, dokumentów, stron WWW czy diagramów.
Wszechstronność – urządzenie obsługuje zarówno offline’owe aplikacje edukacyjne, jak i transmisje na żywo.
Integracja społecznościowa – projekt angażuje użytkowników (nawet jak Stevie Wonder), wspierając społeczność niewidomych.
Cadence powstał w Lafayette (Indiana), w zakładzie powiązanym z Purdue. Jakość wykonania podkreślają ściany zdjęć osób korzystających z tabletu; to efekt synergii między środowiskiem akademickim a praktyką przemysłową.
Wnioski dla programisty z dysfunkcją wzroku
Nowe możliwości czytania kodu: dzięki wielowierszowemu Braille’owi można analizować większe fragmenty programu jednocześnie – bez ciągłego przewijania.
Ułatwienia na spotkaniach online: urządzenie świetnie nadaje się do pracy z dokumentami, rysunkami i kodem w czasie rzeczywistym.
Szansa na lepszą integrację: obecność na wydarzeniach typu Indy 500 pokazuje, że technologia może wyrównywać bariery nawet w najbardziej wizualnych dziedzinach.
Cadence to tylko początek. Dalszy rozwój technologii Braille’a może oznaczać więcej linii, lepszą integrację z narzędziami developerskimi i szersze wykorzystanie w edukacji oraz na wydarzeniach na całym świecie.
Podsumowanie
Cadence Tablet to wyjątkowe narzędzie, które łączy technologię Braille’a z nowoczesnymi zastosowaniami – edukacją, tworzeniem kodu i transmisją wydarzeń. Dostrzegają to zarówno użytkownicy, jak i organizacje, jak Tactile Engineering i Purdue. W erze, gdy interakcja z ekranami jest kluczowa, Cadence otwiera drzwi niewidomym programistom do pełnego uczestnictwa – od pracy z kodem, przez edukację, aż po emocje sportowych emocji w życiu codziennym.
Czas dostępu: 04.07.2025, godz. 10:00 UTC, https://stories.prf.org/tactile-engineering-accessible-tablet/
Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.
Miejsce: Munster Technological University, kampus w Tralee, hrabstwo Kerry, Irlandia
Patronat: UNESCO
Organizator: IFAPA wraz z MTU
Międzynarodowy sympozjum ISAPA odbywa się co dwa lata i łączy specjalistów oraz praktyków w obszarze adaptowanej aktywności fizycznej. Już 25. edycja – zaplanowana na czerwiec 2025 – przyciągnęła uczestników z całego świata, oferując wyjątkową przestrzeń wymiany wiedzy, odkryć badawczych i nowości w sprzęcie oraz politykach zdrowotnych.
Tematy i program
Konferencja skupiała się na inkluzji w ruchu: tematami przewodnimi były edukacja w sportach adaptacyjnych, rozwój fizyczny osób z różnymi dysfunkcjami, a także zdrowie psychiczne wspierane przez aktywność. W programie znalazły się m.in.:
Sesje warsztatowe dla nauczycieli, trenerów i rehabilitantów
Prezentacje naukowe i innowacyjne technologie (np. czujniki treningowe dla para-sportowców)
Główny warsztat Mental Health Summit, integrujący zdrowie psychiczne, aktywność fizyczną i technologię
Wystawa i zasięg
To właśnie tu miała miejsce największa w tej historii konferencji międzynarodowa wystawa sprzętu rehabilitacyjnego, pod patronatem UNESCO. W Tralee zebrało się około 600 uczestników, wśród nich naukowcy, aktywiści, pracownicy organizacji międzynarodowych, decydenci i expatriaci.
Znaczenie dla społeczności
Infrastruktura wiedzy i technologii: uczestnicy mieli okazję poznać praktyczne rozwiązania podnoszące jakość życia osób z niepełnosprawnościami.
Integracja globalna: obecność delegatów z różnych kontynentów stworzyła przestrzeń do wymiany doświadczeń i budowania współpracy.
Inspiracja dla nowych inicjatyw: model konferencji – łączący badania, remediację i infrastrukturę – może stanowić wzór dla lokalnych wydarzeń w Europie Centralnej.
Podsumowanie
ISAPA 2025 w Irlandii zasługuje na miano wydarzenia przełomowego — przez pięć dni łączyło naukę, sport, technologie i wsparcie inkluzywności. Dla czytelników NiewidomyProgramista.pl to ważne źródło inspiracji: pokazuje, jak sport i technologia mogą być nośnikami zmiany społecznej i fizycznej, i jak ważna jest międzynarodowa solidarność w działaniach na rzecz dostępności.
Czas dostępu: 20.06.2025, godz. 10:00 UTC, https://www.unesco.org/en
Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.
Jeszcze dziesięć lat temu świat technologii brajlowskich wyglądał zupełnie inaczej niż dziś. W 2015 roku standardowe urządzenia brajlowskie – takie jak monitory brajlowskie – były często duże, drogie i dostępne głównie za pośrednictwem specjalistycznych programów dla osób niewidomych. Przez ostatnią dekadę dokonaliśmy ogromnego skoku naprzód: pojawiły się nowatorskie urządzenia, brajl stał się bardziej mobilny i przystępny, a innowacje techniczne otworzyły przed osobami z dysfunkcją wzroku nowe możliwości w edukacji, pracy i rozrywce. Przyjrzyjmy się, jak ewoluowała ta dziedzina od 2015 do 2025 roku.
Monitory brajlowskie – tańsze, lżejsze, a nawet wielowierszowe
W 2015 r. typowy monitor brajlowski (czyli urządzenie z linią wypukłych punktów odświeżanych elektro-mechanicznie) był niezwykle kosztowny i zazwyczaj wyświetlał tylko jeden wiersz tekstu naraz. Przez ostatnie lata nastąpiła prawdziwa rewolucja cenowa i konstrukcyjna tych urządzeń. Dzięki międzynarodowym projektom skupionym na obniżeniu kosztów, na rynku pojawiły się tańsze brajlowskie wyświetlacze. Przykładem jest tutaj urządzenie o nazwie Orbit Reader 20, opracowane we współpracy organizacji z USA, Wielkiej Brytanii i Indii. Ten niewielki, przenośny monitor brajlowski oferuje 20 znaków brajla w jednej linii i kosztuje ułamek ceny tradycyjnych modeli sprzed dekady. Dzięki takim rozwiązaniom znacznie więcej osób niewidomych na całym świecie mogło sobie pozwolić na własny brajlowski “ekran”, co wcześniej było nieosiągalne bez dofinansowań. Równocześnie rozwijano wyświetlacze brajlowskie oferujące więcej niż jedną linię tekstu. Do niedawna brzmiało to jak science fiction, ale pod koniec drugiej dekady XXI wieku skonstruowano pierwsze wielowierszowe monitory brajlowskie. Na przykład brytyjski czytnik brajlowski Canute 360 potrafi wyświetlać jednocześnie 9 linijek tekstu (łącznie 360 znaków). Taka „brajlowska karta książki” rewolucjonizuje czytanie materiałów, w których format ma znaczenie – na przykład muzyki zapisanej brajlem, tabel, matematyki czy nawet zwykłej prozy, którą teraz można objąć „wzrokiem palców” w szerszym kontekście. Wielowierszowe ekrany brajlowskie to ogromny krok naprzód, porównywalny z przejściem od małego ekranu telefonu do dużego monitora komputerowego. Co więcej, trwają prace nad wyświetlaczami potrafiącymi pokazać całe strony brajlowskie czy proste grafiki dotykowe. Prototypy takich urządzeń – będących w istocie brajlowskimi tabletami graficznymi – pojawiły się w ostatnich latach w USA i Azji. Choć pełnowymiarowe, dynamiczne ekrany brajlowskie (zawierające tysiące punktów) są wciąż bardzo drogie i znajdują się na etapie testów, sam fakt ich istnienia pokazuje, jak daleko posunęła się technologia od 2015 roku. Możliwe, że w niedalekiej przyszłości osoba niewidoma będzie mogła czytać wykresy, schematy czy mapy na ekranie brajlowskim tak łatwo, jak dziś czyta zwykły tekst.
Brajl w dłoni: nowe gadżety i innowacyjne wyświetlacze
Ostatnia dekada przyniosła wysyp pomysłowych urządzeń brajlowskich, które jeszcze kilka lat temu trudno było sobie wyobrazić. Weźmy na przykład urządzenia noszone: w 2017 roku zaprezentowano pierwszy brajlowski smartwatch o nazwie Dot Watch. Ten niewielki zegarek stworzony w Korei Południowej posiada cztery znaki brajlowskie na tarczy, które zmieniają się dynamicznie, pozwalając odczytywać czas, powiadomienia z telefonu czy wiadomości SMS – prosto z nadgarstka, za pomocą dotyku. To połączenie mody i funkcjonalności pokazuje, że technologia brajlowska wkroczyła nawet do segmentu elektroniki noszonej, czyniąc brajl częścią codziennych gadżetów. Innym typem innowacyjnych rozwiązań są brajlowskie e-czytniki i tablety. Klasyczne monitory brajlowskie służą często jako peryferia do komputera czy smartfona, ale teraz pojawiają się urządzenia dedykowane głównie czytaniu książek lub pracy z tekstem w trybie off-line. Wspomniany wyżej Canute 360 to przykład brajlowskiego czytnika e-booków – pozwala wgrać cyfrową książkę i czytać ją bezpośrednio w brajlu, bez potrzeby podłączania do innego sprzętu. W USA biblioteki eksperymentują z udostępnianiem niewidomym czytelnikom specjalnych brajlowskich e-czytników, aby mogli pobierać książki elektroniczne i odczytywać je dotykiem zamiast w formie audio. Dzięki temu literatura brajlowska może być rozpowszechniana tak samo wygodnie jak audiobooki czy e-booki dla widzących. Niektóre nowe urządzenia łączą tradycyjne komputery z brajlem w pomysłowy sposób. Przykładem może być francuski tablet InsideOne, który zadebiutował w drugiej połowie dekady. Jest to pełnoprawny tablet z systemem Windows, wyposażony w dotykowy ekran oraz wbudowany w powierzchnię tego ekranu wyświetlacz brajlowski. Osoba niewidoma może więc zarówno dotykać brajl na szklanej powierzchni, jak i korzystać z gestów dotykowych czy klawiatury ekranowej – wszystko w jednym urządzeniu. To hybrydowe podejście pokazuje, że brajl można integrować z nowoczesnymi technologiami dotykowymi, tak aby użytkownicy mogli korzystać z wielu metod interakcji naraz.
Notatniki brajlowskie i hybrydowe systemy dla wymagających
W świecie technologii brajlowskich istnieje też klasa urządzeń nazywanych notatnikami brajlowskimi. To coś w rodzaju „brajlowskich laptopów” – przenośne urządzenia z klawiaturą brajlowską i wbudowanym monitorem brajlowskim, działające niezależnie (bez potrzeby łączenia z PC czy telefonem). W ostatnich latach notatniki te przeszły dużą metamorfozę. Starsze modele działały w oparciu o własne, zamknięte oprogramowanie, natomiast około 2016–2017 roku pojawiły się notatniki nowej generacji, wykorzystujące systemy operacyjne takie jak Android. Na przykład BrailleNote Touch (kanadyjskiej firmy HumanWare) był jednym z pierwszych notatników brajlowskich z dotykowym ekranem i Androidem na pokładzie. Dzięki temu użytkownik zyskuje dostęp do aplikacji i Internetu
tak jak na tablecie, ale obsługuje je za pomocą brajlowskiej klawiatury i może odczytywać wyniki na brajlowskim wyświetlaczu. Podobną drogą poszła firma HIMS z Korei, wypuszczając notatnik BrailleSense Polaris. Takie hybrydowe rozwiązania łączą zalety świata brajla (ciche, dyskretne czytanie i pisanie dotykiem) z możliwościami nowoczesnych platform programowych. Co ciekawe, coraz częściej pojawiają się też hybrydowe interfejsy łączące brajl z innymi metodami wprowadzania tekstu. Dobrym przykładem jest klawiatura Mantis Q40, stworzona we współpracy amerykańskich organizacji dla niewidomych. Urządzenie to wygląda jak zwykła klawiatura QWERTY do komputera, ale poniżej standardowych klawiszy ma wbudowany 40-znakowy wyświetlacz brajlowski. Dzięki temu ktoś, kto biegle pisze na tradycyjnej klawiaturze, może od razu odczytywać wprowadzany tekst w brajlu, łącząc oba światy. Inny przykład hybrydy to wspomniany wcześniej InsideOne, łączący dotyk wzrokowy z dotykiem brajlowskim. Widzimy więc, że producenci starają się tworzyć urządzenia elastyczne, dopasowane do zróżnicowanych potrzeb użytkowników – bo każda osoba niewidoma ma nieco inny styl pracy i preferencje co do sposobu pisania oraz czytania.
Drukarki brajlowskie i nowe metody druku dotykowego
Choć cyfrowy brajl zdobywa coraz większą popularność, tradycyjne drukarki brajlowskie (embossery) nadal odgrywają ważną rolę – zwłaszcza w edukacji i w krajach, gdzie dostęp do elektroniki jest utrudniony. W ostatniej dekadzie drukarki te stały się szybsze, cichsze i bardziej wszechstronne. Nowoczesne embossery potrafią drukować dwustronnie (brajl po obu stronach kartki), a niektóre modele jednocześnie nadrukowują czarnodruk (czyli zwykły atramentowy tekst) pod wypukłym brajlem. Takie wydruki mieszane są niezwykle przydatne w szkołach integracyjnych – ten sam dokument może czytać zarówno uczeń niewidomy (palcami po wypukłych punktach), jak i nauczyciel widzący (wzrokiem, czytając zwykły druk). Coraz większy nacisk kładzie się też na drukowanie grafiki dotykowej. W edukacji osób niewidomych ważne są nie tylko litery, ale i możliwość poznawania kształtów, map czy wykresów poprzez dotyk. Dlatego pojawiły się drukarki pozwalające odwzorować proste rysunki w formie punktów brajlowskich lub wypukłych linii na papierze. Na przykład urządzenia typu Tiger (opracowane w USA) drukują obraz punktowo niczym matryca brajlowska, tworząc dotykowe grafiki. Inną metodą są specjalne papiery pęczniejące pod wpływem ciepła – wydrukowany na nich czarny obrazek po przegrzaniu „wybrzusza się”, dając wypukły rysunek, który można zbadać palcami. Choć nie jest to stricte brajl, te techniki uzupełniają alfabet Braille’a, zapewniając bogatszy odbiór informacji dotykowej. Warto wspomnieć o ciekawych eksperymentach z obniżaniem kosztu druku brajlowskiego. Głośno było o nastolatku z Kalifornii, który około 2014 roku zbudował prototyp taniej drukarki brajlowskiej z klocków Lego. W kolejnych latach pojawiały się też pomysły wykorzystania drukarek 3D do tworzenia wypukłych napisów i materiałów edukacyjnych. Dzięki takim inicjatywom rośnie świadomość, że brajl nie musi być drogi w produkcji – a to mobilizuje duże firmy do wprowadzania tańszych rozwiązań.
Aplikacje mobilne: brajl w świecie smartfonów
Smartfony stały się nieodłączną częścią naszego życia, także dla osób z dysfunkcją wzroku – a ostatnie lata przyniosły duży postęp w integrowaniu brajla z urządzeniami mobilnymi. Już w poprzedniej dekadzie istniały aplikacje umożliwiające pisanie brajlem na ekranie dotykowym (np. specjalna klawiatura ekranowa w iPhone), ale dopiero niedawno rozwiązania te stały się naprawdę wygodne i wbudowane fabrycznie w systemy. Dziś zarówno iOS (Apple), jak i Android (Google) oferują wbudowane klawiatury brajlowskie na ekranie telefonu. Użytkownik może położyć palce na ekranie smartfona i pisać znaki brajlowskie tak, jak na tradycyjnej maszynie brajlowskiej – telefon rozpoznaje te wzorce dotyku i od razu zamienia na tekst. To oznacza, że osoba niewidoma może napisać SMS-a czy e-maila w pełni dotykowo, bez potrzeby mówienia do telefonu czy podłączania zewnętrznej klawiatury.Ponadto, wszystkie nowoczesne telefony i tablety pozwalają na podłączenie monitorów brajlowskich przez Bluetooth. Standardem stało się, że niewidomy użytkownik może sparować swój przenośny wyświetlacz brajlowski z telefonem i czytać na bieżąco to, co pojawia się na ekranie – czy to treść artykułu, czat, czy post na mediach społecznościowych. W latach 2015–2025 poprawiła się kompatybilność i prostota takiego połączenia. Kiedyś wymagało to instalowania osobnych aplikacji (np. BrailleBack na Androidzie), dziś po prostu włączamy opcję brajl w ustawieniach dostępności i gotowe. To sprawia, że brajl stał się mobilny jak nigdy dotąd – możemy go zabrać w teren, mieć w plecaku mały display i smartfon, i tym sposobem mieć „brajlowski dostęp” do całego cyfrowego świata.Powstało też wiele aplikacji edukacyjnych i użytkowych związanych z brajlem. Dla osób zaczynających naukę brajla dostępne są gry i aplikacje uczące alfabetu poprzez zabawę, co wcześniej wymagało fizycznych pomocy dydaktycznych. Inne aplikacje potrafią rozpoznać pismo brajlowskie za pomocą aparatu – wystarczy zrobić zdjęcie wypukłego napisu (np. na opakowaniu leku czy na tabliczce informacyjnej), a program odczyta i wyświetli go w zwykłym druku lub przeczyta głosem. Takie narzędzia to ogromna pomoc w samodzielnym funkcjonowaniu, bo rozwiązują odwieczny problem „kto mi przeczyta ten brajl, jeśli sam go nie znam”. Wreszcie, smartfony w połączeniu z brajlowskimi gadżetami umożliwiły osobom głuchoniewidomym komunikację na odległość – na przykład dwie osoby głuchoniewidome mogą czatować ze sobą, każda pisząc brajlem na swoim urządzeniu, a wiadomości docierają przez internet. To sytuacje, które dekadę temu były trudne do zrealizowania na szeroką skalę.
Dostępność, edukacja i rozrywka – społeczne skutki postępu
Innowacje technologiczne mają prawdziwą wartość dopiero wtedy, gdy przekładają się na jakość życia ludzi. W przypadku technologii brajlowskich zmiany z ostatnich lat otworzyły drzwi do większej niezależności i aktywności osób niewidomych w wielu dziedzinach. Edukacja: Dzięki tańszym i bardziej dostępnym urządzeniom brajlowskim, więcej dzieci niewidomych ma szansę uczyć się brajla od najmłodszych lat. To kluczowe, bo biegła znajomość brajla przekłada się na umiejętność poprawnego pisania i czytania – tak jak u osób widzących nauka pisma wzrokowego. W krajach rozwiniętych standardem staje się zapewnienie uczniowi niewidomemu osobistego monitora brajlowskiego w szkole, dzięki czemu może on na lekcjach czytać materiały razem z rówieśnikami (np. na brajlowskim tablecie ma otwarty podręcznik w wersji elektronicznej). W krajach rozwijających się inicjatywy charytatywne dostarczają proste, tanie wyświetlacze brajlowskie do ośrodków szkolno-wychowawczych – często są to właśnie urządzenia pokroju Orbit Reader, które nie rujnują budżetu, a działają nawet w terenie bez stałego zasilania (na baterie). Ponadto, nowoczesne pomoce, jak interaktywne aplikacje czy gadające urządzenia do nauki brajla, sprawiają że nauka alfabetu Braille’a staje się atrakcyjniejsza i mniej frustrująca. Praca: W świecie zawodowym technologie brajlowskie również zrobiły różnicę. Osoby niewidome wykonujące prace biurowe lub informatyczne od lat korzystają z brajla do czytania dokumentów czy programowania – brajl pozwala na precyzyjne odczytywanie pisowni, znaków interpunkcyjnych czy kodu źródłowego, co bywa trudne przy samym syntezatorze mowy. W dekadzie 2015–2025 upowszechniło się użycie brajlowskich monitorów w połączeniu ze zwykłymi laptopami i smartfonami, co daje pracownikowi z dysfunkcją wzroku pełną swobodę wyboru narzędzia. Można na przykład podłączyć swój wyświetlacz brajlowski do służbowego komputera lub przełączać go między PC a telefonem, wykonując różne zadania. Zmalała też bariera logistyczna – dawniej osoba potrzebująca brajla musiała nosić ze sobą ciężką brajlowską maszynę do pisania lub stos wydruków. Teraz wystarczy lekki notatnik brajlowski lub nawet sam smartfon z brajlowską klawiaturą ekranową, żeby efektywnie pracować czy robić notatki na spotkaniach. W efekcie osoby niewidome mogą łatwiej niż kiedyś brać udział w edukacji wyższej i konkurować na rynku pracy, bo dysponują podobnie mobilnymi i nowoczesnymi narzędziami jak ich widzący koledzy. Życie codzienne i rozrywka: Nowe technologie brajlowskie wpłynęły także na to, jak spędza się czas wolny i załatwia codzienne sprawy. Czytanie książek dla przyjemności stało się prostsze – nie trzeba czekać miesiącami, aż ukaże się drukowana wersja brajlowska powieści. Teraz niewidomy czytelnik może ściągnąć e-booka i od razu czytać go na brajlowskim wyświetlaczu, nawet jeśli dana książka nigdy nie wyszła w brajlu na papierze. Miłośnicy gier wymyślili sposoby na wykorzystanie brajla w rozrywce – powstały chociażby gry tekstowe i łamigłówki logiczne, w które można grać używając monitora brajlowskiego (na przykład adaptacje popularnych gier słownych, gdzie brajl jest idealnym medium do ukrywania hasła przed graczem). Pojawiają się też rozwiązania w drugą stronę: osoby widzące tworzące treści starają się uwzględnić brajl – np. Lego wypuściło klocki z nadrukowanymi punktami brajlowskimi, aby zachęcić dzieci niewidome do zabawy i nauki jednocześnie. W życiu codziennym zaś ogromną różnicę robi na przykład mobilny dostęp do brajlowskich etykiet: za pomocą smartfona można sprawdzić, co napisane jest brajlem na opakowaniu, lub samemu wydrukować sobie brajlowską nalepkę na pojemniki w kuchni dzięki niedrogim urządzeniom etykietującym. Wszystko to sprawia, że brajl coraz mniej kojarzy się z opasłymi tomami książek na półce, a coraz bardziej z czymś dynamicznym, interaktywnym, obecnym tu i teraz w otaczającym nas cyfrowym świecie.
Globalny wymiar innowacji brajlowskich
Warto podkreślić, że rozwój technologii brajlowskich ma charakter globalny – rozwiązania powstają równolegle w różnych zakątkach świata, często odpowiadając na lokalne potrzeby, a jednocześnie inspirując innych:
(1) Ameryka Północna: Tutaj duże organizacje i firmy odegrały kluczową rolę. Amerykańska drukarnia brajlowska APH (American Printing House for the Blind) oraz firmy takie jak HumanWare czy Orbit Research wprowadziły wiele nowych urządzeń na rynek. W USA postęp szedł też w parze z programami rządowymi – na przykład biblioteka Kongresu (Library of Congress) rozpoczęła pilotaż, w którym wypożycza czytniki brajlowskie użytkownikom, tak jak niegdyś wysyłano książki brajlowskie pocztą. To pokazuje zmianę podejścia: zamiast drukować dziesiątki woluminów, można dostarczyć elektroniczne urządzenie i pliki, co jest i tańsze, i szybsze.
(2) Europa: W Europie innowacje często rodzą się w mniejszych firmach lub projektach badawczych. Przykładowo w Wielkiej Brytanii grupa pasjonatów w ramach społecznego projektu stworzyła Canute 360 – urządzenie wywodzące się bardziej z idei dzielenia się technologią niż z komercyjnego nastawienia. W Niemczech i Francji od lat działały firmy produkujące brajlowskie monitory (takie jak Baum czy Eurobraille), które w minionej dekadzie musiały dostosować się do nowych trendów – część z nich łączyła siły z międzynarodowymi partnerami, by tworzyć np. wspomniane hybrydy z Androidem. W Europie Wschodniej również nie brak przykładów: Polska, choć nie ma własnej produkcji monitorów brajlowskich, aktywnie korzysta z nowości – polskie szkoły i organizacje testowały zarówno tanie wyświetlacze, jak i brajlowskie notatniki, a lokalne firmy adaptowały oprogramowanie na język polski, by te urządzenia były użyteczne dla niewidomych w naszym kraju.
(3) Azja: W Azji można zaobserwować dwa ciekawe kierunki. Z jednej strony wysoko zaawansowane technologicznie kraje jak Japonia czy Korea rozwijają brajl w high-techowym segmencie – przykładem jest tu koreański Dot Watch czy japońskie prace nad pełnoobrazkowymi ekranami dotykowymi. Z drugiej strony, państwa takie jak Indie stawiają na masową dostępność i edukację. Indyjskie startupy opracowały urządzenia do nauki brajla dla dzieci (np. interaktywne moduły, które uczą poprzez zabawę), a także tanie brajlowskie wyświetlacze kierowane do niewielkich szkół dla niewidomych w biedniejszych regionach. Dzięki wsparciu organizacji międzynarodowych te rozwiązania trafiają także do Afryki czy Ameryki Południowej, niosąc ze sobą ideę, że brajl nie jest luksusem, ale podstawowym narzędziem do zapewnienia równych szans w dostępie do informacji.
Podsumowanie – dekada przełomu dla alfabetu Braille’a
Lata 2015–2025 to czas prawdziwego przełomu w świecie technologii brajlowskich. Nastąpiło przejście od ery, w której brajlowa elektronika była niszowa i kosztowna, do czasów, gdy wybór urządzeń jest szeroki, a ceny stopniowo spadają. Pojawiły się przenośne monitory brajlowskie dostępne dla większej grupy użytkowników, wielowierszowe ekrany zmieniające sposób czytania, brajl wkroczył na smartfony i nawet na rękę w formie zegarka. Te innowacje nie są tylko pokazem możliwości techniki – realnie przekładają się na zwiększenie dostępności edukacji, nowych perspektyw zawodowych i jakości codziennego życia dla osób niewidomych i głuchoniewidomych.Co przyniosą kolejne lata? Zapewne dalsze obniżanie kosztów – tak by brajlowskie wyświetlacze stały się tak powszechne jak smartfony – oraz dopracowanie technologii graficznych, by wykresy czy mapy dotykowe stały się czymś codziennym. Być może doczekamy się brajlowskich odpowiedników tabletów, gdzie cała strona tekstu lub obraz będzie na wyciągnięcie ręki. Jedno jest pewne: alfabet Braille’a, wynalazek z XIX wieku, dzięki nowoczesnej technologii nie tylko nie odchodzi do lamusa, ale wręcz zyskuje drugie życie. Ostatnia dekada pokazała, że innowacje w tej dziedzinie mogą uczynić świat bardziej dostępnym i przyjaznym – a to dopiero początek dalszej ewolucji.
Czas dostępu: 07.06.2025, godz. 10:00 UTC, https://nfb.org/
Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.
Miejsce: United Nations Conference Centre, Bangkok, Tajlandia + udział online (Zoom)
Organizator: ONZ‑owski UN ESCAP – Komisja Ekonomiczno‑Społeczna dla Azji i Pacyfiku
2 czerwca 2025 roku odbyło się Regionalne Forum ESCAP poświęcone wpływowi cyfrowej transformacji na przyszłość pracy osób z niepełnosprawnościami w regionie Azji i Pacyfiku. Wydarzenie miało formułę hybrydową i zgromadziło przedstawicieli rządów, organizacje osób z niepełnosprawnościami, ekspertów ICT, sektor prywatny i partnerów rozwojowych. Forum stanowiło część inicjatywy promującej inkluzywny rozwój cyfrowy wspieranej przez Rehabilitation International.
Cele forum
Zwiększenie świadomości wyzwań i możliwości cyfrowej inkluzji osób z niepełnosprawnościami w Azji i na Pacyfiku.
Prezentacja dobrych praktyk, innowacyjnych podejść i lekcji płynących z doświadczeń lokalnych ciekawych projektów.
Umożliwienie dialogu między decydentami publicznymi, partnerami rozwoju, ekspertami ICT a organizacjami osób z niepełnosprawnościami i młodzieżą.
Uczestnicy i przebieg dnia
Forum zgromadziło członków rządów z krajów regionu, liderów OPD (organizacje osób z niepełnosprawnościami), firmy ICT i partnerów rozwojowych. Jest to kolejne spotkanie w ramach inicjatywy „Decade of Persons with Disabilities 2023–2032”. W programie znalazły się przegląd polityk inkluzywności cyfrowej, ocena postępów, identyfikacja priorytetów oraz sesje plenarnych debat moderowanych przez ESCAP i RI.
Kluczowe tematy i obszary
Rola technologii asystujących, kompetencji cyfrowych i narzędzi ICT w tworzeniu równego dostępu do rynku pracy.
Przykłady regionalnych projektów i polityk krajowych wspierających włączanie cyfrowe osób z niepełnosprawnościami.
Priorytety działania na lata 2025–2030 w kontekście zatrudnienia, przedsiębiorczości i wzmocnienia ekonomicznego tej grupy społecznej.
Dostępność i format
Forum prowadzone było w języku angielskim z interpretacją języka migowego (International Sign) oraz transmisją z napisami. Uczestnicy online i stacjonarni mieli dostęp do materiałów AFTER‑event (slajdy, protokoły). Sceneria ONZ‑owska zapewniała dostępne zaplecze (toalety, windy, przestrzeń czerwono‑zielona).
Znaczenie wydarzenia
Forum ESCAP to regionalna platforma, która promuje model cyfrowej inkluzji jako integralnej części przyszłości pracy i rozwoju gospodarczego.
Podkreśla, że transformacja cyfrowa powinna wzmacniać, a nie izolować osoby z niepełnosprawnościami — kluczowa rola w polityce publicznej i współpracy sektorów.
Co to oznacza dla czytelników NiewidomyProgramista.pl?
Dla edukatorów i decydentów: inspiracja, jak tworzyć polityki łączące technologie, kompetencje digitalowe i inkluzywność na rynku pracy.
Dla twórców technologii i programistów: przykład, jak podejść do projektowania inkluzywnego, angażując użytkowników końcowych — również w Azji i regionie Pacyfiku.
Dla NGO i aktywistów: model współpracy globalnej i regionalnej, gdzie doświadczenie osób z niepełnosprawnościami i opiniotwórcze organizacje prowadzą dialog z rządami i przedsiębiorstwami.
Podsumowanie
Asia‑Pacific Regional Forum ESCAP (Bangkok, 2025) to strategiczne wydarzenie, które rzuca światło na znaczenie cyfrowej inkluzji w kontekście przyszłości rynku pracy. Stawia osoby z niepełnosprawnościami w centrum transformacji technologicznej i decyzji politycznych. Dla społeczności NiewidomyProgramista.pl to cenna lekcja globalnej współpracy, technologicznej świadomości i inkluzywnego modelu polityk społecznych.
Światowy Dzień Świadomości Dostępności 2025 (Global Accessibility Awareness Day, GAAD) obchodzony 15 maja 2025 roku skłania do refleksji nad tym, jak technologia i działania społeczne mogą uczynić świat bardziej dostępnym dla osób z niepełnosprawnościami – szczególnie niewidomych i słabowidzących. W dobie powszechnej cyfryzacji dostęp do informacji i usług powinien być prawem każdego, a nie przywilejem. Rok 2025 przyniósł szereg przełomowych rozwiązań technologicznych oraz ważnych wydarzeń edukacyjnych i prawnych, które znacząco wpłynęły na życie osób z dysfunkcją wzroku. Poniżej przedstawiamy najważniejsze nowości – od ogłoszeń gigantów technologicznych po inicjatywy społeczne w Polsce i na świecie – z ostatnich miesięcy, ze szczególnym uwzględnieniem innowacji dla osób niewidomych i słabowidzących.
Innowacje technologiczne: nowe funkcje i urządzenia w 2025 roku
Apple: etykiety dostępności, Lupa na Macu i inne nowości ekosystemu
Firma Apple tradycyjnie zaprezentowała w maju – w ramach obchodów GAAD – pakiet nowych funkcji zwiększających dostępność swoich produktów. Najważniejsze z nich dotyczą osób z dysfunkcją wzroku. Etykiety Dostępności („Accessibility Nutrition Labels”) pojawią się w App Store i będą informować przed pobraniem aplikacji, jakie rozwiązania dostępności dane oprogramowanie oferuje – np. obsługę czytnika ekranu VoiceOver, tryb wysokiego kontrastu, powiększenie tekstu czy możliwość sterowania głosem. „To pozwoli użytkownikom ocenić dostępność produktu z wyprzedzeniem” – podkreślił Eric Bridges z American Foundation for the Blind, chwaląc inicjatywę Apple. Dzięki takim etykietom osoby niewidome i słabowidzące zyskają większą pewność, że pobierana aplikacja będzie dla nich przyjazna.
Drugą istotną nowością jest aplikacja Lupa (Magnifier) na komputery Mac. Do tej pory Lupa dostępna była na iPhonie i iPadzie, a teraz trafi także na macOS, co ułatwi osobom słabowidzącym wykorzystanie dużego ekranu komputera do powiększania obiektów i tekstu z otoczenia. Lupa na Macu będzie współpracować z Continuity Camera (umożliwiając użycie kamery iPhone’a jako lupy) oraz z kamerami USB, a także oferować możliwość dostosowania obrazu (np. zmiana kontrastu, filtrów kolorystycznych) i odczytywania dokumentów w trybie Desk View. Co ważne, Lupa na Macu zostanie zintegrowana z nowym Czytnikiem Dostępności (Accessibility Reader) – systemowym trybem ułatwiającym czytanie treści. Pozwoli to na szybkie przełączenie dowolnego tekstu (np. fragmentu strony internetowej czy fizycznego dokumentu uchwyconego kamerą) w tryb wysokiej czytelności lub na odsłuch poprzez syntezator mowy.
Apple rozwija także wsparcie dla pisma Braille’a. Wprowadzona zostanie funkcja Braille Access, która zamieni urządzenia Apple w pełnoprawne notatniki brajlowskie. Użytkownik wyposażony w brajlowski monitor lub klawiaturę będzie mógł pisać notatki i odczytywać treści w Braille’u na iPhonie, iPadzie, Macu, a nawet w zestawie Apple Vision Pro. Co więcej, system obsłuży specjalistyczne zapisy brajlowskie, jak np. brajlowskie oznaczenia matematyczne Nemeth, dzięki czemu osoby niewidome zyskają możliwość wygodnego wykonywania obliczeń i czytania treści naukowych w brajlu. Integracja Braille Access z całym ekosystemem Apple oznacza, że notatki brajlowskie czy pliki BRF (Braille Ready Format) będzie można otwierać i edytować na dowolnym urządzeniu, a także że napisy dialogowe (Live Captions) mogą być wyświetlane bezpośrednio na podłączonym wyświetlaczu brajlowskim.
Wśród nowości warto wymienić również ulepszenia dla osób z resztkami wzroku korzystających z technologii rozszerzonej rzeczywistości. System visionOS dla gogli Apple Vision Pro otrzyma aktualizacje wykorzystujące zaawansowany system kamer tego urządzenia. Pojawi się funkcja Zoom pozwalająca powiększać „na żywo” obraz otoczenia (np. przybliżyć treść z tablicy informacyjnej czy menu w restauracji) wprost w goglach – Vision Pro stanie się więc rodzajem cyfrowej lupy dla osób słabowidzących. Ponadto użytkownicy VoiceOver (czytnika ekranu Apple) w Vision Pro będą mogli skorzystać z funkcji Live Recognition, która wykorzysta uczenie maszynowe do opisu otoczenia: gogle będą potrafiły rozpoznawać obiekty wokół użytkownika, odczytywać napisy i teksty w otoczeniu oraz informować o położeniu osób czy drzwi. Apple udostępni też API dla deweloperów, umożliwiające tworzenie aplikacji oferujących zdalną pomoc na żywo – jako przykład podano integrację z aplikacją Be My Eyes, dzięki czemu poprzez gogle będzie można nawiązać połączenie z asystentem-wolontariuszem, który zobaczy obraz z kamer Vision Pro i pomoże zinterpretować otoczenie. Tego typu rozwiązanie oznacza całkowicie nową jakość w zwiększaniu samodzielności dla osoby niewidomej, która mając na głowie dyskretne gogle, może „widzieć oczami” zarówno sztucznej inteligencji (automatyczne opisy) jak i tymi drugiego człowieka na odległość.
Apple nie zapomniało także o pozostałych usprawnieniach: Czytanie ekranu Apple Watch zostało wzbogacone o funkcję Live Captions, co oznacza, że osoba niesłysząca może teraz na zegarku odczytać napisy generowane w czasie rzeczywistym dla dowolnego dźwięku wychwyconego przez iPhone’a (np. wypowiedzi rozmówcy podczas spotkania). Pojawiły się też Dźwięki Tła (Background Sounds) o rozszerzonych opcjach personalizacji, pomagające w koncentracji oraz Osobisty Głos (Personal Voice), który pozwala osobom tracącym mowę wygenerować swój syntetyczny głos – w 2025 roku proces treningu tego głosu przyspieszono (wystarczy nagranie 10 fraz, by w minutę utworzyć spersonalizowany głos). Choć te ostatnie udogodnienia skierowane są głównie do osób z innymi niepełnosprawnościami (słuchu, mowy czy kognitywnymi), to razem z funkcjami dla niewidomych tworzą spójny obraz zaangażowania Apple w dostępność. Jak podkreślił Tim Cook, “tworzenie technologii dla każdego jest naszym priorytetem” – nowe funkcje są tego dowodem, wykorzystując moc układów Apple Silicon oraz najnowsze osiągnięcia sztucznej inteligencji, by każdy użytkownik mógł “robić to, co kocha”.
Google: sztuczna inteligencja Gemini w służbie niewidomych i ulepszenia na Androidzie
Google również uczcił GAAD 2025 ogłoszeniem szeregu funkcji zaprojektowanych z myślą o dostępności swoich produktów. Największe wrażenie na społeczności osób niewidomych zrobiła aktualizacja czytnika ekranu TalkBack na Androidzie, która integruje zaawansowany model AI Gemini. Już w 2024 roku TalkBack potrafił automatycznie opisywać zawartość obrazów wykorzystując generatywną AI – teraz jednak poszedł o krok dalej. Użytkownik może nie tylko uzyskać opis zdjęcia, ale także zadawać dodatkowe pytania dotyczące obrazu lub nawet całego ekranu. Przykładowo: jeśli znajomy wyśle niewidomemu użytkownikowi fotografię swojej gitary, TalkBack najpierw wygeneruje opis zdjęcia, a następnie pozwoli dopytać o szczegóły – np. markę i kolor instrumentu albo inne obiekty znajdujące się na zdjęciu. Co więcej, pytania można zadawać również o to, co jest aktualnie wyświetlane na ekranie telefonu. Osoba niewidoma robiąca zakupy w aplikacji może zapytać asystenta Gemini np. o materiał, z którego wykonano upatrzony przedmiot, albo czy jest dostępna promocja na dany produkt. TalkBack analizuje wtedy całą widoczną zawartość interfejsu aplikacji i udziela odpowiedzi głosowej – funkcja ta przypomina zdalną pomoc asystenta, z tą różnicą, że tutaj rolę tłumacza obrazu pełni sztuczna inteligencja. Integracja TalkBack z Gemini to ogromne ułatwienie w sytuacjach, gdy tradycyjny czytnik ekranu trafia na element graficzny bez opisu lub na skomplikowany, nieopisany ekran aplikacji – teraz AI może „przeczytać” i wyjaśnić niewidomemu użytkownikowi to, co wcześniej było dla niego niedostępne.
Google wprowadził także usprawnienia w automatycznych napisach na żywo. Funkcja Expressive Captions (Ekspresyjne napisy) wykorzystuje AI do generowania napisów do dowolnego materiału audio odtwarzanego na telefonie i – co nowe – zaznacza również sposób wypowiadania kwestii. Oznacza to, że w napisach pojawią się teraz informacje o intonacji i wydłużonych dźwiękach (np. rozciągnięte „nooooo” zamiast zwykłego „no” gdy ktoś przeciąga zaprzeczenie, albo [WIWAT] w kwadratowych nawiasach, gdy tłum odgłasza wiwaty) oraz oznaczenia dźwięków tła (np. [gwizd], [kaszlnięcie]). Choć przeznaczone to jest głównie dla osób g/Głuchych, to i niewidomi skorzystają – np. lektor czytający napisy może przekazać więcej emocji ze ścieżki dźwiękowej filmu. Nowe Ekspresyjne napisy początkowo dostępne są w języku angielskim (na Androidzie 15+) i pozwalają lepiej zrozumieć „ton” wypowiedzi rozmówcy lub narratora.
Inną zmianą istotną dla dostępności jest aktualizacja przeglądarki Chrome. Do tej pory pliki PDF będące skanami były praktycznie niedostępne dla czytników ekranu bez użycia wbudowanego ocr (nvda, jaws) – Chrome nie rozpoznawał w nich tekstu. W 2025 roku przeglądarka zyskała wbudowane OCR (optyczne rozpoznawanie znaków), dzięki czemu skanowane dokumenty PDF stają się możliwe do odczytania i przeszukania. Gdy użytkownik otworzy zeskanowany dokument, Chrome automatycznie „przeczyta” zawartość obrazków z tekstem i pozwoli np. zaznaczyć fragment tekstu, wyszukać słowo czy uruchomić czytnik ekranu, by odczytał całość na głos. To duże ułatwienie dla studentów i profesjonalistów – osoby niewidome nie są już skazane na zewnętrzne aplikacje do OCR, by poznać treść otrzymanego PDF.
W Androidzie pojawiły się również pomniejsze usprawnienia dla słabowidzących. Page Zoom w mobilnej przeglądarce Chrome umożliwia teraz powiększenie zawartości strony nawet o 300% bez rozbicia układu i konieczności przewijania na boki, przy czym preferencje powiększenia można zapisać globalnie lub dla wybranych witryn. Dodatkowo Android oferuje coraz bogatsze opcje personalizacji kolorów, kontrastu i rozmiaru czcionek w całym systemie, co razem z nowymi funkcjami czytania ekranu czyni go bardziej przyjaznym dla osób z dysfunkcją wzroku.
Warto zauważyć, że Google rozwija dostępność nie tylko w swoich produktach konsumenckich, ale i wspiera programistów. Z okazji GAAD firma opublikowała nowe materiały dla deweloperów tworzących narzędzia rozpoznawania mowy, aby były one bardziej skuteczne dla użytkowników z zaburzeniami mowy czy słuchu. Ponadto w marcu 2025 odbyła się konferencja Google I/O, na której również nie zabrakło wątków dostępności – m.in. zapowiedziano wdrożenie modelu Gemini Nano w Android Auto i Asystencie Google w samochodach, co docelowo może przynieść udoskonalenia funkcji nawigacyjnych dla niewidomych poruszających się samochodem jako pasażerowie. Wszystkie te działania wpisują się w strategię Google „AI for Good”, gdzie sztuczna inteligencja ma wspierać włączanie społeczne osób z niepełnosprawnościami.
Microsoft: Seeing AI na Androidzie i „inteligentny” Narrator Windows
Microsoft kontynuuje wieloletnią misję uczynienia swoich produktów jak najbardziej dostępnymi, czemu poświęcona była m.in. doroczna konferencja Ability Summit 2025 (15. edycja, marzec 2025). Dla osób niewidomych kluczowe są dwie nowości: rozszerzenie działania aplikacji Seeing AI oraz plany wzbogacenia czytnika ekranu Windows o funkcje AI.
Popularna aplikacja Seeing AI, będąca osobistym asystentem osób niewidomych, doczekała się na koniec 2024 roku premiery na Androidzie. Dotychczas Seeing AI funkcjonował tylko na iPhone’ach, od grudnia jest dostępny także w Google Play – co otworzyło dostęp do niego milionom kolejnych użytkowników smartfonów na całym świecie. Wraz z debiutem androidowym aplikacja zyskała nowe funkcje oparte na generatywnej AI. Seeing AI potrafi teraz tworzyć bogatsze opisy zdjęć – po zrobieniu zdjęcia sceny użytkownik może wybrać opcję „więcej informacji”, a aplikacja wygeneruje szczegółowy opis zawartości (w praktyce kilka zdań zamiast dotychczasowego jednego), uwzględniając więcej detali otoczenia. Ponadto dodano przełomową funkcję „Chatuj z dokumentem”: po zeskanowaniu wydruku Seeing AI nie tylko odczyta jego treść, ale pozwoli zadać pytania dotyczące dokumentu. Przykładowo, użytkownik skanuje długi rachunek – zamiast słuchać całego dokumentu, może od razu zapytać asystenta o cenę konkretnego produktu na paragonie albo poprosić o podsumowanie najważniejszych pozycji. Aplikacja „rozumie”, co zeskanowała, dzięki integracji z modelami językowymi AI (opracowanymi we współpracy Microsoft–OpenAI) i potrafi na tej podstawie prowadzić rozmowę z użytkownikiem. Te usprawnienia – bogate opisy scen i tryb czatu – zostały najpierw dodane do wersji iOS Seeing AI, a od grudnia 2024 znalazły się także w wersji na Androida. Rozszerzenie dostępności Seeing AI na drugi co do popularności system mobilny jest ogromnym krokiem: jak stwierdził Saqib Shaikh, lider projektu (sam będący osobą niewidomą), misją Seeing AI od początku było dostarczanie „oczu” tam, gdzie ich brakuje, a teraz ta możliwość stała się dostępna dla jeszcze szerszej społeczności.
Drugim istotnym obszarem jest środowisko Windows 11. Microsoft ogłosił, że czytnik ekranu Narrator zostanie wzbogacony o funkcje sztucznej inteligencji – podobnie jak konkurencyjne rozwiązania, będzie potrafił generować opisy elementów graficznych i obrazów na ekranie. Zapowiedź padła podczas Ability Summit i dotyczy wersji testowych Windows Insider wiosną 2025, co sugeruje, że wkrótce użytkownicy Windowsa mogą spodziewać się aktualizacji Narratora opartej na mechanizmach AI. „AI wkracza do Narratora” – tak ujęła to Jenny Lay-Flurrie, szefowa ds. dostępności Microsoft, zapowiadając bogate opisy obrazów tworzone przez sztuczną inteligencję w czytniku ekranu Windows. Funkcja ta pozwoli osobom niewidomym uzyskać automatyczny opis zdjęcia lub grafiki, na którą natrafią – czy to w przeglądarce, czy w dowolnej aplikacji na komputerze – co znacznie ułatwi korzystanie z Internetu i dokumentów zawierających obrazy bez alternatywnego tekstu.
Microsoft inwestuje również w tworzenie bardziej inkluzywnych modeli AI poprzez partnerstwa z organizacjami społecznymi. W październiku 2024 firma nawiązała współpracę z twórcami aplikacji Be My Eyes (łączącej niewidomych wolontariackimi „asystentami wideo”), przekazując środki i narzędzia do rozwijania zbiorów danych uwzględniających doświadczenia osób z dysfunkcją wzroku. Celem jest ulepszenie algorytmów rozpoznawania obrazów – tak by sztuczna inteligencja lepiej radziła sobie z nietypowymi ujęciami i sytuacjami, z jakimi mierzą się niewidomi użytkownicy (np. zdjęcia o słabym świetle, nieostre, przedstawiające codzienne czynności). Według Microsoft, praca z danymi pochodzącymi od społeczności niewidomych pomoże uczynić modele AI bardziej inkluzywnymi dla setek milionów osób niewidomych i słabowidzących na świecie. Ta inicjatywa to kolejny element strategii firmy polegającej na „projektowaniu AI z myślą o najszerszej grupie odbiorców”.
Warto wspomnieć, że Ability Summit 2025 przyniósł też inne nowinki – choć dotyczące głównie niepełnosprawności ruchowych i neurotypowych. Microsoft zaprezentował m.in. Xbox Adaptive Joystick (nowy kontroler dla graczy z ograniczoną sprawnością ruchową) oraz wytyczne projektowania dostępnych opakowań produktów (tak, aby np. osoby niewidome mogły łatwiej otworzyć pudełko i znaleźć w nim informacje). Te działania pokazują holistyczne podejście firmy: od sprzętu, przez oprogramowanie, po dokumentację – wszystko powinno być dostępne. W obszarze wzroku kluczowe jest jednak, że ekosystem Microsoftu coraz bardziej otwiera się na niewidomych użytkowników Androida i ulepsza wsparcie na PC. Seeing AI stał się aplikacją multiplatformową, a Narrator czeka transformacja dzięki AI – to znaczące, systemowe zmiany, które z pewnością odczują użytkownicy w 2025 roku.
Meta (Facebook): asystent w okularach i pomoc wolontariuszy na żądanie
Korporacja Meta (właściciel Facebooka, Instagrama i WhatsAppa) w 2025 roku skupiła się na wykorzystaniu sztucznej inteligencji oraz rozszerzonej rzeczywistości do poprawy dostępności swoich usług. W czasie bliskim Dniu światowej świadomości dostępności 2025 firma ogłosiła kilka inicjatyw, które „mogą mieć szczególną wartość dla osób z niepełnosprawnościami” – jak zaznaczyła Maxine Williams, VP ds. dostępności w Meta.
Najciekawszą nowością są usprawnienia okularów Ray-Ban Meta, czyli inteligentnych okularów wyposażonych w kamerę i asystenta głosowego Meta AI. Od maja 2025 użytkownicy tych okularów mogą włączyć specjalny tryb udzielania bardziej szczegółowych odpowiedzi opisujących otoczenie. Mówiąc prościej, jeśli osoba niewidoma nosząca Ray-Ban Meta zapyta asystenta „Co jest przede mną?”, otrzyma teraz znacznie bogatszy opis sceny niż wcześniej – AI opisze obiekty, ich cechy i wzajemne położenie znacznie dokładniej. Funkcję tę można aktywować w ustawieniach urządzenia jako opcję „Detailed Responses” (odpowiedzi szczegółowe). Przykład: idąc ulicą, użytkownik może zapytać okularów o opis najbliższego otoczenia – Meta AI może odpowiedzieć np. „Przed Tobą znajduje się przejście dla pieszych z sygnalizacją świetlną, po lewej stronie jest kiosk z gazetami, a kilka kroków dalej zaczyna się wejście do parku z widoczną ławką”. Taka szczegółowość opisu może znacznie zwiększyć samodzielność osób niewidomych, dając im „wirtualny wzrok” poprzez dyskretne urządzenie. Co ważne, Meta AI na okularach działa w trybie konwersacyjnym – użytkownik może zadawać pytania uzupełniające. Jeśli asystent powie np. o sygnalizacji świetlnej, niewidomy może dopytać „czy światło jest teraz zielone?” – zakładając, że system ma dostęp do obrazu w czasie rzeczywistym, mógłby udzielić takiej odpowiedzi. Meta deklaruje, że funkcja szczegółowych odpowiedzi będzie stopniowo udostępniana użytkownikom najpierw w USA i Kanadzie, a docelowo w kolejnych krajach.
Kolejnym przełomem od Meta jest usługa „Call a Volunteer” (Wezwij wolontariusza). To rozwiązanie opracowane we współpracy z twórcami aplikacji Be My Eyes, zintegrowane z Meta AI. Pozwala ono połączyć niewidomego użytkownika wideo-rozmową z widzącym wolontariuszem, który przez kamerę (np. w okularach Ray-Ban lub w smartfonie) widzi to, co użytkownik, i służy pomocą w czasie rzeczywistym. Funkcja ta przypomina działanie samej aplikacji Be My Eyes, ale Meta wdraża ją bezpośrednio w swoich produktach. W maju 2025 ogłoszono, że „Call a Volunteer” zostanie uruchomione we wszystkich 18 krajach, w których dostępny jest asystent Meta AI (a więc m.in. w USA, większości krajów europejskich, prawdopodobnie w późniejszym czasie również w Polsce). Dla użytkownika oznacza to, że np. w dowolnym momencie używania okularów czy komunikatora Meta będzie mógł wydać polecenie połączenia z wolontariuszem – i w kilkadziesiąt sekund zostanie skontaktowany z osobą gotową pomóc (np. odczytać treść listu z ekranu kamery, sprawdzić datę ważności produktu spożywczego czy pokierować podczas dojazdu we właściwe miejsce). Meta podkreśla, że rozwiązanie to łączy AI i ludzi: najpierw próbujemy uzyskać pomoc od sztucznej inteligencji (asystent Meta może automatycznie opisać scenę), ale jeśli to niewystarczające – można jednym kliknięciem „wezwać człowieka”. Taka synergia ma zapewnić pełniejsze wsparcie dostępności.
Meta prowadzi też szersze prace badawcze, które w przyszłości mogą przełożyć się na poprawę jakości życia osób z niepełnosprawnościami wzroku. W 2025 roku firma kontynuuje eksperymenty nad interfejsami neuronowymi i urządzeniami do sterowania za pomocą sygnałów mięśniowych (sEMG). Choć projekty te – jak prototypowa opaska na nadgarstek wykrywająca impulsy nerwowe – skierowane są głównie do osób z paraliżem kończyn (by umożliwić im obsługę urządzeń elektronicznych „siłą myśli”), to ogólny kierunek wskazuje, że przyszłe interfejsy AR/VR mają być projektowane z myślą o różnorodności użytkowników. Meta stara się też uczynić metaverse bardziej dostępnym: w goglach Quest wprowadzono na poziomie systemowym transkrypcję mowy na żywo (Live Captions) oraz odwrotnie – generowanie mowy syntetycznej z tekstu (Live Speech) podczas spotkań w wirtualnej rzeczywistości. Choć te funkcje dotyczą głównie osób niesłyszących lub niemówiących, pokazują trend tworzenia inkluzywnego cyfrowego środowiska, w którym każdy – niezależnie od zmysłów – może uczestniczyć. W kontekście osób niewidomych warte uwagi są prace Meta nad ulepszaniem automatycznych opisów obrazów (tzw. Automatic Alt Text): już w poprzednich latach firma chwaliła się modelami potrafiącymi rozpoznawać na zdjęciach nawet 10 razy więcej obiektów niż wersje sprzed kilku lat. W 2025 roku te modele są wykorzystywane na Facebooku i Instagramie, generując opisy dla fotografii umieszczanych przez użytkowników (np. informacja: „obraz może przedstawiać: 2 osoby uśmiechnięte, na zewnątrz, prawdopodobnie na plaży” pojawia się jako opis dla technologii asystujących) – co stanowi nieocenioną pomoc dla niewidomych w korzystaniu z mediów społecznościowych. Meta deklaruje dalszy rozwój tych algorytmów, m.in. poprzez udostępnienie ich jako otwartych modeli (LLaMA) społeczności programistów, by niezależne aplikacje również mogły z nich korzystać.
Podsumowując, działania Meta w 2025 skupiają się na dostarczaniu niewidomym użytkownikom narzędzi łączących świat rzeczywisty z wirtualnym. Inteligentne okulary z opisującym otoczenie AI, natychmiastowy kontakt z wolontariuszem oraz poprawa dostępności treści na platformach społecznościowych – to wszystko przybliża nas do świata, w którym osoba z dysfunkcją wzroku będzie mogła z równą swobodą jak inni korzystać z komunikacji, rozrywki i orientować się w przestrzeni.
Samsung: inteligentny dom dostępny dzięki AI Vision i tryb QR
Wśród największych firm technologicznych Samsung również podejmuje działania na rzecz dostępności, choć w nieco innym zakresie. W 2025 roku koreański gigant skupił się na uczynieniu inteligentnego domu bardziej przyjaznym dla osób z niepełnosprawnością wzroku. Podczas targów CES 2025 Samsung zaprezentował koncepcję „AI for All” – sztucznej inteligencji obecnej wszędzie i dla każdego, co oznacza integrację funkcji AI we wszystkich sprzętach domowych, również w kontekście ich dostępności.
Najbardziej namacalnym efektem tych działań jest aktualizacja aplikacji Samsung AI Vision (Sullivan Plus), służącej jako asystent w rozpoznawaniu obrazu. Pod koniec 2024 r. (tuż przed wejściem w 2025) aplikacja ta otrzymała nowatorski tryb „Home Appliance QR Mode”. Pozwala on osobom niewidomym skanować specjalne kody QR umieszczone na sprzętach AGD, aby uzyskać głosowe informacje i instrukcje obsługi. Innymi słowy, Samsung zaczął oznaczać swoje urządzenia (pralki, lodówki, kuchenki itd.) unikalnymi kodami – po nakierowaniu na nie aparatu smartfona aplikacja rozpoznaje urządzenie i przekazuje użytkownikowi komunikaty ułatwiające korzystanie z niego. Na przykład, skanując kod przy panelu pralki, usłyszymy opis ułożenia pokręteł i przycisków, dostępne programy prania i wskazówki, jak wybrać odpowiedni program. Dla lodówki kod QR może odczytać ustawioną temperaturę lub powiadomić o otwartych drzwiach. Jest to pomost między światem fizycznym a cyfrowym dla osób niewidomych, zwiększający ich niezależność w codziennych czynnościach domowych. Samsung podkreśla, że to rozwiązanie jest krokiem milowym w projektowaniu urządzeń AGD, wyznaczając nowy standard branżowy – tak, by interakcja z każdym urządzeniem w domu była możliwa niezależnie od tego, czy widzimy panel kontrolny.
Wdrożenie trybu QR w aplikacji Sullivan Plus zbiega się z szerszym trendem: już wcześniej Samsung eksperymentował z technologiami dla osób słabowidzących, np. trybem Relumino w telewizorach (specjalny tryb wysokiego kontrastu i obrysów krawędzi, poprawiający czytelność obrazu dla widzów z niedowidzeniem). W 2025 rozwiązania tego typu stają się bardziej dojrzałe i zintegrowane – aplikacja AI Vision/Sullivan ma być uniwersalnym narzędziem wspierającym użytkownika w rozpoznawaniu nie tylko tekstu i scen (co już robiła), ale także interfejsów urządzeń domowych. Samsung deklaruje również rozbudowę ekosystemu SmartThings o funkcje ułatwień dostępu – np. możliwość sterowania sprzętami domowymi za pomocą asystenta głosowego z uwzględnieniem informacji zwrotnych istotnych dla niewidomych (jak odczytywanie aktualnego ustawienia czy potwierdzanie wykonania akcji dźwiękiem). Wszystko to składa się na wizję „Connected Living” bez barier: dom przyszłości ma być w pełni dostępny dla każdego domownika, bez względu na ograniczenia wzroku.
Warto dodać, że Samsung angażuje się też społecznie – w 2025 kontynuowano program „Samsung Accessibility Grant”, w ramach którego firma wspiera startupy i organizacje pozarządowe pracujące nad technologiami asystującymi. Przykładem jest dofinansowanie projektu wykorzystującego tagi NaviLens (specjalne kolorowe kody QR czytelne z daleka) w przestrzeni publicznej, czy integracja rozwiązań firmy ARxVision (producenta opaski-asystenta dla niewidomych) z aplikacjami w ekosystemie Microsoft i Android. Choć te działania odbywają się trochę w tle głównego nurtu, pokazują istotną rzecz: dostępność stała się polem współpracy gigantów z mniejszymi podmiotami, by szybciej dostarczać innowacje tym, którzy najbardziej ich potrzebują.
Innowacyjne startupy i mniejsze firmy: nowe urządzenia i aplikacje dla niewidomych
Oprócz działań wielkich korporacji, rok 2025 obfituje w nowości od wyspecjalizowanych firm technologicznych skupionych na pomocy osobom niewidomym i słabowidzącym. Choć często mniej znane szerokiej publiczności, to właśnie te mniejsze innowacyjne firmy nierzadko dostarczają przełomowych rozwiązań asystujących.
OrCam Technologies, pionier w dziedzinie noszonej elektroniki dla niewidomych, zaprezentował ulepszenia swoich flagowych produktów. OrCam MyEye – niewielkie urządzenie mocowane magnetycznie do okularów, które kamerą „widzi” tekst i otoczenie, czyta na głos i rozpoznaje twarze – otrzymało w 2024 r. udoskonalony moduł AI, nazwany roboczo „augmented AI companion”. Dzięki niemu MyEye zyskał bardziej naturalną interaktywność: urządzenie nie tylko poinformuje użytkownika, co ma przed sobą (np. odczyta nazwę produktu czy rozpozna znajomą osobę), ale pozwoli na dynamiczny dialog. Użytkownik może np. stuknąć w urządzenie i zapytać: „Co to za budynek po lewej stronie?” lub „Jaki jest nominał tego banknotu?” – a OrCam MyEye udzieli odpowiedzi głosowej, o ile kamera „widzi” dany obiekt. To przejście od działania reaktywnego (tylko na komendę „odczytaj to”) do proaktywnie wspomagającego orientację. Firma podkreśla, że nowy moduł AI w MyEye posługuje się językiem naturalnym, co oznacza komunikaty bardziej przypominające rozmowę i otwiera możliwość zadawania dodatkowych pytań. Ponadto OrCam rozwija funkcje personalizacji – urządzenie lepiej dostosowuje się do preferencji użytkownika, np. może uczyć się, jakie informacje są dla danej osoby istotne (jedni wolą usłyszeć pełen opis sceny, inni tylko konkrety). Jednocześnie OrCam zapewnił, że ulepszona AI nie wymaga połączenia z internetem, działając w pełni offline na urządzeniu – co jest ważne dla prywatności i wygody użytkowników.
Drugim ważnym produktem firmy jest OrCam Read 3 – przenośny czytnik do tekstu dla osób z dysfunkcją wzroku. Wprowadzony w listopadzie 2023 OrCam Read 3 to kieszonkowe urządzenie przypominające długopis, które skanuje drukowany tekst (np. książkę, dokument) i natychmiast odczytuje go głosem syntetycznym. W 2024 został on wzbogacony o funkcję „Just Ask”. Pozwala ona, podobnie jak w Seeing AI, zadawać pytania dotyczące zeskanowanego tekstu – na przykład po zeskanowaniu artykułu użytkownik może zapytać: „Podaj krótkie podsumowanie tego artykułu” albo „Jak nazywa się bohater wspomniany w drugim akapicie?”. OrCam Read, korzystając z wbudowanej AI, udzieli odpowiedzi bez konieczności słuchania całości materiału. Co więcej, jeśli użytkownik czegoś nie dosłyszał lub nie zrozumiał, może dopytać – urządzenie utrzymuje kontekst rozmowy. Funkcja „Just Ask” czyni z OrCam Read interaktywnego lektora i asystenta nauki – jest to pomocne np. dla uczniów i studentów z dysfunkcją wzroku, którzy mogą w ten sposób szybciej przyswajać treści z podręczników (pytając o definicje, daty, itp.). Podobnie jak MyEye, także OrCam Read działa offline i lokalnie, co oznacza, że całe przetwarzanie języka odbywa się na urządzeniu – to imponujące osiągnięcie inżynierskie, zważywszy na małe rozmiary sprzętu.
Również holenderski startup Envision (twórca inteligentnych okularów Envision Glasses) wprowadził na rynek coś nowego. W marcu 2025 ogłoszono oficjalne wdrożenie długo oczekiwanej funkcji Envision Ally (ally) – osobistego asystenta AI dostępnego w okularach Envision. Ally to zintegrowany z okularami model AI, który ma za zadanie wspierać użytkownika w codziennych czynnościach, odpowiadając na pytania i dostarczając kontekstowych informacji. W praktyce posiadacz Envision Glasses może teraz wydać polecenie głosowe lub gest i zadać pytanie dotyczące otoczenia – podobnie jak w rozwiązaniu Meta, ale tutaj działającym bezpośrednio w urządzeniu Envision. Co więcej, Envision pozwala tworzyć wiele „osobowości” asystenta – użytkownik może wybrać np. ally mówiącego po hiszpańsku albo ally o bardziej żartobliwym tonie – i przełączać się między nimi w zależności od potrzeb. Rozwiązanie to jest o tyle ciekawe, że Envision współpracuje z wieloma serwisami – np. integruje funkcje opisów obrazów, odczytywania tekstu, a nawet może łączyć się z Aira (usługą profesjonalnych asystentów na żywo) lub z wolontariuszami. Zgodnie z dewizą firmy, „to jak posiadanie własnego asystenta badawczego, gotowego pomóc jak przyjaciel lub współpracownik”. Ally był testowany w wersjach beta w 2024 roku, a od marca 2025 stał się dostępny dla wszystkich posiadaczy nowszych wersji okularów Envision w ramach subskrypcji. Pierwsi użytkownicy chwalą go za możliwość np. podyktowania polecenia „Znajdź mi na półce puszkę kukurydzy” – okulary skanują obraz półki sklepowej i informują, na której wysokości znajduje się poszukiwany produkt.
Oprócz tego na rynku pojawiają się coraz to nowe aplikacje i urządzenia: warto wspomnieć chociażby Lazarillo (aplikacja nawigacyjna, która w 2025 wzbogaciła się o funkcje indoor navigation z wykorzystaniem beaconów w centrach handlowych), RightHear (system powiadomień dźwiękowych w przestrzeni publicznej, rozszerzony o mapy kampusów uniwersyteckich) czy rozwój białych lasek wyposażonych w GPS i czujniki ultradźwiękowe (eksperymentalne projekty w Japonii i USA). Każde z tych rozwiązań adresuje inny aspekt wyzwań, z jakimi mierzą się osoby z dysfunkcją wzroku – od mobilności, przez dostęp do informacji, po edukację. To pokazuje, że sektor technologii asystujących kwitnie, często dzięki zaangażowaniu samych zainteresowanych (wiele startupów założonych jest przez niewidomych inżynierów lub we współpracy z nimi) i wsparciu programów grantowych dużych firm czy rządów.
Wydarzenia edukacyjne, społeczne kampanie i zmiany systemowe w 2025 roku
Globalne inicjatywy i obchody GAAD 2025
Rok 2025 przyniósł nie tylko rozwiązania technologiczne, ale też ważne wydarzenia zwiększające świadomość społeczną na temat dostępności. Global Accessibility Awareness Day (GAAD) obchodzony w trzeci czwartek maja (w 2025 dokładnie 15 maja) stał się okazją do organizacji licznych konferencji, warsztatów i kampanii na całym świecie – zarówno przez gigantów technologicznych, jak i organizacje non-profit czy instytucje państwowe. Wiele z opisanych wyżej nowości (Apple, Google, Meta) zostało ogłoszonych właśnie w kontekście podkreślenia i uhonorowania GAAD jako dowód zaangażowania firm w budowanie produktów inkluzywnych. Ale GAAD to również setki oddolnych inicjatyw: w mediach społecznościowych popularność zdobyły akcje typu #GAADPledge, gdzie programiści zobowiązywali się poprawić dostępność swoich stron czy aplikacji, a wolontariusze oferowali darmowe audyty dostępności dla małych biznesów.
Global Disability Summit 2025 – międzynarodowy szczyt na rzecz osób z niepełnosprawnościami – odbył się na początku kwietnia (online, współorganizowany przez rządy Niemiec i Jordanii) i zgromadził przedstawicieli ponad 160 krajów. W trakcie szczytu zaprezentowano dobre praktyki i inicjatywy z całego świata, od technologii po rozwiązania prawne, mające na celu skuteczniejsze włączanie osób z niepełnosprawnościami w życie społeczne. Szczególny nacisk położono na wykorzystanie sztucznej inteligencji w przełamywaniu barier – co stanowiło doskonałe tło dla nowości, o których mówiono chwilę później przy okazji GAAD. Podczas tego wydarzenia ogłoszono m.in. powstanie globalnej Platformy Dostępności Cyfrowej, mającej zrzeszać deweloperów tworzących otwarte narzędzia dla dostępności (od czytników ekranu po syntezatory mowy w różnych językach). Inicjatywy takie pokazują, że dostępność przestaje być sprawą niszową – staje się tematem międzynarodowych zobowiązań i wspólnych działań rządów oraz sektora prywatnego.
Nie można też zapomnieć, że 2025 rok to okrągła, 200. rocznica opracowania alfabetu Braille’a. Louis Braille opublikował swój system pisma punktowego dla niewidomych w roku 1825 – dwieście lat później brajl nadal jest fundamentalnym narzędziem komunikacji i edukacji dla tysięcy ludzi. W wielu krajach (w tym w Polsce) jubileusz ten stał się okazją do promowania nauki brajla wśród dzieci i młodzieży oraz przypomnienia społeczeństwu o jego znaczeniu. Polski Związek Niewidomych (PZN) zainaugurował w maju kampanię „Promuj brajla”, połączoną z konkursem na prace literackie pisane brajlem – by zachęcić osoby niewidome do doskonalenia tej umiejętności i jednocześnie uświadomić osobom widzącym, że brajl w dobie technologii bynajmniej nie odchodzi do lamusa. W wielu bibliotekach w kraju odbyły się okolicznościowe wydarzenia, na których prezentowano książki brajlowskie, tabliczki do pisania i nowoczesne monitory brajlowskie, pozwalając odwiedzającym na poznanie „tajemnic sześciopunktu”. Jubileusz brajla splótł się symbolicznie z ekspansją nowoczesnych technologii: np. Fundacja LEGO wprowadziła w 2025 r. zestawy LEGO Braille Bricks w wersji polskojęzycznej – specjalne klocki z wypustkami ułożonymi w litery brajlowskie, służące dzieciom do nauki alfabetu przez zabawę. Polska dołączyła do ponad 30 krajów korzystających z tej formy edukacji – PZN został oficjalnym partnerem dystrybucji klocków brajlowskich w naszym kraju, a od stycznia 2025 ruszyły szkolenia instruktorów tej metody. To piękny przykład połączenia tradycji (brajl) z nowoczesnością (klocki i globalna współpraca) – i dowód na to, że dostępność w edukacji przybiera coraz ciekawsze formy.
Polska: wdrażanie Europejskiego Aktu o Dostępności i lokalne inicjatywy
W Polsce rok 2025 upływa pod znakiem intensywnych przygotowań do wdrożenia Europejskiego Aktu o Dostępności (EAA). Akt ten, przyjęty jako dyrektywa UE w 2019 r., wyznaczył standardy dostępności produktów i usług na jednolitym rynku europejskim. Polska implementowała te przepisy krajową Ustawą z 26 kwietnia 2024 r. o zapewnianiu dostępności niektórych produktów i usług, która wchodzi w życie z dniem 28 czerwca 2025 r.. Oznacza to, że od połowy 2025 roku szereg prywatnych przedsiębiorców zostanie prawnie zobowiązanych do spełniania wymogów dostępności swoich ofert – od bankomatów i terminali płatniczych, przez strony e-commerce, po e-booki i czytniki książek elektronicznych. To ogromna zmiana systemowa, ponieważ dotąd w Polsce twarde wymogi dostępności dotyczyły głównie sektora publicznego (ustawa o dostępności cyfrowej z 2019 r. obejmowała urzędy, samorządy itp. – głównie strony WWW i aplikacje mobilne administracji). W tym zakresie nadal jest wiele do zrobienia, ale teraz ten proces ma szansę przyspieszyć, bo dostępność staje się obowiązkiem również dla sektora prywatnego – banków, firm telekomunikacyjnych, wydawców, transportu, dostawców usług cyfrowych itd..
W pierwszych miesiącach 2025 trwały więc intensywne działania informacyjne i szkoleniowe, by przygotować rynek na nowe wymogi. Ministerstwo Cyfryzacji oraz PFRON organizowały bezpłatne webinaria i warsztaty online dla przedsiębiorców, przybliżające zapisy ustawy i praktyczne sposoby ich realizacji. Przykładowo, PFRON 15 maja (w GAAD) zorganizował ogólnopolską konferencję o dostępności cyfrowej, odbywającą się online i otwartą dla wszystkich zainteresowanych – skupiono się na nowych obowiązkach firm i metodach wdrażania dostępności w procesie projektowania produktów. Również organizacje branżowe uruchomiły własne inicjatywy: Związek Banków Polskich powołał grupę roboczą ds. dostępności usług finansowych, która opracowała wytyczne dla banków spółdzielczych i komercyjnych (dotyczące m.in. dostępnych bankomatów z syntezą mowy i udogodnień dla osób niewidomych w bankowości internetowej) – efektem były szkolenia dla kadry banków w pierwszej połowie 2025. Wydawcy książek z kolei, we współpracy z Biblioteką Centralną PZN, przygotowali plan dostosowania formatów e-booków do standardu EPUB3 Accessibility – tak by nowe publikacje elektroniczne wydawane po czerwcu 2025 spełniały wymagania dostępności (m.in. poprawne oznaczanie struktury, dołączanie opisów do ilustracji i wykresów). Portal Rynek-Książki donosił, że po 28 czerwca wszystkie nowo wprowadzane do obrotu e-booki powinny mieć „spełnione ogólne wymagania dostępności”, a także specyficzne wymagania dodatkowe dotyczące książek elektronicznych – co stawia wyzwanie przed wydawcami, ale też otwiera dostęp do literatury dla szerszego grona odbiorców.
Administracja publiczna, chcąc dać dobry przykład, już w poprzednich latach prowadziła program „Dostępność Plus”, a w jego ramach liczne szkolenia. W 2025 kontynuowano cykl „Dostępne środy” – cotygodniowych webinariów dla urzędników i projektantów stron, organizowanych przez Ministerstwo Funduszy i Polityki Regionalnej. Tematyka obejmowała m.in. dostępność multimediów, pisanie prostym językiem czy tworzenie dostępnych dokumentów PDF. Szkolenia te cieszyły się dużym zainteresowaniem, bo wiele jednostek samorządu terytorialnego zdało sobie sprawę, że dostępność to proces ciągły, a nie jednorazowe działanie – treści na stronach są stale aktualizowane i trzeba dbać, by nowo dodawane informacje (np. pliki w BIP czy ogłoszenia) także były dostępne. Podkreślano to zresztą w komunikatach GAAD: „dostępność cyfrowa to obowiązek prawny, ale i szansa dotarcia do szerszego grona odbiorców” – jak napisano w oficjalnej informacji Miasta Poznania z okazji GAAD. Owa szansa oznacza np. pozyskanie nowych klientów o szczególnych potrzebach czy budowanie pozytywnego wizerunku firmy odpowiedzialnej społecznie.
Organizacje pozarządowe w Polsce również były bardzo aktywne. PZN – największa organizacja zrzeszająca osoby niewidome – prowadził w 2025 cykl projektów dofinansowanych z PFRON, m.in. „Komputer bez tajemnic” (szkolenia z obsługi technologii asystujących dla seniorów tracących wzrok) i „Aktywność cyfrowa” (warsztaty z korzystania z bankowości elektronicznej i e-usług dla osób 50+ z dysfunkcją wzroku). Dużo uwagi poświęcono też edukacji najmłodszych: wspomniany program LEGO Braille Bricks to jedno, ale obok niego Fundacja „Szansa dla Niewidomych” organizowała integracyjne pikniki dla dzieci widzących i niewidomych, gdzie uczyły się one wspólnie alfabetu brajla i porozumiewania się. Kampania społeczna „WidzialniPełnosprawni” (zainicjowana przez Fundację Widzialni) w mediach tradycyjnych pokazywała codzienne życie osób niewidomych korzystających z nowoczesnych technologii – np. spot telewizyjny przedstawiał młodą niewidomą programistkę, która dzięki czytnikowi ekranu i urządzeniom brajlowskim pracuje w międzynarodowej firmie IT. Celem było przełamanie stereotypów i uświadomienie pracodawcom, że dostępność technologii przekłada się na większą niezależność i aktywność zawodową osób z niepełnosprawnościami.
W świecie kultury również działo się sporo. Krakowski Festiwal Filmowy 2025 po raz pierwszy zapewnił audiodeskrypcję na żywo dla wybranych pokazów filmowych – widzowie niewidomi otrzymywali w kinie słuchawki, przez które lektor opisywał akcję filmu. Z kolei w Płocku odbyła się już XV edycja Festiwalu Kultury i Sztuki dla Osób Niewidomych (FKiS) – unikatowej imprezy, podczas której prezentowane są spektakle teatralne z audiodeskrypcją, koncerty w ciemności i wystawy dotykowe. Festiwal ten (27 września – 3 października 2025) ugości artystów niewidomych z kilkunastu krajów i ma szansę przyciągnąć również publiczność widzącą, chcącą doświadczyć sztuki w niekonwencjonalny sposób – np. „oglądając” obrazy wyłącznie dotykiem lub słuchając koncertu bez udziału wzroku. Takie wydarzenia promują ideę dostępności uniwersalnej: pokazują, że dostosowania (jak audiodeskrypcja) nie są „ciężarem”, ale wzbogacają odbiór sztuki dla wszystkich – bo pozwalają dostrzec nowe elementy (widzowie widzący często chwalą audiodeskrypcję za to, że zwraca uwagę na detale, które umykają).
Na szczeblu europejskim warto zauważyć utworzenie w 2025 roku Europejskiego Centrum Zasobów Dostępności (AccessibleEU) – instytucji powołanej przez Komisję Europejską jako platformy wymiany wiedzy o dostępności. Choć centrala mieści się w Brukseli, z polskiej perspektywy istotne jest to, że Centrum zbiera i publikuje w wielu językach praktyczne wytyczne dla wdrażania EAA, prowadzi bazy ekspertów i dobrych praktyk. Dzięki temu polskie firmy i urzędy mogą łatwiej czerpać z doświadczeń innych krajów. AccessibleEU organizuje też szkolenia online – w 2025 kilka z nich odbyło się w języku polskim, przy współpracy z Ministerstwem Rozwoju. To pokazuje, że w kwestii dostępności współpraca międzynarodowa nabiera tempa, a Polska jest jej aktywnym uczestnikiem.
Spojrzenie w przyszłość
Obchody GAAD 2025 uwidoczniły jedno: dostępność przeszła drogę od niszowego zagadnienia do głównego nurtu innowacji technologicznych i polityk publicznych. Nowinki takie jak opisy generowane przez AI czy inteligentne okulary dla niewidomych jeszcze kilka lat temu brzmiały jak science-fiction – dziś stają się realnymi narzędziami zmieniającymi życie. Jednocześnie rośnie świadomość prawna i społeczna: biznes dostosowuje swoje usługi nie tylko z obawy przed sankcjami prawnymi, ale coraz częściej z przekonania, że to się po prostu opłaca i jest słuszne. Osoby z niepełnosprawnościami wzroku są coraz bardziej widoczne w przestrzeni publicznej jako pracownicy, klienci, twórcy – a nie wyłącznie jako beneficjenci pomocy.
Mimo tych pozytywnych trendów, wiele pozostaje do zrobienia. Technologia asystująca musi być dostępna finansowo – stąd ważne będą programy dofinansowań (jak choćby „Aktywny Samorząd” PFRON w Polsce, finansujący zakup sprzętu dla osób z dysfunkcją wzroku). Standardy dostępności muszą nadążyć za rozwojem techniki – pojawiają się już dyskusje nad „WCAG 3.0”, kolejną generacją wytycznych dostępności web, która uwzględni np. treści wirtualnej i rozszerzonej rzeczywistości. Ale obserwując rok 2025, można mieć nadzieję, że zarówno wielkie firmy, jak i ustawodawcy oraz społeczeństwo będą podążać we właściwym kierunku mimo potknięć i trudności. Cyfrowy świat powinien być otwarty dla każdego – to hasło z poznańskiej informacji miejskiej chyba najlepiej oddaje istotę GAAD. Dzięki wysiłkom całego ekosystemu – od inżynierów po aktywistów – ta wizja staje się coraz bardziej rzeczywistością.
Źródła:
Apple Newsroom: Apple unveils powerful accessibility features coming later this year (May 2025) – nowości Apple (Etykiety Dostępności, Lupa na Mac, Braille Access, itd.)
Investing.com (pl): Apple zwiększy dostępność dzięki nowym etykietom w App Store i funkcjom dla Maca – omówienie funkcji Apple w j. polskim.
Google Blog: New AI and accessibility updates across Android and Chrome (15.05.2025) – ogłoszenie funkcji TalkBack z Gemini, Expressive Captions.
TechCrunch: Google rolls out new AI and accessibility features to Android and Chrome (15.05.2025) – informacje o usprawnieniach TalkBack, OCR w Chrome, powiększaniu strony.
Microsoft Blog: Microsoft Ability Summit 2025: Accessibility in the AI era (18.03.2025) – podsumowanie Ability Summit (Seeing AI na Androida, Narrator z AI).
Microsoft Accessibility Blog: Seeing AI app launches on Android… (Saqib Shaikh, 04.12.2023) – szczegóły nowych funkcji Seeing AI (opisy zdjęć, chat z dokumentem).
Meta Newsroom: How We’re Advancing Accessibility at Meta (Maxine Williams, 15.05.2025) – innowacje Meta (Ray-Ban Meta AI, Call a Volunteer).
Portal Gov.pl: Szkolenia z dostępności cyfrowej – harmonogram i opis szkoleń dla administracji (2025).
Rynek-Książki.pl: W czerwcu wchodzi ustawa o dostępności (13.05.2025) – omówienie ustawy wdrażającej EAA i jej wymogów (e-booki, usługi cyfrowe).
Poznan.pl: Światowy Dzień Świadomości Dostępności – cyfrowy świat powinien być otwarty dla każdego (15.05.2025) – artykuł miejski o GAAD, znaczeniu dostępności i EAA.
PZN.org.pl: Klocki LEGO Braille w Polsce! PZN partnerem projektu edukacyjnego (05.05.2025) – informacja o wprowadzeniu LEGO Braille Bricks w Polsce.
Kinaole.co: Wydarzenia i szkolenia 2025 – kalendarium (GAAD konferencja online PFRON 15.05.2025, AutomaticA11y Warszawa 8.05.2025).
EyesOnEyecare.com: OrCam adds augmented AI to MyEye device for low vision (10.01.2024) – nowości OrCam (AI w MyEye i OrCam Read 3 „Just Ask”).
Envision: Updates for Envision Glasses (v2.9.5–2.9.7, marzec-maj 2025) – opis funkcji Envision Ally (asystent AI w okularach).
NFB.org: Making Meta Accessible: Update on Latest Improvements (Jan 2025) – działania Meta w zakresie dostępności (AAT, poprawki w aplikacjach).
Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.