Światowy Dzień Świadomości Dostępności 2025 (Global Accessibility Awareness Day, GAAD) obchodzony 15 maja 2025 roku skłania do refleksji nad tym, jak technologia i działania społeczne mogą uczynić świat bardziej dostępnym dla osób z niepełnosprawnościami – szczególnie niewidomych i słabowidzących. W dobie powszechnej cyfryzacji dostęp do informacji i usług powinien być prawem każdego, a nie przywilejem. Rok 2025 przyniósł szereg przełomowych rozwiązań technologicznych oraz ważnych wydarzeń edukacyjnych i prawnych, które znacząco wpłynęły na życie osób z dysfunkcją wzroku. Poniżej przedstawiamy najważniejsze nowości – od ogłoszeń gigantów technologicznych po inicjatywy społeczne w Polsce i na świecie – z ostatnich miesięcy, ze szczególnym uwzględnieniem innowacji dla osób niewidomych i słabowidzących.
Innowacje technologiczne: nowe funkcje i urządzenia w 2025 roku
Apple: etykiety dostępności, Lupa na Macu i inne nowości ekosystemu
Firma Apple tradycyjnie zaprezentowała w maju – w ramach obchodów GAAD – pakiet nowych funkcji zwiększających dostępność swoich produktów. Najważniejsze z nich dotyczą osób z dysfunkcją wzroku. Etykiety Dostępności („Accessibility Nutrition Labels”) pojawią się w App Store i będą informować przed pobraniem aplikacji, jakie rozwiązania dostępności dane oprogramowanie oferuje – np. obsługę czytnika ekranu VoiceOver, tryb wysokiego kontrastu, powiększenie tekstu czy możliwość sterowania głosem. „To pozwoli użytkownikom ocenić dostępność produktu z wyprzedzeniem” – podkreślił Eric Bridges z American Foundation for the Blind, chwaląc inicjatywę Apple. Dzięki takim etykietom osoby niewidome i słabowidzące zyskają większą pewność, że pobierana aplikacja będzie dla nich przyjazna.
Drugą istotną nowością jest aplikacja Lupa (Magnifier) na komputery Mac. Do tej pory Lupa dostępna była na iPhonie i iPadzie, a teraz trafi także na macOS, co ułatwi osobom słabowidzącym wykorzystanie dużego ekranu komputera do powiększania obiektów i tekstu z otoczenia. Lupa na Macu będzie współpracować z Continuity Camera (umożliwiając użycie kamery iPhone’a jako lupy) oraz z kamerami USB, a także oferować możliwość dostosowania obrazu (np. zmiana kontrastu, filtrów kolorystycznych) i odczytywania dokumentów w trybie Desk View. Co ważne, Lupa na Macu zostanie zintegrowana z nowym Czytnikiem Dostępności (Accessibility Reader) – systemowym trybem ułatwiającym czytanie treści. Pozwoli to na szybkie przełączenie dowolnego tekstu (np. fragmentu strony internetowej czy fizycznego dokumentu uchwyconego kamerą) w tryb wysokiej czytelności lub na odsłuch poprzez syntezator mowy.
Apple rozwija także wsparcie dla pisma Braille’a. Wprowadzona zostanie funkcja Braille Access, która zamieni urządzenia Apple w pełnoprawne notatniki brajlowskie. Użytkownik wyposażony w brajlowski monitor lub klawiaturę będzie mógł pisać notatki i odczytywać treści w Braille’u na iPhonie, iPadzie, Macu, a nawet w zestawie Apple Vision Pro. Co więcej, system obsłuży specjalistyczne zapisy brajlowskie, jak np. brajlowskie oznaczenia matematyczne Nemeth, dzięki czemu osoby niewidome zyskają możliwość wygodnego wykonywania obliczeń i czytania treści naukowych w brajlu. Integracja Braille Access z całym ekosystemem Apple oznacza, że notatki brajlowskie czy pliki BRF (Braille Ready Format) będzie można otwierać i edytować na dowolnym urządzeniu, a także że napisy dialogowe (Live Captions) mogą być wyświetlane bezpośrednio na podłączonym wyświetlaczu brajlowskim.
Wśród nowości warto wymienić również ulepszenia dla osób z resztkami wzroku korzystających z technologii rozszerzonej rzeczywistości. System visionOS dla gogli Apple Vision Pro otrzyma aktualizacje wykorzystujące zaawansowany system kamer tego urządzenia. Pojawi się funkcja Zoom pozwalająca powiększać „na żywo” obraz otoczenia (np. przybliżyć treść z tablicy informacyjnej czy menu w restauracji) wprost w goglach – Vision Pro stanie się więc rodzajem cyfrowej lupy dla osób słabowidzących. Ponadto użytkownicy VoiceOver (czytnika ekranu Apple) w Vision Pro będą mogli skorzystać z funkcji Live Recognition, która wykorzysta uczenie maszynowe do opisu otoczenia: gogle będą potrafiły rozpoznawać obiekty wokół użytkownika, odczytywać napisy i teksty w otoczeniu oraz informować o położeniu osób czy drzwi. Apple udostępni też API dla deweloperów, umożliwiające tworzenie aplikacji oferujących zdalną pomoc na żywo – jako przykład podano integrację z aplikacją Be My Eyes, dzięki czemu poprzez gogle będzie można nawiązać połączenie z asystentem-wolontariuszem, który zobaczy obraz z kamer Vision Pro i pomoże zinterpretować otoczenie. Tego typu rozwiązanie oznacza całkowicie nową jakość w zwiększaniu samodzielności dla osoby niewidomej, która mając na głowie dyskretne gogle, może „widzieć oczami” zarówno sztucznej inteligencji (automatyczne opisy) jak i tymi drugiego człowieka na odległość.
Apple nie zapomniało także o pozostałych usprawnieniach: Czytanie ekranu Apple Watch zostało wzbogacone o funkcję Live Captions, co oznacza, że osoba niesłysząca może teraz na zegarku odczytać napisy generowane w czasie rzeczywistym dla dowolnego dźwięku wychwyconego przez iPhone’a (np. wypowiedzi rozmówcy podczas spotkania). Pojawiły się też Dźwięki Tła (Background Sounds) o rozszerzonych opcjach personalizacji, pomagające w koncentracji oraz Osobisty Głos (Personal Voice), który pozwala osobom tracącym mowę wygenerować swój syntetyczny głos – w 2025 roku proces treningu tego głosu przyspieszono (wystarczy nagranie 10 fraz, by w minutę utworzyć spersonalizowany głos). Choć te ostatnie udogodnienia skierowane są głównie do osób z innymi niepełnosprawnościami (słuchu, mowy czy kognitywnymi), to razem z funkcjami dla niewidomych tworzą spójny obraz zaangażowania Apple w dostępność. Jak podkreślił Tim Cook, “tworzenie technologii dla każdego jest naszym priorytetem” – nowe funkcje są tego dowodem, wykorzystując moc układów Apple Silicon oraz najnowsze osiągnięcia sztucznej inteligencji, by każdy użytkownik mógł “robić to, co kocha”.
Google: sztuczna inteligencja Gemini w służbie niewidomych i ulepszenia na Androidzie
Google również uczcił GAAD 2025 ogłoszeniem szeregu funkcji zaprojektowanych z myślą o dostępności swoich produktów. Największe wrażenie na społeczności osób niewidomych zrobiła aktualizacja czytnika ekranu TalkBack na Androidzie, która integruje zaawansowany model AI Gemini. Już w 2024 roku TalkBack potrafił automatycznie opisywać zawartość obrazów wykorzystując generatywną AI – teraz jednak poszedł o krok dalej. Użytkownik może nie tylko uzyskać opis zdjęcia, ale także zadawać dodatkowe pytania dotyczące obrazu lub nawet całego ekranu. Przykładowo: jeśli znajomy wyśle niewidomemu użytkownikowi fotografię swojej gitary, TalkBack najpierw wygeneruje opis zdjęcia, a następnie pozwoli dopytać o szczegóły – np. markę i kolor instrumentu albo inne obiekty znajdujące się na zdjęciu. Co więcej, pytania można zadawać również o to, co jest aktualnie wyświetlane na ekranie telefonu. Osoba niewidoma robiąca zakupy w aplikacji może zapytać asystenta Gemini np. o materiał, z którego wykonano upatrzony przedmiot, albo czy jest dostępna promocja na dany produkt. TalkBack analizuje wtedy całą widoczną zawartość interfejsu aplikacji i udziela odpowiedzi głosowej – funkcja ta przypomina zdalną pomoc asystenta, z tą różnicą, że tutaj rolę tłumacza obrazu pełni sztuczna inteligencja. Integracja TalkBack z Gemini to ogromne ułatwienie w sytuacjach, gdy tradycyjny czytnik ekranu trafia na element graficzny bez opisu lub na skomplikowany, nieopisany ekran aplikacji – teraz AI może „przeczytać” i wyjaśnić niewidomemu użytkownikowi to, co wcześniej było dla niego niedostępne.
Google wprowadził także usprawnienia w automatycznych napisach na żywo. Funkcja Expressive Captions (Ekspresyjne napisy) wykorzystuje AI do generowania napisów do dowolnego materiału audio odtwarzanego na telefonie i – co nowe – zaznacza również sposób wypowiadania kwestii. Oznacza to, że w napisach pojawią się teraz informacje o intonacji i wydłużonych dźwiękach (np. rozciągnięte „nooooo” zamiast zwykłego „no” gdy ktoś przeciąga zaprzeczenie, albo [WIWAT] w kwadratowych nawiasach, gdy tłum odgłasza wiwaty) oraz oznaczenia dźwięków tła (np. [gwizd], [kaszlnięcie]). Choć przeznaczone to jest głównie dla osób g/Głuchych, to i niewidomi skorzystają – np. lektor czytający napisy może przekazać więcej emocji ze ścieżki dźwiękowej filmu. Nowe Ekspresyjne napisy początkowo dostępne są w języku angielskim (na Androidzie 15+) i pozwalają lepiej zrozumieć „ton” wypowiedzi rozmówcy lub narratora.
Inną zmianą istotną dla dostępności jest aktualizacja przeglądarki Chrome. Do tej pory pliki PDF będące skanami były praktycznie niedostępne dla czytników ekranu bez użycia wbudowanego ocr (nvda, jaws) – Chrome nie rozpoznawał w nich tekstu. W 2025 roku przeglądarka zyskała wbudowane OCR (optyczne rozpoznawanie znaków), dzięki czemu skanowane dokumenty PDF stają się możliwe do odczytania i przeszukania. Gdy użytkownik otworzy zeskanowany dokument, Chrome automatycznie „przeczyta” zawartość obrazków z tekstem i pozwoli np. zaznaczyć fragment tekstu, wyszukać słowo czy uruchomić czytnik ekranu, by odczytał całość na głos. To duże ułatwienie dla studentów i profesjonalistów – osoby niewidome nie są już skazane na zewnętrzne aplikacje do OCR, by poznać treść otrzymanego PDF.
W Androidzie pojawiły się również pomniejsze usprawnienia dla słabowidzących. Page Zoom w mobilnej przeglądarce Chrome umożliwia teraz powiększenie zawartości strony nawet o 300% bez rozbicia układu i konieczności przewijania na boki, przy czym preferencje powiększenia można zapisać globalnie lub dla wybranych witryn. Dodatkowo Android oferuje coraz bogatsze opcje personalizacji kolorów, kontrastu i rozmiaru czcionek w całym systemie, co razem z nowymi funkcjami czytania ekranu czyni go bardziej przyjaznym dla osób z dysfunkcją wzroku.
Warto zauważyć, że Google rozwija dostępność nie tylko w swoich produktach konsumenckich, ale i wspiera programistów. Z okazji GAAD firma opublikowała nowe materiały dla deweloperów tworzących narzędzia rozpoznawania mowy, aby były one bardziej skuteczne dla użytkowników z zaburzeniami mowy czy słuchu. Ponadto w marcu 2025 odbyła się konferencja Google I/O, na której również nie zabrakło wątków dostępności – m.in. zapowiedziano wdrożenie modelu Gemini Nano w Android Auto i Asystencie Google w samochodach, co docelowo może przynieść udoskonalenia funkcji nawigacyjnych dla niewidomych poruszających się samochodem jako pasażerowie. Wszystkie te działania wpisują się w strategię Google „AI for Good”, gdzie sztuczna inteligencja ma wspierać włączanie społeczne osób z niepełnosprawnościami.
Microsoft: Seeing AI na Androidzie i „inteligentny” Narrator Windows
Microsoft kontynuuje wieloletnią misję uczynienia swoich produktów jak najbardziej dostępnymi, czemu poświęcona była m.in. doroczna konferencja Ability Summit 2025 (15. edycja, marzec 2025). Dla osób niewidomych kluczowe są dwie nowości: rozszerzenie działania aplikacji Seeing AI oraz plany wzbogacenia czytnika ekranu Windows o funkcje AI.
Popularna aplikacja Seeing AI, będąca osobistym asystentem osób niewidomych, doczekała się na koniec 2024 roku premiery na Androidzie. Dotychczas Seeing AI funkcjonował tylko na iPhone’ach, od grudnia jest dostępny także w Google Play – co otworzyło dostęp do niego milionom kolejnych użytkowników smartfonów na całym świecie. Wraz z debiutem androidowym aplikacja zyskała nowe funkcje oparte na generatywnej AI. Seeing AI potrafi teraz tworzyć bogatsze opisy zdjęć – po zrobieniu zdjęcia sceny użytkownik może wybrać opcję „więcej informacji”, a aplikacja wygeneruje szczegółowy opis zawartości (w praktyce kilka zdań zamiast dotychczasowego jednego), uwzględniając więcej detali otoczenia. Ponadto dodano przełomową funkcję „Chatuj z dokumentem”: po zeskanowaniu wydruku Seeing AI nie tylko odczyta jego treść, ale pozwoli zadać pytania dotyczące dokumentu. Przykładowo, użytkownik skanuje długi rachunek – zamiast słuchać całego dokumentu, może od razu zapytać asystenta o cenę konkretnego produktu na paragonie albo poprosić o podsumowanie najważniejszych pozycji. Aplikacja „rozumie”, co zeskanowała, dzięki integracji z modelami językowymi AI (opracowanymi we współpracy Microsoft–OpenAI) i potrafi na tej podstawie prowadzić rozmowę z użytkownikiem. Te usprawnienia – bogate opisy scen i tryb czatu – zostały najpierw dodane do wersji iOS Seeing AI, a od grudnia 2024 znalazły się także w wersji na Androida. Rozszerzenie dostępności Seeing AI na drugi co do popularności system mobilny jest ogromnym krokiem: jak stwierdził Saqib Shaikh, lider projektu (sam będący osobą niewidomą), misją Seeing AI od początku było dostarczanie „oczu” tam, gdzie ich brakuje, a teraz ta możliwość stała się dostępna dla jeszcze szerszej społeczności.
Drugim istotnym obszarem jest środowisko Windows 11. Microsoft ogłosił, że czytnik ekranu Narrator zostanie wzbogacony o funkcje sztucznej inteligencji – podobnie jak konkurencyjne rozwiązania, będzie potrafił generować opisy elementów graficznych i obrazów na ekranie. Zapowiedź padła podczas Ability Summit i dotyczy wersji testowych Windows Insider wiosną 2025, co sugeruje, że wkrótce użytkownicy Windowsa mogą spodziewać się aktualizacji Narratora opartej na mechanizmach AI. „AI wkracza do Narratora” – tak ujęła to Jenny Lay-Flurrie, szefowa ds. dostępności Microsoft, zapowiadając bogate opisy obrazów tworzone przez sztuczną inteligencję w czytniku ekranu Windows. Funkcja ta pozwoli osobom niewidomym uzyskać automatyczny opis zdjęcia lub grafiki, na którą natrafią – czy to w przeglądarce, czy w dowolnej aplikacji na komputerze – co znacznie ułatwi korzystanie z Internetu i dokumentów zawierających obrazy bez alternatywnego tekstu.
Microsoft inwestuje również w tworzenie bardziej inkluzywnych modeli AI poprzez partnerstwa z organizacjami społecznymi. W październiku 2024 firma nawiązała współpracę z twórcami aplikacji Be My Eyes (łączącej niewidomych wolontariackimi „asystentami wideo”), przekazując środki i narzędzia do rozwijania zbiorów danych uwzględniających doświadczenia osób z dysfunkcją wzroku. Celem jest ulepszenie algorytmów rozpoznawania obrazów – tak by sztuczna inteligencja lepiej radziła sobie z nietypowymi ujęciami i sytuacjami, z jakimi mierzą się niewidomi użytkownicy (np. zdjęcia o słabym świetle, nieostre, przedstawiające codzienne czynności). Według Microsoft, praca z danymi pochodzącymi od społeczności niewidomych pomoże uczynić modele AI bardziej inkluzywnymi dla setek milionów osób niewidomych i słabowidzących na świecie. Ta inicjatywa to kolejny element strategii firmy polegającej na „projektowaniu AI z myślą o najszerszej grupie odbiorców”.
Warto wspomnieć, że Ability Summit 2025 przyniósł też inne nowinki – choć dotyczące głównie niepełnosprawności ruchowych i neurotypowych. Microsoft zaprezentował m.in. Xbox Adaptive Joystick (nowy kontroler dla graczy z ograniczoną sprawnością ruchową) oraz wytyczne projektowania dostępnych opakowań produktów (tak, aby np. osoby niewidome mogły łatwiej otworzyć pudełko i znaleźć w nim informacje). Te działania pokazują holistyczne podejście firmy: od sprzętu, przez oprogramowanie, po dokumentację – wszystko powinno być dostępne. W obszarze wzroku kluczowe jest jednak, że ekosystem Microsoftu coraz bardziej otwiera się na niewidomych użytkowników Androida i ulepsza wsparcie na PC. Seeing AI stał się aplikacją multiplatformową, a Narrator czeka transformacja dzięki AI – to znaczące, systemowe zmiany, które z pewnością odczują użytkownicy w 2025 roku.
Meta (Facebook): asystent w okularach i pomoc wolontariuszy na żądanie
Korporacja Meta (właściciel Facebooka, Instagrama i WhatsAppa) w 2025 roku skupiła się na wykorzystaniu sztucznej inteligencji oraz rozszerzonej rzeczywistości do poprawy dostępności swoich usług. W czasie bliskim Dniu światowej świadomości dostępności 2025 firma ogłosiła kilka inicjatyw, które „mogą mieć szczególną wartość dla osób z niepełnosprawnościami” – jak zaznaczyła Maxine Williams, VP ds. dostępności w Meta.
Najciekawszą nowością są usprawnienia okularów Ray-Ban Meta, czyli inteligentnych okularów wyposażonych w kamerę i asystenta głosowego Meta AI. Od maja 2025 użytkownicy tych okularów mogą włączyć specjalny tryb udzielania bardziej szczegółowych odpowiedzi opisujących otoczenie. Mówiąc prościej, jeśli osoba niewidoma nosząca Ray-Ban Meta zapyta asystenta „Co jest przede mną?”, otrzyma teraz znacznie bogatszy opis sceny niż wcześniej – AI opisze obiekty, ich cechy i wzajemne położenie znacznie dokładniej. Funkcję tę można aktywować w ustawieniach urządzenia jako opcję „Detailed Responses” (odpowiedzi szczegółowe). Przykład: idąc ulicą, użytkownik może zapytać okularów o opis najbliższego otoczenia – Meta AI może odpowiedzieć np. „Przed Tobą znajduje się przejście dla pieszych z sygnalizacją świetlną, po lewej stronie jest kiosk z gazetami, a kilka kroków dalej zaczyna się wejście do parku z widoczną ławką”. Taka szczegółowość opisu może znacznie zwiększyć samodzielność osób niewidomych, dając im „wirtualny wzrok” poprzez dyskretne urządzenie. Co ważne, Meta AI na okularach działa w trybie konwersacyjnym – użytkownik może zadawać pytania uzupełniające. Jeśli asystent powie np. o sygnalizacji świetlnej, niewidomy może dopytać „czy światło jest teraz zielone?” – zakładając, że system ma dostęp do obrazu w czasie rzeczywistym, mógłby udzielić takiej odpowiedzi. Meta deklaruje, że funkcja szczegółowych odpowiedzi będzie stopniowo udostępniana użytkownikom najpierw w USA i Kanadzie, a docelowo w kolejnych krajach.
Kolejnym przełomem od Meta jest usługa „Call a Volunteer” (Wezwij wolontariusza). To rozwiązanie opracowane we współpracy z twórcami aplikacji Be My Eyes, zintegrowane z Meta AI. Pozwala ono połączyć niewidomego użytkownika wideo-rozmową z widzącym wolontariuszem, który przez kamerę (np. w okularach Ray-Ban lub w smartfonie) widzi to, co użytkownik, i służy pomocą w czasie rzeczywistym. Funkcja ta przypomina działanie samej aplikacji Be My Eyes, ale Meta wdraża ją bezpośrednio w swoich produktach. W maju 2025 ogłoszono, że „Call a Volunteer” zostanie uruchomione we wszystkich 18 krajach, w których dostępny jest asystent Meta AI (a więc m.in. w USA, większości krajów europejskich, prawdopodobnie w późniejszym czasie również w Polsce). Dla użytkownika oznacza to, że np. w dowolnym momencie używania okularów czy komunikatora Meta będzie mógł wydać polecenie połączenia z wolontariuszem – i w kilkadziesiąt sekund zostanie skontaktowany z osobą gotową pomóc (np. odczytać treść listu z ekranu kamery, sprawdzić datę ważności produktu spożywczego czy pokierować podczas dojazdu we właściwe miejsce). Meta podkreśla, że rozwiązanie to łączy AI i ludzi: najpierw próbujemy uzyskać pomoc od sztucznej inteligencji (asystent Meta może automatycznie opisać scenę), ale jeśli to niewystarczające – można jednym kliknięciem „wezwać człowieka”. Taka synergia ma zapewnić pełniejsze wsparcie dostępności.
Meta prowadzi też szersze prace badawcze, które w przyszłości mogą przełożyć się na poprawę jakości życia osób z niepełnosprawnościami wzroku. W 2025 roku firma kontynuuje eksperymenty nad interfejsami neuronowymi i urządzeniami do sterowania za pomocą sygnałów mięśniowych (sEMG). Choć projekty te – jak prototypowa opaska na nadgarstek wykrywająca impulsy nerwowe – skierowane są głównie do osób z paraliżem kończyn (by umożliwić im obsługę urządzeń elektronicznych „siłą myśli”), to ogólny kierunek wskazuje, że przyszłe interfejsy AR/VR mają być projektowane z myślą o różnorodności użytkowników. Meta stara się też uczynić metaverse bardziej dostępnym: w goglach Quest wprowadzono na poziomie systemowym transkrypcję mowy na żywo (Live Captions) oraz odwrotnie – generowanie mowy syntetycznej z tekstu (Live Speech) podczas spotkań w wirtualnej rzeczywistości. Choć te funkcje dotyczą głównie osób niesłyszących lub niemówiących, pokazują trend tworzenia inkluzywnego cyfrowego środowiska, w którym każdy – niezależnie od zmysłów – może uczestniczyć. W kontekście osób niewidomych warte uwagi są prace Meta nad ulepszaniem automatycznych opisów obrazów (tzw. Automatic Alt Text): już w poprzednich latach firma chwaliła się modelami potrafiącymi rozpoznawać na zdjęciach nawet 10 razy więcej obiektów niż wersje sprzed kilku lat. W 2025 roku te modele są wykorzystywane na Facebooku i Instagramie, generując opisy dla fotografii umieszczanych przez użytkowników (np. informacja: „obraz może przedstawiać: 2 osoby uśmiechnięte, na zewnątrz, prawdopodobnie na plaży” pojawia się jako opis dla technologii asystujących) – co stanowi nieocenioną pomoc dla niewidomych w korzystaniu z mediów społecznościowych. Meta deklaruje dalszy rozwój tych algorytmów, m.in. poprzez udostępnienie ich jako otwartych modeli (LLaMA) społeczności programistów, by niezależne aplikacje również mogły z nich korzystać.
Podsumowując, działania Meta w 2025 skupiają się na dostarczaniu niewidomym użytkownikom narzędzi łączących świat rzeczywisty z wirtualnym. Inteligentne okulary z opisującym otoczenie AI, natychmiastowy kontakt z wolontariuszem oraz poprawa dostępności treści na platformach społecznościowych – to wszystko przybliża nas do świata, w którym osoba z dysfunkcją wzroku będzie mogła z równą swobodą jak inni korzystać z komunikacji, rozrywki i orientować się w przestrzeni.
Samsung: inteligentny dom dostępny dzięki AI Vision i tryb QR
Wśród największych firm technologicznych Samsung również podejmuje działania na rzecz dostępności, choć w nieco innym zakresie. W 2025 roku koreański gigant skupił się na uczynieniu inteligentnego domu bardziej przyjaznym dla osób z niepełnosprawnością wzroku. Podczas targów CES 2025 Samsung zaprezentował koncepcję „AI for All” – sztucznej inteligencji obecnej wszędzie i dla każdego, co oznacza integrację funkcji AI we wszystkich sprzętach domowych, również w kontekście ich dostępności.
Najbardziej namacalnym efektem tych działań jest aktualizacja aplikacji Samsung AI Vision (Sullivan Plus), służącej jako asystent w rozpoznawaniu obrazu. Pod koniec 2024 r. (tuż przed wejściem w 2025) aplikacja ta otrzymała nowatorski tryb „Home Appliance QR Mode”. Pozwala on osobom niewidomym skanować specjalne kody QR umieszczone na sprzętach AGD, aby uzyskać głosowe informacje i instrukcje obsługi. Innymi słowy, Samsung zaczął oznaczać swoje urządzenia (pralki, lodówki, kuchenki itd.) unikalnymi kodami – po nakierowaniu na nie aparatu smartfona aplikacja rozpoznaje urządzenie i przekazuje użytkownikowi komunikaty ułatwiające korzystanie z niego. Na przykład, skanując kod przy panelu pralki, usłyszymy opis ułożenia pokręteł i przycisków, dostępne programy prania i wskazówki, jak wybrać odpowiedni program. Dla lodówki kod QR może odczytać ustawioną temperaturę lub powiadomić o otwartych drzwiach. Jest to pomost między światem fizycznym a cyfrowym dla osób niewidomych, zwiększający ich niezależność w codziennych czynnościach domowych. Samsung podkreśla, że to rozwiązanie jest krokiem milowym w projektowaniu urządzeń AGD, wyznaczając nowy standard branżowy – tak, by interakcja z każdym urządzeniem w domu była możliwa niezależnie od tego, czy widzimy panel kontrolny.
Wdrożenie trybu QR w aplikacji Sullivan Plus zbiega się z szerszym trendem: już wcześniej Samsung eksperymentował z technologiami dla osób słabowidzących, np. trybem Relumino w telewizorach (specjalny tryb wysokiego kontrastu i obrysów krawędzi, poprawiający czytelność obrazu dla widzów z niedowidzeniem). W 2025 rozwiązania tego typu stają się bardziej dojrzałe i zintegrowane – aplikacja AI Vision/Sullivan ma być uniwersalnym narzędziem wspierającym użytkownika w rozpoznawaniu nie tylko tekstu i scen (co już robiła), ale także interfejsów urządzeń domowych. Samsung deklaruje również rozbudowę ekosystemu SmartThings o funkcje ułatwień dostępu – np. możliwość sterowania sprzętami domowymi za pomocą asystenta głosowego z uwzględnieniem informacji zwrotnych istotnych dla niewidomych (jak odczytywanie aktualnego ustawienia czy potwierdzanie wykonania akcji dźwiękiem). Wszystko to składa się na wizję „Connected Living” bez barier: dom przyszłości ma być w pełni dostępny dla każdego domownika, bez względu na ograniczenia wzroku.
Warto dodać, że Samsung angażuje się też społecznie – w 2025 kontynuowano program „Samsung Accessibility Grant”, w ramach którego firma wspiera startupy i organizacje pozarządowe pracujące nad technologiami asystującymi. Przykładem jest dofinansowanie projektu wykorzystującego tagi NaviLens (specjalne kolorowe kody QR czytelne z daleka) w przestrzeni publicznej, czy integracja rozwiązań firmy ARxVision (producenta opaski-asystenta dla niewidomych) z aplikacjami w ekosystemie Microsoft i Android. Choć te działania odbywają się trochę w tle głównego nurtu, pokazują istotną rzecz: dostępność stała się polem współpracy gigantów z mniejszymi podmiotami, by szybciej dostarczać innowacje tym, którzy najbardziej ich potrzebują.
Innowacyjne startupy i mniejsze firmy: nowe urządzenia i aplikacje dla niewidomych
Oprócz działań wielkich korporacji, rok 2025 obfituje w nowości od wyspecjalizowanych firm technologicznych skupionych na pomocy osobom niewidomym i słabowidzącym. Choć często mniej znane szerokiej publiczności, to właśnie te mniejsze innowacyjne firmy nierzadko dostarczają przełomowych rozwiązań asystujących.
OrCam Technologies, pionier w dziedzinie noszonej elektroniki dla niewidomych, zaprezentował ulepszenia swoich flagowych produktów. OrCam MyEye – niewielkie urządzenie mocowane magnetycznie do okularów, które kamerą „widzi” tekst i otoczenie, czyta na głos i rozpoznaje twarze – otrzymało w 2024 r. udoskonalony moduł AI, nazwany roboczo „augmented AI companion”. Dzięki niemu MyEye zyskał bardziej naturalną interaktywność: urządzenie nie tylko poinformuje użytkownika, co ma przed sobą (np. odczyta nazwę produktu czy rozpozna znajomą osobę), ale pozwoli na dynamiczny dialog. Użytkownik może np. stuknąć w urządzenie i zapytać: „Co to za budynek po lewej stronie?” lub „Jaki jest nominał tego banknotu?” – a OrCam MyEye udzieli odpowiedzi głosowej, o ile kamera „widzi” dany obiekt. To przejście od działania reaktywnego (tylko na komendę „odczytaj to”) do proaktywnie wspomagającego orientację. Firma podkreśla, że nowy moduł AI w MyEye posługuje się językiem naturalnym, co oznacza komunikaty bardziej przypominające rozmowę i otwiera możliwość zadawania dodatkowych pytań. Ponadto OrCam rozwija funkcje personalizacji – urządzenie lepiej dostosowuje się do preferencji użytkownika, np. może uczyć się, jakie informacje są dla danej osoby istotne (jedni wolą usłyszeć pełen opis sceny, inni tylko konkrety). Jednocześnie OrCam zapewnił, że ulepszona AI nie wymaga połączenia z internetem, działając w pełni offline na urządzeniu – co jest ważne dla prywatności i wygody użytkowników.
Drugim ważnym produktem firmy jest OrCam Read 3 – przenośny czytnik do tekstu dla osób z dysfunkcją wzroku. Wprowadzony w listopadzie 2023 OrCam Read 3 to kieszonkowe urządzenie przypominające długopis, które skanuje drukowany tekst (np. książkę, dokument) i natychmiast odczytuje go głosem syntetycznym. W 2024 został on wzbogacony o funkcję „Just Ask”. Pozwala ona, podobnie jak w Seeing AI, zadawać pytania dotyczące zeskanowanego tekstu – na przykład po zeskanowaniu artykułu użytkownik może zapytać: „Podaj krótkie podsumowanie tego artykułu” albo „Jak nazywa się bohater wspomniany w drugim akapicie?”. OrCam Read, korzystając z wbudowanej AI, udzieli odpowiedzi bez konieczności słuchania całości materiału. Co więcej, jeśli użytkownik czegoś nie dosłyszał lub nie zrozumiał, może dopytać – urządzenie utrzymuje kontekst rozmowy. Funkcja „Just Ask” czyni z OrCam Read interaktywnego lektora i asystenta nauki – jest to pomocne np. dla uczniów i studentów z dysfunkcją wzroku, którzy mogą w ten sposób szybciej przyswajać treści z podręczników (pytając o definicje, daty, itp.). Podobnie jak MyEye, także OrCam Read działa offline i lokalnie, co oznacza, że całe przetwarzanie języka odbywa się na urządzeniu – to imponujące osiągnięcie inżynierskie, zważywszy na małe rozmiary sprzętu.
Również holenderski startup Envision (twórca inteligentnych okularów Envision Glasses) wprowadził na rynek coś nowego. W marcu 2025 ogłoszono oficjalne wdrożenie długo oczekiwanej funkcji Envision Ally (ally) – osobistego asystenta AI dostępnego w okularach Envision. Ally to zintegrowany z okularami model AI, który ma za zadanie wspierać użytkownika w codziennych czynnościach, odpowiadając na pytania i dostarczając kontekstowych informacji. W praktyce posiadacz Envision Glasses może teraz wydać polecenie głosowe lub gest i zadać pytanie dotyczące otoczenia – podobnie jak w rozwiązaniu Meta, ale tutaj działającym bezpośrednio w urządzeniu Envision. Co więcej, Envision pozwala tworzyć wiele „osobowości” asystenta – użytkownik może wybrać np. ally mówiącego po hiszpańsku albo ally o bardziej żartobliwym tonie – i przełączać się między nimi w zależności od potrzeb. Rozwiązanie to jest o tyle ciekawe, że Envision współpracuje z wieloma serwisami – np. integruje funkcje opisów obrazów, odczytywania tekstu, a nawet może łączyć się z Aira (usługą profesjonalnych asystentów na żywo) lub z wolontariuszami. Zgodnie z dewizą firmy, „to jak posiadanie własnego asystenta badawczego, gotowego pomóc jak przyjaciel lub współpracownik”. Ally był testowany w wersjach beta w 2024 roku, a od marca 2025 stał się dostępny dla wszystkich posiadaczy nowszych wersji okularów Envision w ramach subskrypcji. Pierwsi użytkownicy chwalą go za możliwość np. podyktowania polecenia „Znajdź mi na półce puszkę kukurydzy” – okulary skanują obraz półki sklepowej i informują, na której wysokości znajduje się poszukiwany produkt.
Oprócz tego na rynku pojawiają się coraz to nowe aplikacje i urządzenia: warto wspomnieć chociażby Lazarillo (aplikacja nawigacyjna, która w 2025 wzbogaciła się o funkcje indoor navigation z wykorzystaniem beaconów w centrach handlowych), RightHear (system powiadomień dźwiękowych w przestrzeni publicznej, rozszerzony o mapy kampusów uniwersyteckich) czy rozwój białych lasek wyposażonych w GPS i czujniki ultradźwiękowe (eksperymentalne projekty w Japonii i USA). Każde z tych rozwiązań adresuje inny aspekt wyzwań, z jakimi mierzą się osoby z dysfunkcją wzroku – od mobilności, przez dostęp do informacji, po edukację. To pokazuje, że sektor technologii asystujących kwitnie, często dzięki zaangażowaniu samych zainteresowanych (wiele startupów założonych jest przez niewidomych inżynierów lub we współpracy z nimi) i wsparciu programów grantowych dużych firm czy rządów.
Wydarzenia edukacyjne, społeczne kampanie i zmiany systemowe w 2025 roku
Globalne inicjatywy i obchody GAAD 2025
Rok 2025 przyniósł nie tylko rozwiązania technologiczne, ale też ważne wydarzenia zwiększające świadomość społeczną na temat dostępności. Global Accessibility Awareness Day (GAAD) obchodzony w trzeci czwartek maja (w 2025 dokładnie 15 maja) stał się okazją do organizacji licznych konferencji, warsztatów i kampanii na całym świecie – zarówno przez gigantów technologicznych, jak i organizacje non-profit czy instytucje państwowe. Wiele z opisanych wyżej nowości (Apple, Google, Meta) zostało ogłoszonych właśnie w kontekście podkreślenia i uhonorowania GAAD jako dowód zaangażowania firm w budowanie produktów inkluzywnych. Ale GAAD to również setki oddolnych inicjatyw: w mediach społecznościowych popularność zdobyły akcje typu #GAADPledge, gdzie programiści zobowiązywali się poprawić dostępność swoich stron czy aplikacji, a wolontariusze oferowali darmowe audyty dostępności dla małych biznesów.
Global Disability Summit 2025 – międzynarodowy szczyt na rzecz osób z niepełnosprawnościami – odbył się na początku kwietnia (online, współorganizowany przez rządy Niemiec i Jordanii) i zgromadził przedstawicieli ponad 160 krajów. W trakcie szczytu zaprezentowano dobre praktyki i inicjatywy z całego świata, od technologii po rozwiązania prawne, mające na celu skuteczniejsze włączanie osób z niepełnosprawnościami w życie społeczne. Szczególny nacisk położono na wykorzystanie sztucznej inteligencji w przełamywaniu barier – co stanowiło doskonałe tło dla nowości, o których mówiono chwilę później przy okazji GAAD. Podczas tego wydarzenia ogłoszono m.in. powstanie globalnej Platformy Dostępności Cyfrowej, mającej zrzeszać deweloperów tworzących otwarte narzędzia dla dostępności (od czytników ekranu po syntezatory mowy w różnych językach). Inicjatywy takie pokazują, że dostępność przestaje być sprawą niszową – staje się tematem międzynarodowych zobowiązań i wspólnych działań rządów oraz sektora prywatnego.
Nie można też zapomnieć, że 2025 rok to okrągła, 200. rocznica opracowania alfabetu Braille’a. Louis Braille opublikował swój system pisma punktowego dla niewidomych w roku 1825 – dwieście lat później brajl nadal jest fundamentalnym narzędziem komunikacji i edukacji dla tysięcy ludzi. W wielu krajach (w tym w Polsce) jubileusz ten stał się okazją do promowania nauki brajla wśród dzieci i młodzieży oraz przypomnienia społeczeństwu o jego znaczeniu. Polski Związek Niewidomych (PZN) zainaugurował w maju kampanię „Promuj brajla”, połączoną z konkursem na prace literackie pisane brajlem – by zachęcić osoby niewidome do doskonalenia tej umiejętności i jednocześnie uświadomić osobom widzącym, że brajl w dobie technologii bynajmniej nie odchodzi do lamusa. W wielu bibliotekach w kraju odbyły się okolicznościowe wydarzenia, na których prezentowano książki brajlowskie, tabliczki do pisania i nowoczesne monitory brajlowskie, pozwalając odwiedzającym na poznanie „tajemnic sześciopunktu”. Jubileusz brajla splótł się symbolicznie z ekspansją nowoczesnych technologii: np. Fundacja LEGO wprowadziła w 2025 r. zestawy LEGO Braille Bricks w wersji polskojęzycznej – specjalne klocki z wypustkami ułożonymi w litery brajlowskie, służące dzieciom do nauki alfabetu przez zabawę. Polska dołączyła do ponad 30 krajów korzystających z tej formy edukacji – PZN został oficjalnym partnerem dystrybucji klocków brajlowskich w naszym kraju, a od stycznia 2025 ruszyły szkolenia instruktorów tej metody. To piękny przykład połączenia tradycji (brajl) z nowoczesnością (klocki i globalna współpraca) – i dowód na to, że dostępność w edukacji przybiera coraz ciekawsze formy.
Polska: wdrażanie Europejskiego Aktu o Dostępności i lokalne inicjatywy
W Polsce rok 2025 upływa pod znakiem intensywnych przygotowań do wdrożenia Europejskiego Aktu o Dostępności (EAA). Akt ten, przyjęty jako dyrektywa UE w 2019 r., wyznaczył standardy dostępności produktów i usług na jednolitym rynku europejskim. Polska implementowała te przepisy krajową Ustawą z 26 kwietnia 2024 r. o zapewnianiu dostępności niektórych produktów i usług, która wchodzi w życie z dniem 28 czerwca 2025 r.. Oznacza to, że od połowy 2025 roku szereg prywatnych przedsiębiorców zostanie prawnie zobowiązanych do spełniania wymogów dostępności swoich ofert – od bankomatów i terminali płatniczych, przez strony e-commerce, po e-booki i czytniki książek elektronicznych. To ogromna zmiana systemowa, ponieważ dotąd w Polsce twarde wymogi dostępności dotyczyły głównie sektora publicznego (ustawa o dostępności cyfrowej z 2019 r. obejmowała urzędy, samorządy itp. – głównie strony WWW i aplikacje mobilne administracji). W tym zakresie nadal jest wiele do zrobienia, ale teraz ten proces ma szansę przyspieszyć, bo dostępność staje się obowiązkiem również dla sektora prywatnego – banków, firm telekomunikacyjnych, wydawców, transportu, dostawców usług cyfrowych itd..
W pierwszych miesiącach 2025 trwały więc intensywne działania informacyjne i szkoleniowe, by przygotować rynek na nowe wymogi. Ministerstwo Cyfryzacji oraz PFRON organizowały bezpłatne webinaria i warsztaty online dla przedsiębiorców, przybliżające zapisy ustawy i praktyczne sposoby ich realizacji. Przykładowo, PFRON 15 maja (w GAAD) zorganizował ogólnopolską konferencję o dostępności cyfrowej, odbywającą się online i otwartą dla wszystkich zainteresowanych – skupiono się na nowych obowiązkach firm i metodach wdrażania dostępności w procesie projektowania produktów. Również organizacje branżowe uruchomiły własne inicjatywy: Związek Banków Polskich powołał grupę roboczą ds. dostępności usług finansowych, która opracowała wytyczne dla banków spółdzielczych i komercyjnych (dotyczące m.in. dostępnych bankomatów z syntezą mowy i udogodnień dla osób niewidomych w bankowości internetowej) – efektem były szkolenia dla kadry banków w pierwszej połowie 2025. Wydawcy książek z kolei, we współpracy z Biblioteką Centralną PZN, przygotowali plan dostosowania formatów e-booków do standardu EPUB3 Accessibility – tak by nowe publikacje elektroniczne wydawane po czerwcu 2025 spełniały wymagania dostępności (m.in. poprawne oznaczanie struktury, dołączanie opisów do ilustracji i wykresów). Portal Rynek-Książki donosił, że po 28 czerwca wszystkie nowo wprowadzane do obrotu e-booki powinny mieć „spełnione ogólne wymagania dostępności”, a także specyficzne wymagania dodatkowe dotyczące książek elektronicznych – co stawia wyzwanie przed wydawcami, ale też otwiera dostęp do literatury dla szerszego grona odbiorców.
Administracja publiczna, chcąc dać dobry przykład, już w poprzednich latach prowadziła program „Dostępność Plus”, a w jego ramach liczne szkolenia. W 2025 kontynuowano cykl „Dostępne środy” – cotygodniowych webinariów dla urzędników i projektantów stron, organizowanych przez Ministerstwo Funduszy i Polityki Regionalnej. Tematyka obejmowała m.in. dostępność multimediów, pisanie prostym językiem czy tworzenie dostępnych dokumentów PDF. Szkolenia te cieszyły się dużym zainteresowaniem, bo wiele jednostek samorządu terytorialnego zdało sobie sprawę, że dostępność to proces ciągły, a nie jednorazowe działanie – treści na stronach są stale aktualizowane i trzeba dbać, by nowo dodawane informacje (np. pliki w BIP czy ogłoszenia) także były dostępne. Podkreślano to zresztą w komunikatach GAAD: „dostępność cyfrowa to obowiązek prawny, ale i szansa dotarcia do szerszego grona odbiorców” – jak napisano w oficjalnej informacji Miasta Poznania z okazji GAAD. Owa szansa oznacza np. pozyskanie nowych klientów o szczególnych potrzebach czy budowanie pozytywnego wizerunku firmy odpowiedzialnej społecznie.
Organizacje pozarządowe w Polsce również były bardzo aktywne. PZN – największa organizacja zrzeszająca osoby niewidome – prowadził w 2025 cykl projektów dofinansowanych z PFRON, m.in. „Komputer bez tajemnic” (szkolenia z obsługi technologii asystujących dla seniorów tracących wzrok) i „Aktywność cyfrowa” (warsztaty z korzystania z bankowości elektronicznej i e-usług dla osób 50+ z dysfunkcją wzroku). Dużo uwagi poświęcono też edukacji najmłodszych: wspomniany program LEGO Braille Bricks to jedno, ale obok niego Fundacja „Szansa dla Niewidomych” organizowała integracyjne pikniki dla dzieci widzących i niewidomych, gdzie uczyły się one wspólnie alfabetu brajla i porozumiewania się. Kampania społeczna „WidzialniPełnosprawni” (zainicjowana przez Fundację Widzialni) w mediach tradycyjnych pokazywała codzienne życie osób niewidomych korzystających z nowoczesnych technologii – np. spot telewizyjny przedstawiał młodą niewidomą programistkę, która dzięki czytnikowi ekranu i urządzeniom brajlowskim pracuje w międzynarodowej firmie IT. Celem było przełamanie stereotypów i uświadomienie pracodawcom, że dostępność technologii przekłada się na większą niezależność i aktywność zawodową osób z niepełnosprawnościami.
W świecie kultury również działo się sporo. Krakowski Festiwal Filmowy 2025 po raz pierwszy zapewnił audiodeskrypcję na żywo dla wybranych pokazów filmowych – widzowie niewidomi otrzymywali w kinie słuchawki, przez które lektor opisywał akcję filmu. Z kolei w Płocku odbyła się już XV edycja Festiwalu Kultury i Sztuki dla Osób Niewidomych (FKiS) – unikatowej imprezy, podczas której prezentowane są spektakle teatralne z audiodeskrypcją, koncerty w ciemności i wystawy dotykowe. Festiwal ten (27 września – 3 października 2025) ugości artystów niewidomych z kilkunastu krajów i ma szansę przyciągnąć również publiczność widzącą, chcącą doświadczyć sztuki w niekonwencjonalny sposób – np. „oglądając” obrazy wyłącznie dotykiem lub słuchając koncertu bez udziału wzroku. Takie wydarzenia promują ideę dostępności uniwersalnej: pokazują, że dostosowania (jak audiodeskrypcja) nie są „ciężarem”, ale wzbogacają odbiór sztuki dla wszystkich – bo pozwalają dostrzec nowe elementy (widzowie widzący często chwalą audiodeskrypcję za to, że zwraca uwagę na detale, które umykają).
Na szczeblu europejskim warto zauważyć utworzenie w 2025 roku Europejskiego Centrum Zasobów Dostępności (AccessibleEU) – instytucji powołanej przez Komisję Europejską jako platformy wymiany wiedzy o dostępności. Choć centrala mieści się w Brukseli, z polskiej perspektywy istotne jest to, że Centrum zbiera i publikuje w wielu językach praktyczne wytyczne dla wdrażania EAA, prowadzi bazy ekspertów i dobrych praktyk. Dzięki temu polskie firmy i urzędy mogą łatwiej czerpać z doświadczeń innych krajów. AccessibleEU organizuje też szkolenia online – w 2025 kilka z nich odbyło się w języku polskim, przy współpracy z Ministerstwem Rozwoju. To pokazuje, że w kwestii dostępności współpraca międzynarodowa nabiera tempa, a Polska jest jej aktywnym uczestnikiem.
Spojrzenie w przyszłość
Obchody GAAD 2025 uwidoczniły jedno: dostępność przeszła drogę od niszowego zagadnienia do głównego nurtu innowacji technologicznych i polityk publicznych. Nowinki takie jak opisy generowane przez AI czy inteligentne okulary dla niewidomych jeszcze kilka lat temu brzmiały jak science-fiction – dziś stają się realnymi narzędziami zmieniającymi życie. Jednocześnie rośnie świadomość prawna i społeczna: biznes dostosowuje swoje usługi nie tylko z obawy przed sankcjami prawnymi, ale coraz częściej z przekonania, że to się po prostu opłaca i jest słuszne. Osoby z niepełnosprawnościami wzroku są coraz bardziej widoczne w przestrzeni publicznej jako pracownicy, klienci, twórcy – a nie wyłącznie jako beneficjenci pomocy.
Mimo tych pozytywnych trendów, wiele pozostaje do zrobienia. Technologia asystująca musi być dostępna finansowo – stąd ważne będą programy dofinansowań (jak choćby „Aktywny Samorząd” PFRON w Polsce, finansujący zakup sprzętu dla osób z dysfunkcją wzroku). Standardy dostępności muszą nadążyć za rozwojem techniki – pojawiają się już dyskusje nad „WCAG 3.0”, kolejną generacją wytycznych dostępności web, która uwzględni np. treści wirtualnej i rozszerzonej rzeczywistości. Ale obserwując rok 2025, można mieć nadzieję, że zarówno wielkie firmy, jak i ustawodawcy oraz społeczeństwo będą podążać we właściwym kierunku mimo potknięć i trudności. Cyfrowy świat powinien być otwarty dla każdego – to hasło z poznańskiej informacji miejskiej chyba najlepiej oddaje istotę GAAD. Dzięki wysiłkom całego ekosystemu – od inżynierów po aktywistów – ta wizja staje się coraz bardziej rzeczywistością.
Źródła:
- Apple Newsroom: Apple unveils powerful accessibility features coming later this year (May 2025) – nowości Apple (Etykiety Dostępności, Lupa na Mac, Braille Access, itd.)
- Investing.com (pl): Apple zwiększy dostępność dzięki nowym etykietom w App Store i funkcjom dla Maca – omówienie funkcji Apple w j. polskim.
- Google Blog: New AI and accessibility updates across Android and Chrome (15.05.2025) – ogłoszenie funkcji TalkBack z Gemini, Expressive Captions.
- TechCrunch: Google rolls out new AI and accessibility features to Android and Chrome (15.05.2025) – informacje o usprawnieniach TalkBack, OCR w Chrome, powiększaniu strony.
- Microsoft Blog: Microsoft Ability Summit 2025: Accessibility in the AI era (18.03.2025) – podsumowanie Ability Summit (Seeing AI na Androida, Narrator z AI).
- Microsoft Accessibility Blog: Seeing AI app launches on Android… (Saqib Shaikh, 04.12.2023) – szczegóły nowych funkcji Seeing AI (opisy zdjęć, chat z dokumentem).
- Meta Newsroom: How We’re Advancing Accessibility at Meta (Maxine Williams, 15.05.2025) – innowacje Meta (Ray-Ban Meta AI, Call a Volunteer).
- Portal Gov.pl: Szkolenia z dostępności cyfrowej – harmonogram i opis szkoleń dla administracji (2025).
- Rynek-Książki.pl: W czerwcu wchodzi ustawa o dostępności (13.05.2025) – omówienie ustawy wdrażającej EAA i jej wymogów (e-booki, usługi cyfrowe).
- Poznan.pl: Światowy Dzień Świadomości Dostępności – cyfrowy świat powinien być otwarty dla każdego (15.05.2025) – artykuł miejski o GAAD, znaczeniu dostępności i EAA.
- PZN.org.pl: Klocki LEGO Braille w Polsce! PZN partnerem projektu edukacyjnego (05.05.2025) – informacja o wprowadzeniu LEGO Braille Bricks w Polsce.
- Kinaole.co: Wydarzenia i szkolenia 2025 – kalendarium (GAAD konferencja online PFRON 15.05.2025, AutomaticA11y Warszawa 8.05.2025).
- EyesOnEyecare.com: OrCam adds augmented AI to MyEye device for low vision (10.01.2024) – nowości OrCam (AI w MyEye i OrCam Read 3 „Just Ask”).
- Envision: Updates for Envision Glasses (v2.9.5–2.9.7, marzec-maj 2025) – opis funkcji Envision Ally (asystent AI w okularach).
NFB.org: Making Meta Accessible: Update on Latest Improvements (Jan 2025) – działania Meta w zakresie dostępności (AAT, poprawki w aplikacjach).
Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.