Światowy Dzień Świadomości Dostępności 2025 – technologiczne nowości i społeczne inicjatywy

Światowy Dzień Świadomości Dostępności 2025 (Global Accessibility Awareness Day, GAAD) obchodzony 15 maja 2025 roku skłania do refleksji nad tym, jak technologia i działania społeczne mogą uczynić świat bardziej dostępnym dla osób z niepełnosprawnościami – szczególnie niewidomych i słabowidzących. W dobie powszechnej cyfryzacji dostęp do informacji i usług powinien być prawem każdego, a nie przywilejem. Rok 2025 przyniósł szereg przełomowych rozwiązań technologicznych oraz ważnych wydarzeń edukacyjnych i prawnych, które znacząco wpłynęły na życie osób z dysfunkcją wzroku. Poniżej przedstawiamy najważniejsze nowości – od ogłoszeń gigantów technologicznych po inicjatywy społeczne w Polsce i na świecie – z ostatnich miesięcy, ze szczególnym uwzględnieniem innowacji dla osób niewidomych i słabowidzących.

Innowacje technologiczne: nowe funkcje i urządzenia w 2025 roku

Apple: etykiety dostępności, Lupa na Macu i inne nowości ekosystemu

Firma Apple tradycyjnie zaprezentowała w maju – w ramach obchodów GAAD – pakiet nowych funkcji zwiększających dostępność swoich produktów. Najważniejsze z nich dotyczą osób z dysfunkcją wzroku. Etykiety Dostępności („Accessibility Nutrition Labels”) pojawią się w App Store i będą informować przed pobraniem aplikacji, jakie rozwiązania dostępności dane oprogramowanie oferuje – np. obsługę czytnika ekranu VoiceOver, tryb wysokiego kontrastu, powiększenie tekstu czy możliwość sterowania głosem. „To pozwoli użytkownikom ocenić dostępność produktu z wyprzedzeniem” – podkreślił Eric Bridges z American Foundation for the Blind, chwaląc inicjatywę Apple. Dzięki takim etykietom osoby niewidome i słabowidzące zyskają większą pewność, że pobierana aplikacja będzie dla nich przyjazna.

Drugą istotną nowością jest aplikacja Lupa (Magnifier) na komputery Mac. Do tej pory Lupa dostępna była na iPhonie i iPadzie, a teraz trafi także na macOS, co ułatwi osobom słabowidzącym wykorzystanie dużego ekranu komputera do powiększania obiektów i tekstu z otoczenia. Lupa na Macu będzie współpracować z Continuity Camera (umożliwiając użycie kamery iPhone’a jako lupy) oraz z kamerami USB, a także oferować możliwość dostosowania obrazu (np. zmiana kontrastu, filtrów kolorystycznych) i odczytywania dokumentów w trybie Desk View. Co ważne, Lupa na Macu zostanie zintegrowana z nowym Czytnikiem Dostępności (Accessibility Reader) – systemowym trybem ułatwiającym czytanie treści. Pozwoli to na szybkie przełączenie dowolnego tekstu (np. fragmentu strony internetowej czy fizycznego dokumentu uchwyconego kamerą) w tryb wysokiej czytelności lub na odsłuch poprzez syntezator mowy.

Apple rozwija także wsparcie dla pisma Braille’a. Wprowadzona zostanie funkcja Braille Access, która zamieni urządzenia Apple w pełnoprawne notatniki brajlowskie. Użytkownik wyposażony w brajlowski monitor lub klawiaturę będzie mógł pisać notatki i odczytywać treści w Braille’u na iPhonie, iPadzie, Macu, a nawet w zestawie Apple Vision Pro. Co więcej, system obsłuży specjalistyczne zapisy brajlowskie, jak np. brajlowskie oznaczenia matematyczne Nemeth, dzięki czemu osoby niewidome zyskają możliwość wygodnego wykonywania obliczeń i czytania treści naukowych w brajlu. Integracja Braille Access z całym ekosystemem Apple oznacza, że notatki brajlowskie czy pliki BRF (Braille Ready Format) będzie można otwierać i edytować na dowolnym urządzeniu, a także że napisy dialogowe (Live Captions) mogą być wyświetlane bezpośrednio na podłączonym wyświetlaczu brajlowskim.

Wśród nowości warto wymienić również ulepszenia dla osób z resztkami wzroku korzystających z technologii rozszerzonej rzeczywistości. System visionOS dla gogli Apple Vision Pro otrzyma aktualizacje wykorzystujące zaawansowany system kamer tego urządzenia. Pojawi się funkcja Zoom pozwalająca powiększać „na żywo” obraz otoczenia (np. przybliżyć treść z tablicy informacyjnej czy menu w restauracji) wprost w goglach – Vision Pro stanie się więc rodzajem cyfrowej lupy dla osób słabowidzących. Ponadto użytkownicy VoiceOver (czytnika ekranu Apple) w Vision Pro będą mogli skorzystać z funkcji Live Recognition, która wykorzysta uczenie maszynowe do opisu otoczenia: gogle będą potrafiły rozpoznawać obiekty wokół użytkownika, odczytywać napisy i teksty w otoczeniu oraz informować o położeniu osób czy drzwi. Apple udostępni też API dla deweloperów, umożliwiające tworzenie aplikacji oferujących zdalną pomoc na żywo – jako przykład podano integrację z aplikacją Be My Eyes, dzięki czemu poprzez gogle będzie można nawiązać połączenie z asystentem-wolontariuszem, który zobaczy obraz z kamer Vision Pro i pomoże zinterpretować otoczenie. Tego typu rozwiązanie oznacza całkowicie nową jakość w zwiększaniu samodzielności dla osoby niewidomej, która mając na głowie dyskretne gogle, może „widzieć oczami” zarówno sztucznej inteligencji (automatyczne opisy) jak i tymi  drugiego człowieka na odległość.

Apple nie zapomniało także o pozostałych usprawnieniach: Czytanie ekranu Apple Watch zostało wzbogacone o funkcję Live Captions, co oznacza, że osoba niesłysząca może teraz na zegarku odczytać napisy generowane w czasie rzeczywistym dla dowolnego dźwięku wychwyconego przez iPhone’a (np. wypowiedzi rozmówcy podczas spotkania). Pojawiły się też Dźwięki Tła (Background Sounds) o rozszerzonych opcjach personalizacji, pomagające w koncentracji oraz Osobisty Głos (Personal Voice), który pozwala osobom tracącym mowę wygenerować swój syntetyczny głos – w 2025 roku proces treningu tego głosu przyspieszono (wystarczy nagranie 10 fraz, by w minutę utworzyć spersonalizowany głos). Choć te ostatnie udogodnienia skierowane są głównie do osób z innymi niepełnosprawnościami (słuchu, mowy czy kognitywnymi), to razem z funkcjami dla niewidomych tworzą spójny obraz zaangażowania Apple w dostępność. Jak podkreślił Tim Cook, “tworzenie technologii dla każdego jest naszym priorytetem” – nowe funkcje są tego dowodem, wykorzystując moc układów Apple Silicon oraz najnowsze osiągnięcia sztucznej inteligencji, by każdy użytkownik mógł “robić to, co kocha”.

Google: sztuczna inteligencja Gemini w służbie niewidomych i ulepszenia na Androidzie

Google również uczcił GAAD 2025 ogłoszeniem szeregu funkcji zaprojektowanych z myślą o dostępności swoich produktów. Największe wrażenie na społeczności osób niewidomych zrobiła aktualizacja czytnika ekranu TalkBack na Androidzie, która integruje zaawansowany model AI Gemini. Już w 2024 roku TalkBack potrafił automatycznie opisywać zawartość obrazów wykorzystując generatywną AI – teraz jednak poszedł o krok dalej. Użytkownik może nie tylko uzyskać opis zdjęcia, ale także zadawać dodatkowe pytania dotyczące obrazu lub nawet całego ekranu. Przykładowo: jeśli znajomy wyśle niewidomemu użytkownikowi fotografię swojej gitary, TalkBack najpierw wygeneruje opis zdjęcia, a następnie pozwoli dopytać o szczegóły – np. markę i kolor instrumentu albo inne obiekty znajdujące się na zdjęciu. Co więcej, pytania można zadawać również o to, co jest aktualnie wyświetlane na ekranie telefonu. Osoba niewidoma robiąca zakupy w aplikacji może zapytać asystenta Gemini np. o materiał, z którego wykonano upatrzony przedmiot, albo czy jest dostępna promocja na dany produkt. TalkBack analizuje wtedy całą widoczną zawartość interfejsu aplikacji i udziela odpowiedzi głosowej – funkcja ta przypomina zdalną pomoc asystenta, z tą różnicą, że tutaj rolę tłumacza obrazu pełni sztuczna inteligencja. Integracja TalkBack z Gemini to ogromne ułatwienie w sytuacjach, gdy tradycyjny czytnik ekranu trafia na element graficzny bez opisu lub na skomplikowany, nieopisany ekran aplikacji – teraz AI może „przeczytać” i wyjaśnić niewidomemu użytkownikowi to, co wcześniej było dla niego niedostępne.

Google wprowadził także usprawnienia w automatycznych napisach na żywo. Funkcja Expressive Captions (Ekspresyjne napisy) wykorzystuje AI do generowania napisów do dowolnego materiału audio odtwarzanego na telefonie i – co nowe – zaznacza również sposób wypowiadania kwestii. Oznacza to, że w napisach pojawią się teraz informacje o intonacji i wydłużonych dźwiękach (np. rozciągnięte „nooooo” zamiast zwykłego „no” gdy ktoś przeciąga zaprzeczenie, albo [WIWAT] w kwadratowych nawiasach, gdy tłum odgłasza wiwaty) oraz oznaczenia dźwięków tła (np. [gwizd], [kaszlnięcie]). Choć przeznaczone to jest głównie dla osób g/Głuchych, to i niewidomi skorzystają – np. lektor czytający napisy może przekazać więcej emocji ze ścieżki dźwiękowej filmu. Nowe Ekspresyjne napisy początkowo dostępne są w języku angielskim (na Androidzie 15+) i pozwalają lepiej zrozumieć „ton” wypowiedzi rozmówcy lub narratora.

Inną zmianą istotną dla dostępności jest aktualizacja przeglądarki Chrome. Do tej pory pliki PDF będące skanami były praktycznie niedostępne dla czytników ekranu bez użycia wbudowanego ocr (nvda, jaws) – Chrome nie rozpoznawał w nich tekstu. W 2025 roku przeglądarka zyskała wbudowane OCR (optyczne rozpoznawanie znaków), dzięki czemu skanowane dokumenty PDF stają się możliwe do odczytania i przeszukania. Gdy użytkownik otworzy zeskanowany dokument, Chrome automatycznie „przeczyta” zawartość obrazków z tekstem i pozwoli np. zaznaczyć fragment tekstu, wyszukać słowo czy uruchomić czytnik ekranu, by odczytał całość na głos. To duże ułatwienie dla studentów i profesjonalistów – osoby niewidome nie są już skazane na zewnętrzne aplikacje do OCR, by poznać treść otrzymanego PDF.

W Androidzie pojawiły się również pomniejsze usprawnienia dla słabowidzących. Page Zoom w mobilnej przeglądarce Chrome umożliwia teraz powiększenie zawartości strony nawet o 300% bez rozbicia układu i konieczności przewijania na boki, przy czym preferencje powiększenia można zapisać globalnie lub dla wybranych witryn. Dodatkowo Android oferuje coraz bogatsze opcje personalizacji kolorów, kontrastu i rozmiaru czcionek w całym systemie, co razem z nowymi funkcjami czytania ekranu czyni go bardziej przyjaznym dla osób z dysfunkcją wzroku.

Warto zauważyć, że Google rozwija dostępność nie tylko w swoich produktach konsumenckich, ale i wspiera programistów. Z okazji GAAD firma opublikowała nowe materiały dla deweloperów tworzących narzędzia rozpoznawania mowy, aby były one bardziej skuteczne dla użytkowników z zaburzeniami mowy czy słuchu. Ponadto w marcu 2025 odbyła się konferencja Google I/O, na której również nie zabrakło wątków dostępności – m.in. zapowiedziano wdrożenie modelu Gemini Nano w Android Auto i Asystencie Google w samochodach, co docelowo może przynieść udoskonalenia funkcji nawigacyjnych dla niewidomych poruszających się samochodem jako pasażerowie. Wszystkie te działania wpisują się w strategię Google „AI for Good”, gdzie sztuczna inteligencja ma wspierać włączanie społeczne osób z niepełnosprawnościami.

Microsoft: Seeing AI na Androidzie i „inteligentny” Narrator Windows

Microsoft kontynuuje wieloletnią misję uczynienia swoich produktów jak najbardziej dostępnymi, czemu poświęcona była m.in. doroczna konferencja Ability Summit 2025 (15. edycja, marzec 2025). Dla osób niewidomych kluczowe są dwie nowości: rozszerzenie działania aplikacji Seeing AI oraz plany wzbogacenia czytnika ekranu Windows o funkcje AI.

Popularna aplikacja Seeing AI, będąca osobistym asystentem osób niewidomych, doczekała się na koniec 2024 roku premiery na Androidzie. Dotychczas Seeing AI funkcjonował tylko na iPhone’ach, od grudnia jest dostępny także w Google Play – co otworzyło dostęp do niego milionom kolejnych użytkowników smartfonów na całym świecie. Wraz z debiutem androidowym aplikacja zyskała nowe funkcje oparte na generatywnej AI. Seeing AI potrafi teraz tworzyć bogatsze opisy zdjęć – po zrobieniu zdjęcia sceny użytkownik może wybrać opcję „więcej informacji”, a aplikacja wygeneruje szczegółowy opis zawartości (w praktyce kilka zdań zamiast dotychczasowego jednego), uwzględniając więcej detali otoczenia. Ponadto dodano przełomową funkcję „Chatuj z dokumentem”: po zeskanowaniu wydruku Seeing AI nie tylko odczyta jego treść, ale pozwoli zadać pytania dotyczące dokumentu. Przykładowo, użytkownik skanuje długi rachunek – zamiast słuchać całego dokumentu, może od razu zapytać asystenta o cenę konkretnego produktu na paragonie albo poprosić o podsumowanie najważniejszych pozycji. Aplikacja „rozumie”, co zeskanowała, dzięki integracji z modelami językowymi AI (opracowanymi we współpracy Microsoft–OpenAI) i potrafi na tej podstawie prowadzić rozmowę z użytkownikiem. Te usprawnienia – bogate opisy scen i tryb czatu – zostały najpierw dodane do wersji iOS Seeing AI, a od grudnia 2024 znalazły się także w wersji na Androida. Rozszerzenie dostępności Seeing AI na drugi co do popularności system mobilny jest ogromnym krokiem: jak stwierdził Saqib Shaikh, lider projektu (sam będący osobą niewidomą), misją Seeing AI od początku było dostarczanie „oczu” tam, gdzie ich brakuje, a teraz ta możliwość stała się dostępna dla jeszcze szerszej społeczności.

Drugim istotnym obszarem jest środowisko Windows 11. Microsoft ogłosił, że czytnik ekranu Narrator zostanie wzbogacony o funkcje sztucznej inteligencji – podobnie jak konkurencyjne rozwiązania, będzie potrafił generować opisy elementów graficznych i obrazów na ekranie. Zapowiedź padła podczas Ability Summit i dotyczy wersji testowych Windows Insider wiosną 2025, co sugeruje, że wkrótce użytkownicy Windowsa mogą spodziewać się aktualizacji Narratora opartej na mechanizmach AI. „AI wkracza do Narratora” – tak ujęła to Jenny Lay-Flurrie, szefowa ds. dostępności Microsoft, zapowiadając bogate opisy obrazów tworzone przez sztuczną inteligencję w czytniku ekranu Windows. Funkcja ta pozwoli osobom niewidomym uzyskać automatyczny opis zdjęcia lub grafiki, na którą natrafią – czy to w przeglądarce, czy w dowolnej aplikacji na komputerze – co znacznie ułatwi korzystanie z Internetu i dokumentów zawierających obrazy bez alternatywnego tekstu.

Microsoft inwestuje również w tworzenie bardziej inkluzywnych modeli AI poprzez partnerstwa z organizacjami społecznymi. W październiku 2024 firma nawiązała współpracę z twórcami aplikacji Be My Eyes (łączącej niewidomych wolontariackimi „asystentami wideo”), przekazując środki i narzędzia do rozwijania zbiorów danych uwzględniających doświadczenia osób z dysfunkcją wzroku. Celem jest ulepszenie algorytmów rozpoznawania obrazów – tak by sztuczna inteligencja lepiej radziła sobie z nietypowymi ujęciami i sytuacjami, z jakimi mierzą się niewidomi użytkownicy (np. zdjęcia o słabym świetle, nieostre, przedstawiające codzienne czynności). Według Microsoft, praca z danymi pochodzącymi od społeczności niewidomych pomoże uczynić modele AI bardziej inkluzywnymi dla setek milionów osób niewidomych i słabowidzących na świecie. Ta inicjatywa to kolejny element strategii firmy polegającej na „projektowaniu AI z myślą o najszerszej grupie odbiorców”.

Warto wspomnieć, że Ability Summit 2025 przyniósł też inne nowinki – choć dotyczące głównie niepełnosprawności ruchowych i neurotypowych. Microsoft zaprezentował m.in. Xbox Adaptive Joystick (nowy kontroler dla graczy z ograniczoną sprawnością ruchową) oraz wytyczne projektowania dostępnych opakowań produktów (tak, aby np. osoby niewidome mogły łatwiej otworzyć pudełko i znaleźć w nim informacje). Te działania pokazują holistyczne podejście firmy: od sprzętu, przez oprogramowanie, po dokumentację – wszystko powinno być dostępne. W obszarze wzroku kluczowe jest jednak, że ekosystem Microsoftu coraz bardziej otwiera się na niewidomych użytkowników Androida i ulepsza wsparcie na PC. Seeing AI stał się aplikacją multiplatformową, a Narrator czeka transformacja dzięki AI – to znaczące, systemowe zmiany, które z pewnością odczują użytkownicy w 2025 roku.

Meta (Facebook): asystent w okularach i pomoc wolontariuszy na żądanie

Korporacja Meta (właściciel Facebooka, Instagrama i WhatsAppa) w 2025 roku skupiła się na wykorzystaniu sztucznej inteligencji oraz rozszerzonej rzeczywistości do poprawy dostępności swoich usług. W czasie bliskim Dniu światowej świadomości dostępności 2025  firma ogłosiła kilka inicjatyw, które „mogą mieć szczególną wartość dla osób z niepełnosprawnościami” – jak zaznaczyła Maxine Williams, VP ds. dostępności w Meta.

Najciekawszą nowością są usprawnienia okularów Ray-Ban Meta, czyli inteligentnych okularów wyposażonych w kamerę i asystenta głosowego Meta AI. Od maja 2025 użytkownicy tych okularów mogą włączyć specjalny tryb udzielania bardziej szczegółowych odpowiedzi opisujących otoczenie. Mówiąc prościej, jeśli osoba niewidoma nosząca Ray-Ban Meta zapyta asystenta „Co jest przede mną?”, otrzyma teraz znacznie bogatszy opis sceny niż wcześniej – AI opisze obiekty, ich cechy i wzajemne położenie znacznie dokładniej. Funkcję tę można aktywować w ustawieniach urządzenia jako opcję „Detailed Responses” (odpowiedzi szczegółowe). Przykład: idąc ulicą, użytkownik może zapytać okularów o opis najbliższego otoczenia – Meta AI może odpowiedzieć np. „Przed Tobą znajduje się przejście dla pieszych z sygnalizacją świetlną, po lewej stronie jest kiosk z gazetami, a kilka kroków dalej zaczyna się wejście do parku z widoczną ławką”. Taka szczegółowość opisu może znacznie zwiększyć samodzielność osób niewidomych, dając im „wirtualny wzrok” poprzez dyskretne urządzenie. Co ważne, Meta AI na okularach działa w trybie konwersacyjnym – użytkownik może zadawać pytania uzupełniające. Jeśli asystent powie np. o sygnalizacji świetlnej, niewidomy może dopytać „czy światło jest teraz zielone?” – zakładając, że system ma dostęp do obrazu w czasie rzeczywistym, mógłby udzielić takiej odpowiedzi. Meta deklaruje, że funkcja szczegółowych odpowiedzi będzie stopniowo udostępniana użytkownikom najpierw w USA i Kanadzie, a docelowo w kolejnych krajach.

Kolejnym przełomem od Meta jest usługa „Call a Volunteer” (Wezwij wolontariusza). To rozwiązanie opracowane we współpracy z twórcami aplikacji Be My Eyes, zintegrowane z Meta AI. Pozwala ono połączyć niewidomego użytkownika wideo-rozmową z widzącym wolontariuszem, który przez kamerę (np. w okularach Ray-Ban lub w smartfonie) widzi to, co użytkownik, i służy pomocą w czasie rzeczywistym. Funkcja ta przypomina działanie samej aplikacji Be My Eyes, ale Meta wdraża ją bezpośrednio w swoich produktach. W maju 2025 ogłoszono, że „Call a Volunteer” zostanie uruchomione we wszystkich 18 krajach, w których dostępny jest asystent Meta AI (a więc m.in. w USA, większości krajów europejskich, prawdopodobnie w późniejszym czasie również w Polsce). Dla użytkownika oznacza to, że np. w dowolnym momencie używania okularów czy komunikatora Meta będzie mógł wydać polecenie połączenia z wolontariuszem – i w kilkadziesiąt sekund zostanie skontaktowany z osobą gotową pomóc (np. odczytać treść listu z ekranu kamery, sprawdzić datę ważności produktu spożywczego czy pokierować podczas dojazdu we właściwe miejsce). Meta podkreśla, że rozwiązanie to łączy AI i ludzi: najpierw próbujemy uzyskać pomoc od sztucznej inteligencji (asystent Meta może automatycznie opisać scenę), ale jeśli to niewystarczające – można jednym kliknięciem „wezwać człowieka”. Taka synergia ma zapewnić pełniejsze wsparcie dostępności.

Meta prowadzi też szersze prace badawcze, które w przyszłości mogą przełożyć się na poprawę jakości życia osób z niepełnosprawnościami wzroku. W 2025 roku firma kontynuuje eksperymenty nad interfejsami neuronowymi i urządzeniami do sterowania za pomocą sygnałów mięśniowych (sEMG). Choć projekty te – jak prototypowa opaska na nadgarstek wykrywająca impulsy nerwowe – skierowane są głównie do osób z paraliżem kończyn (by umożliwić im obsługę urządzeń elektronicznych „siłą myśli”), to ogólny kierunek wskazuje, że przyszłe interfejsy AR/VR mają być projektowane z myślą o różnorodności użytkowników. Meta stara się też uczynić metaverse bardziej dostępnym: w goglach Quest wprowadzono na poziomie systemowym transkrypcję mowy na żywo (Live Captions) oraz odwrotnie – generowanie mowy syntetycznej z tekstu (Live Speech) podczas spotkań w wirtualnej rzeczywistości. Choć te funkcje dotyczą głównie osób niesłyszących lub niemówiących, pokazują trend tworzenia inkluzywnego cyfrowego środowiska, w którym każdy – niezależnie od zmysłów – może uczestniczyć. W kontekście osób niewidomych warte uwagi są prace Meta nad ulepszaniem automatycznych opisów obrazów (tzw. Automatic Alt Text): już w poprzednich latach firma chwaliła się modelami potrafiącymi rozpoznawać na zdjęciach nawet 10 razy więcej obiektów niż wersje sprzed kilku lat. W 2025 roku te modele są wykorzystywane na Facebooku i Instagramie, generując opisy dla fotografii umieszczanych przez użytkowników (np. informacja: „obraz może przedstawiać: 2 osoby uśmiechnięte, na zewnątrz, prawdopodobnie na plaży” pojawia się jako opis dla technologii asystujących) – co stanowi nieocenioną pomoc dla niewidomych w korzystaniu z mediów społecznościowych. Meta deklaruje dalszy rozwój tych algorytmów, m.in. poprzez udostępnienie ich jako otwartych modeli (LLaMA) społeczności programistów, by niezależne aplikacje również mogły z nich korzystać.

Podsumowując, działania Meta w 2025 skupiają się na dostarczaniu niewidomym użytkownikom narzędzi łączących świat rzeczywisty z wirtualnym. Inteligentne okulary z opisującym otoczenie AI, natychmiastowy kontakt z wolontariuszem oraz poprawa dostępności treści na platformach społecznościowych – to wszystko przybliża nas do świata, w którym osoba z dysfunkcją wzroku będzie mogła z równą swobodą jak inni korzystać z komunikacji, rozrywki i orientować się w przestrzeni.

Samsung: inteligentny dom dostępny dzięki AI Vision i tryb QR

Wśród największych firm technologicznych Samsung również podejmuje działania na rzecz dostępności, choć w nieco innym zakresie. W 2025 roku koreański gigant skupił się na uczynieniu inteligentnego domu bardziej przyjaznym dla osób z niepełnosprawnością wzroku. Podczas targów CES 2025 Samsung zaprezentował koncepcję „AI for All” – sztucznej inteligencji obecnej wszędzie i dla każdego, co oznacza integrację funkcji AI we wszystkich sprzętach domowych, również w kontekście ich dostępności.

Najbardziej namacalnym efektem tych działań jest aktualizacja aplikacji Samsung AI Vision (Sullivan Plus), służącej jako asystent w rozpoznawaniu obrazu. Pod koniec 2024 r. (tuż przed wejściem w 2025) aplikacja ta otrzymała nowatorski tryb „Home Appliance QR Mode”. Pozwala on osobom niewidomym skanować specjalne kody QR umieszczone na sprzętach AGD, aby uzyskać głosowe informacje i instrukcje obsługi. Innymi słowy, Samsung zaczął oznaczać swoje urządzenia (pralki, lodówki, kuchenki itd.) unikalnymi kodami – po nakierowaniu na nie aparatu smartfona aplikacja rozpoznaje urządzenie i przekazuje użytkownikowi komunikaty ułatwiające korzystanie z niego. Na przykład, skanując kod przy panelu pralki, usłyszymy opis ułożenia pokręteł i przycisków, dostępne programy prania i wskazówki, jak wybrać odpowiedni program. Dla lodówki kod QR może odczytać ustawioną temperaturę lub powiadomić o otwartych drzwiach. Jest to pomost między światem fizycznym a cyfrowym dla osób niewidomych, zwiększający ich niezależność w codziennych czynnościach domowych. Samsung podkreśla, że to rozwiązanie jest krokiem milowym w projektowaniu urządzeń AGD, wyznaczając nowy standard branżowy – tak, by interakcja z każdym urządzeniem w domu była możliwa niezależnie od tego, czy widzimy panel kontrolny.

Wdrożenie trybu QR w aplikacji Sullivan Plus zbiega się z szerszym trendem: już wcześniej Samsung eksperymentował z technologiami dla osób słabowidzących, np. trybem Relumino w telewizorach (specjalny tryb wysokiego kontrastu i obrysów krawędzi, poprawiający czytelność obrazu dla widzów z niedowidzeniem). W 2025 rozwiązania tego typu stają się bardziej dojrzałe i zintegrowane – aplikacja AI Vision/Sullivan ma być uniwersalnym narzędziem wspierającym użytkownika w rozpoznawaniu nie tylko tekstu i scen (co już robiła), ale także interfejsów urządzeń domowych. Samsung deklaruje również rozbudowę ekosystemu SmartThings o funkcje ułatwień dostępu – np. możliwość sterowania sprzętami domowymi za pomocą asystenta głosowego z uwzględnieniem informacji zwrotnych istotnych dla niewidomych (jak odczytywanie aktualnego ustawienia czy potwierdzanie wykonania akcji dźwiękiem). Wszystko to składa się na wizję „Connected Living” bez barier: dom przyszłości ma być w pełni dostępny dla każdego domownika, bez względu na ograniczenia wzroku.

Warto dodać, że Samsung angażuje się też społecznie – w 2025 kontynuowano program „Samsung Accessibility Grant”, w ramach którego firma wspiera startupy i organizacje pozarządowe pracujące nad technologiami asystującymi. Przykładem jest dofinansowanie projektu wykorzystującego tagi NaviLens (specjalne kolorowe kody QR czytelne z daleka) w przestrzeni publicznej, czy integracja rozwiązań firmy ARxVision (producenta opaski-asystenta dla niewidomych) z aplikacjami w ekosystemie Microsoft i Android. Choć te działania odbywają się trochę w tle głównego nurtu, pokazują istotną rzecz: dostępność stała się polem współpracy gigantów z mniejszymi podmiotami, by szybciej dostarczać innowacje tym, którzy najbardziej ich potrzebują.

Innowacyjne startupy i mniejsze firmy: nowe urządzenia i aplikacje dla niewidomych

Oprócz działań wielkich korporacji, rok 2025 obfituje w nowości od wyspecjalizowanych firm technologicznych skupionych na pomocy osobom niewidomym i słabowidzącym. Choć często mniej znane szerokiej publiczności, to właśnie te mniejsze innowacyjne firmy nierzadko dostarczają przełomowych rozwiązań asystujących.

OrCam Technologies, pionier w dziedzinie noszonej elektroniki dla niewidomych, zaprezentował ulepszenia swoich flagowych produktów. OrCam MyEye – niewielkie urządzenie mocowane magnetycznie do okularów, które kamerą „widzi” tekst i otoczenie, czyta na głos i rozpoznaje twarze – otrzymało w 2024 r. udoskonalony moduł AI, nazwany roboczo „augmented AI companion”. Dzięki niemu MyEye zyskał bardziej naturalną interaktywność: urządzenie nie tylko poinformuje użytkownika, co ma przed sobą (np. odczyta nazwę produktu czy rozpozna znajomą osobę), ale pozwoli na dynamiczny dialog. Użytkownik może np. stuknąć w urządzenie i zapytać: „Co to za budynek po lewej stronie?” lub „Jaki jest nominał tego banknotu?” – a OrCam MyEye udzieli odpowiedzi głosowej, o ile kamera „widzi” dany obiekt. To przejście od działania reaktywnego (tylko na komendę „odczytaj to”) do proaktywnie wspomagającego orientację. Firma podkreśla, że nowy moduł AI w MyEye posługuje się językiem naturalnym, co oznacza komunikaty bardziej przypominające rozmowę i otwiera możliwość zadawania dodatkowych pytań. Ponadto OrCam rozwija funkcje personalizacji – urządzenie lepiej dostosowuje się do preferencji użytkownika, np. może uczyć się, jakie informacje są dla danej osoby istotne (jedni wolą usłyszeć pełen opis sceny, inni tylko konkrety). Jednocześnie OrCam zapewnił, że ulepszona AI nie wymaga połączenia z internetem, działając w pełni offline na urządzeniu – co jest ważne dla prywatności i wygody użytkowników.

Drugim ważnym produktem firmy jest OrCam Read 3 – przenośny czytnik do tekstu dla osób z dysfunkcją wzroku. Wprowadzony w listopadzie 2023 OrCam Read 3 to kieszonkowe urządzenie przypominające długopis, które skanuje drukowany tekst (np. książkę, dokument) i natychmiast odczytuje go głosem syntetycznym. W 2024 został on wzbogacony o funkcję „Just Ask”. Pozwala ona, podobnie jak w Seeing AI, zadawać pytania dotyczące zeskanowanego tekstu – na przykład po zeskanowaniu artykułu użytkownik może zapytać: „Podaj krótkie podsumowanie tego artykułu” albo „Jak nazywa się bohater wspomniany w drugim akapicie?”. OrCam Read, korzystając z wbudowanej AI, udzieli odpowiedzi bez konieczności słuchania całości materiału. Co więcej, jeśli użytkownik czegoś nie dosłyszał lub nie zrozumiał, może dopytać – urządzenie utrzymuje kontekst rozmowy. Funkcja „Just Ask” czyni z OrCam Read interaktywnego lektora i asystenta nauki – jest to pomocne np. dla uczniów i studentów z dysfunkcją wzroku, którzy mogą w ten sposób szybciej przyswajać treści z podręczników (pytając o definicje, daty, itp.). Podobnie jak MyEye, także OrCam Read działa offline i lokalnie, co oznacza, że całe przetwarzanie języka odbywa się na urządzeniu – to imponujące osiągnięcie inżynierskie, zważywszy na małe rozmiary sprzętu.

Również holenderski startup Envision (twórca inteligentnych okularów Envision Glasses) wprowadził na rynek coś nowego. W marcu 2025 ogłoszono oficjalne wdrożenie długo oczekiwanej funkcji Envision Ally (ally) – osobistego asystenta AI dostępnego w okularach Envision. Ally to zintegrowany z okularami model AI, który ma za zadanie wspierać użytkownika w codziennych czynnościach, odpowiadając na pytania i dostarczając kontekstowych informacji. W praktyce posiadacz Envision Glasses może teraz wydać polecenie głosowe lub gest i zadać pytanie dotyczące otoczenia – podobnie jak w rozwiązaniu Meta, ale tutaj działającym bezpośrednio w urządzeniu Envision. Co więcej, Envision pozwala tworzyć wiele „osobowości” asystenta – użytkownik może wybrać np. ally mówiącego po hiszpańsku albo ally o bardziej żartobliwym tonie – i przełączać się między nimi w zależności od potrzeb. Rozwiązanie to jest o tyle ciekawe, że Envision współpracuje z wieloma serwisami – np. integruje funkcje opisów obrazów, odczytywania tekstu, a nawet może łączyć się z Aira (usługą profesjonalnych asystentów na żywo) lub z wolontariuszami. Zgodnie z dewizą firmy, „to jak posiadanie własnego asystenta badawczego, gotowego pomóc jak przyjaciel lub współpracownik”. Ally był testowany w wersjach beta w 2024 roku, a od marca 2025 stał się dostępny dla wszystkich posiadaczy nowszych wersji okularów Envision w ramach subskrypcji. Pierwsi użytkownicy chwalą go za możliwość np. podyktowania polecenia „Znajdź mi na półce puszkę kukurydzy” – okulary skanują obraz półki sklepowej i informują, na której wysokości znajduje się poszukiwany produkt.

Oprócz tego na rynku pojawiają się coraz to nowe aplikacje i urządzenia: warto wspomnieć chociażby Lazarillo (aplikacja nawigacyjna, która w 2025 wzbogaciła się o funkcje indoor navigation z wykorzystaniem beaconów w centrach handlowych), RightHear (system powiadomień dźwiękowych w przestrzeni publicznej, rozszerzony o mapy kampusów uniwersyteckich) czy rozwój białych lasek wyposażonych w GPS i czujniki ultradźwiękowe (eksperymentalne projekty w Japonii i USA). Każde z tych rozwiązań adresuje inny aspekt wyzwań, z jakimi mierzą się osoby z dysfunkcją wzroku – od mobilności, przez dostęp do informacji, po edukację. To pokazuje, że sektor technologii asystujących kwitnie, często dzięki zaangażowaniu samych zainteresowanych (wiele startupów założonych jest przez niewidomych inżynierów lub we współpracy z nimi) i wsparciu programów grantowych dużych firm czy rządów.

Wydarzenia edukacyjne, społeczne kampanie i zmiany systemowe w 2025 roku

Globalne inicjatywy i obchody GAAD 2025

Rok 2025 przyniósł nie tylko rozwiązania technologiczne, ale też ważne wydarzenia zwiększające świadomość społeczną na temat dostępności. Global Accessibility Awareness Day (GAAD) obchodzony w trzeci czwartek maja (w 2025 dokładnie 15 maja) stał się okazją do organizacji licznych konferencji, warsztatów i kampanii na całym świecie – zarówno przez gigantów technologicznych, jak i organizacje non-profit czy instytucje państwowe. Wiele z opisanych wyżej nowości (Apple, Google, Meta) zostało ogłoszonych właśnie w kontekście podkreślenia i uhonorowania GAAD jako dowód zaangażowania firm w budowanie produktów inkluzywnych. Ale GAAD to również setki oddolnych inicjatyw: w mediach społecznościowych popularność zdobyły akcje typu #GAADPledge, gdzie programiści zobowiązywali się poprawić dostępność swoich stron czy aplikacji, a wolontariusze oferowali darmowe audyty dostępności dla małych biznesów.

Global Disability Summit 2025 – międzynarodowy szczyt na rzecz osób z niepełnosprawnościami – odbył się na początku kwietnia (online, współorganizowany przez rządy Niemiec i Jordanii) i zgromadził przedstawicieli ponad 160 krajów. W trakcie szczytu zaprezentowano dobre praktyki i inicjatywy z całego świata, od technologii po rozwiązania prawne, mające na celu skuteczniejsze włączanie osób z niepełnosprawnościami w życie społeczne. Szczególny nacisk położono na wykorzystanie sztucznej inteligencji w przełamywaniu barier – co stanowiło doskonałe tło dla nowości, o których mówiono chwilę później przy okazji GAAD. Podczas tego wydarzenia ogłoszono m.in. powstanie globalnej Platformy Dostępności Cyfrowej, mającej zrzeszać deweloperów tworzących otwarte narzędzia dla dostępności (od czytników ekranu po syntezatory mowy w różnych językach). Inicjatywy takie pokazują, że dostępność przestaje być sprawą niszową – staje się tematem międzynarodowych zobowiązań i wspólnych działań rządów oraz sektora prywatnego.

Nie można też zapomnieć, że 2025 rok to okrągła, 200. rocznica opracowania alfabetu Braille’a. Louis Braille opublikował swój system pisma punktowego dla niewidomych w roku 1825 – dwieście lat później brajl nadal jest fundamentalnym narzędziem komunikacji i edukacji dla tysięcy ludzi. W wielu krajach (w tym w Polsce) jubileusz ten stał się okazją do promowania nauki brajla wśród dzieci i młodzieży oraz przypomnienia społeczeństwu o jego znaczeniu. Polski Związek Niewidomych (PZN) zainaugurował w maju kampanię „Promuj brajla”, połączoną z konkursem na prace literackie pisane brajlem – by zachęcić osoby niewidome do doskonalenia tej umiejętności i jednocześnie uświadomić osobom widzącym, że brajl w dobie technologii bynajmniej nie odchodzi do lamusa. W wielu bibliotekach w kraju odbyły się okolicznościowe wydarzenia, na których prezentowano książki brajlowskie, tabliczki do pisania i nowoczesne monitory brajlowskie, pozwalając odwiedzającym na poznanie „tajemnic sześciopunktu”. Jubileusz brajla splótł się symbolicznie z ekspansją nowoczesnych technologii: np. Fundacja LEGO wprowadziła w 2025 r. zestawy LEGO Braille Bricks w wersji polskojęzycznej – specjalne klocki z wypustkami ułożonymi w litery brajlowskie, służące dzieciom do nauki alfabetu przez zabawę. Polska dołączyła do ponad 30 krajów korzystających z tej formy edukacji – PZN został oficjalnym partnerem dystrybucji klocków brajlowskich w naszym kraju, a od stycznia 2025 ruszyły szkolenia instruktorów tej metody. To piękny przykład połączenia tradycji (brajl) z nowoczesnością (klocki i globalna współpraca) – i dowód na to, że dostępność w edukacji przybiera coraz ciekawsze formy.

Polska: wdrażanie Europejskiego Aktu o Dostępności i lokalne inicjatywy

W Polsce rok 2025 upływa pod znakiem intensywnych przygotowań do wdrożenia Europejskiego Aktu o Dostępności (EAA). Akt ten, przyjęty jako dyrektywa UE w 2019 r., wyznaczył standardy dostępności produktów i usług na jednolitym rynku europejskim. Polska implementowała te przepisy krajową Ustawą z 26 kwietnia 2024 r. o zapewnianiu dostępności niektórych produktów i usług, która wchodzi w życie z dniem 28 czerwca 2025 r.. Oznacza to, że od połowy 2025 roku szereg prywatnych przedsiębiorców zostanie prawnie zobowiązanych do spełniania wymogów dostępności swoich ofert – od bankomatów i terminali płatniczych, przez strony e-commerce, po e-booki i czytniki książek elektronicznych. To ogromna zmiana systemowa, ponieważ dotąd w Polsce twarde wymogi dostępności dotyczyły głównie sektora publicznego (ustawa o dostępności cyfrowej z 2019 r. obejmowała urzędy, samorządy itp. – głównie strony WWW i aplikacje mobilne administracji). W tym zakresie nadal jest wiele do zrobienia, ale teraz ten proces ma szansę przyspieszyć, bo dostępność staje się obowiązkiem również dla sektora prywatnego – banków, firm telekomunikacyjnych, wydawców, transportu, dostawców usług cyfrowych itd..

W pierwszych miesiącach 2025 trwały więc intensywne działania informacyjne i szkoleniowe, by przygotować rynek na nowe wymogi. Ministerstwo Cyfryzacji oraz PFRON organizowały bezpłatne webinaria i warsztaty online dla przedsiębiorców, przybliżające zapisy ustawy i praktyczne sposoby ich realizacji. Przykładowo, PFRON 15 maja (w GAAD) zorganizował ogólnopolską konferencję o dostępności cyfrowej, odbywającą się online i otwartą dla wszystkich zainteresowanych – skupiono się na nowych obowiązkach firm i metodach wdrażania dostępności w procesie projektowania produktów. Również organizacje branżowe uruchomiły własne inicjatywy: Związek Banków Polskich powołał grupę roboczą ds. dostępności usług finansowych, która opracowała wytyczne dla banków spółdzielczych i komercyjnych (dotyczące m.in. dostępnych bankomatów z syntezą mowy i udogodnień dla osób niewidomych w bankowości internetowej) – efektem były szkolenia dla kadry banków w pierwszej połowie 2025. Wydawcy książek z kolei, we współpracy z Biblioteką Centralną PZN, przygotowali plan dostosowania formatów e-booków do standardu EPUB3 Accessibility – tak by nowe publikacje elektroniczne wydawane po czerwcu 2025 spełniały wymagania dostępności (m.in. poprawne oznaczanie struktury, dołączanie opisów do ilustracji i wykresów). Portal Rynek-Książki donosił, że po 28 czerwca wszystkie nowo wprowadzane do obrotu e-booki powinny mieć „spełnione ogólne wymagania dostępności”, a także specyficzne wymagania dodatkowe dotyczące książek elektronicznych – co stawia wyzwanie przed wydawcami, ale też otwiera dostęp do literatury dla szerszego grona odbiorców.

Administracja publiczna, chcąc dać dobry przykład, już w poprzednich latach prowadziła program „Dostępność Plus”, a w jego ramach liczne szkolenia. W 2025 kontynuowano cykl „Dostępne środy” – cotygodniowych webinariów dla urzędników i projektantów stron, organizowanych przez Ministerstwo Funduszy i Polityki Regionalnej. Tematyka obejmowała m.in. dostępność multimediów, pisanie prostym językiem czy tworzenie dostępnych dokumentów PDF. Szkolenia te cieszyły się dużym zainteresowaniem, bo wiele jednostek samorządu terytorialnego zdało sobie sprawę, że dostępność to proces ciągły, a nie jednorazowe działanie – treści na stronach są stale aktualizowane i trzeba dbać, by nowo dodawane informacje (np. pliki w BIP czy ogłoszenia) także były dostępne. Podkreślano to zresztą w komunikatach GAAD: „dostępność cyfrowa to obowiązek prawny, ale i szansa dotarcia do szerszego grona odbiorców” – jak napisano w oficjalnej informacji Miasta Poznania z okazji GAAD. Owa szansa oznacza np. pozyskanie nowych klientów o szczególnych potrzebach czy budowanie pozytywnego wizerunku firmy odpowiedzialnej społecznie.

Organizacje pozarządowe w Polsce również były bardzo aktywne. PZN – największa organizacja zrzeszająca osoby niewidome – prowadził w 2025 cykl projektów dofinansowanych z PFRON, m.in. „Komputer bez tajemnic” (szkolenia z obsługi technologii asystujących dla seniorów tracących wzrok) i „Aktywność cyfrowa” (warsztaty z korzystania z bankowości elektronicznej i e-usług dla osób 50+ z dysfunkcją wzroku). Dużo uwagi poświęcono też edukacji najmłodszych: wspomniany program LEGO Braille Bricks to jedno, ale obok niego Fundacja „Szansa dla Niewidomych” organizowała integracyjne pikniki dla dzieci widzących i niewidomych, gdzie uczyły się one wspólnie alfabetu brajla i porozumiewania się. Kampania społeczna „WidzialniPełnosprawni” (zainicjowana przez Fundację Widzialni) w mediach tradycyjnych pokazywała codzienne życie osób niewidomych korzystających z nowoczesnych technologii – np. spot telewizyjny przedstawiał młodą niewidomą programistkę, która dzięki czytnikowi ekranu i urządzeniom brajlowskim pracuje w międzynarodowej firmie IT. Celem było przełamanie stereotypów i uświadomienie pracodawcom, że dostępność technologii przekłada się na większą niezależność i aktywność zawodową osób z niepełnosprawnościami.

W świecie kultury również działo się sporo. Krakowski Festiwal Filmowy 2025 po raz pierwszy zapewnił audiodeskrypcję na żywo dla wybranych pokazów filmowych – widzowie niewidomi otrzymywali w kinie słuchawki, przez które lektor opisywał akcję filmu. Z kolei w Płocku odbyła się już XV edycja Festiwalu Kultury i Sztuki dla Osób Niewidomych (FKiS) – unikatowej imprezy, podczas której prezentowane są spektakle teatralne z audiodeskrypcją, koncerty w ciemności i wystawy dotykowe. Festiwal ten (27 września – 3 października 2025) ugości artystów niewidomych z kilkunastu krajów i ma szansę przyciągnąć również publiczność widzącą, chcącą doświadczyć sztuki w niekonwencjonalny sposób – np. „oglądając” obrazy wyłącznie dotykiem lub słuchając koncertu bez udziału wzroku. Takie wydarzenia promują ideę dostępności uniwersalnej: pokazują, że dostosowania (jak audiodeskrypcja) nie są „ciężarem”, ale wzbogacają odbiór sztuki dla wszystkich – bo pozwalają dostrzec nowe elementy (widzowie widzący często chwalą audiodeskrypcję za to, że zwraca uwagę na detale, które umykają).

Na szczeblu europejskim warto zauważyć utworzenie w 2025 roku Europejskiego Centrum Zasobów Dostępności (AccessibleEU) – instytucji powołanej przez Komisję Europejską jako platformy wymiany wiedzy o dostępności. Choć centrala mieści się w Brukseli, z polskiej perspektywy istotne jest to, że Centrum zbiera i publikuje w wielu językach praktyczne wytyczne dla wdrażania EAA, prowadzi bazy ekspertów i dobrych praktyk. Dzięki temu polskie firmy i urzędy mogą łatwiej czerpać z doświadczeń innych krajów. AccessibleEU organizuje też szkolenia online – w 2025 kilka z nich odbyło się w języku polskim, przy współpracy z Ministerstwem Rozwoju. To pokazuje, że w kwestii dostępności współpraca międzynarodowa nabiera tempa, a Polska jest jej aktywnym uczestnikiem.

Spojrzenie w przyszłość

Obchody GAAD 2025 uwidoczniły jedno: dostępność przeszła drogę od niszowego zagadnienia do głównego nurtu innowacji technologicznych i polityk publicznych. Nowinki takie jak opisy generowane przez AI czy inteligentne okulary dla niewidomych jeszcze kilka lat temu brzmiały jak science-fiction – dziś stają się realnymi narzędziami zmieniającymi życie. Jednocześnie rośnie świadomość prawna i społeczna: biznes dostosowuje swoje usługi nie tylko z obawy przed sankcjami prawnymi, ale coraz częściej z przekonania, że to się po prostu opłaca i jest słuszne. Osoby z niepełnosprawnościami wzroku są coraz bardziej widoczne w przestrzeni publicznej jako pracownicy, klienci, twórcy – a nie wyłącznie jako beneficjenci pomocy.

Mimo tych pozytywnych trendów, wiele pozostaje do zrobienia. Technologia asystująca musi być dostępna finansowo – stąd ważne będą programy dofinansowań (jak choćby „Aktywny Samorząd” PFRON w Polsce, finansujący zakup sprzętu dla osób z dysfunkcją wzroku). Standardy dostępności muszą nadążyć za rozwojem techniki – pojawiają się już dyskusje nad „WCAG 3.0”, kolejną generacją wytycznych dostępności web, która uwzględni np. treści wirtualnej i rozszerzonej rzeczywistości. Ale obserwując rok 2025, można mieć nadzieję, że zarówno wielkie firmy, jak i ustawodawcy oraz społeczeństwo będą podążać  we właściwym kierunku mimo potknięć i trudności. Cyfrowy świat powinien być otwarty dla każdego – to hasło z poznańskiej informacji miejskiej chyba najlepiej oddaje istotę GAAD. Dzięki wysiłkom całego ekosystemu – od inżynierów po aktywistów – ta wizja staje się coraz bardziej rzeczywistością.

Źródła:

  • Apple Newsroom: Apple unveils powerful accessibility features coming later this year (May 2025) – nowości Apple (Etykiety Dostępności, Lupa na Mac, Braille Access, itd.)
  • Investing.com (pl): Apple zwiększy dostępność dzięki nowym etykietom w App Store i funkcjom dla Maca – omówienie funkcji Apple w j. polskim.
  • Google Blog: New AI and accessibility updates across Android and Chrome (15.05.2025) – ogłoszenie funkcji TalkBack z Gemini, Expressive Captions.
  • TechCrunch: Google rolls out new AI and accessibility features to Android and Chrome (15.05.2025) – informacje o usprawnieniach TalkBack, OCR w Chrome, powiększaniu strony.
  • Microsoft Blog: Microsoft Ability Summit 2025: Accessibility in the AI era (18.03.2025) – podsumowanie Ability Summit (Seeing AI na Androida, Narrator z AI).
  • Microsoft Accessibility Blog: Seeing AI app launches on Android… (Saqib Shaikh, 04.12.2023) – szczegóły nowych funkcji Seeing AI (opisy zdjęć, chat z dokumentem).
  • Meta Newsroom: How We’re Advancing Accessibility at Meta (Maxine Williams, 15.05.2025) – innowacje Meta (Ray-Ban Meta AI, Call a Volunteer).
  • Portal Gov.pl: Szkolenia z dostępności cyfrowej – harmonogram i opis szkoleń dla administracji (2025).
  • Rynek-Książki.pl: W czerwcu wchodzi ustawa o dostępności (13.05.2025) – omówienie ustawy wdrażającej EAA i jej wymogów (e-booki, usługi cyfrowe).
  • Poznan.pl: Światowy Dzień Świadomości Dostępności – cyfrowy świat powinien być otwarty dla każdego (15.05.2025) – artykuł miejski o GAAD, znaczeniu dostępności i EAA.
  • PZN.org.pl: Klocki LEGO Braille w Polsce! PZN partnerem projektu edukacyjnego (05.05.2025) – informacja o wprowadzeniu LEGO Braille Bricks w Polsce.
  • Kinaole.co: Wydarzenia i szkolenia 2025 – kalendarium (GAAD konferencja online PFRON 15.05.2025, AutomaticA11y Warszawa 8.05.2025).
  • EyesOnEyecare.com: OrCam adds augmented AI to MyEye device for low vision (10.01.2024) – nowości OrCam (AI w MyEye i OrCam Read 3 „Just Ask”).
  • Envision: Updates for Envision Glasses (v2.9.5–2.9.7, marzec-maj 2025) – opis funkcji Envision Ally (asystent AI w okularach).

NFB.org: Making Meta Accessible: Update on Latest Improvements (Jan 2025) – działania Meta w zakresie dostępności (AAT, poprawki w aplikacjach).

Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

ASUS RT-BE88U – test routera Wi-Fi 7 w domowej sieci multigigabitowej

ASUS RT-BE88U to dwupasmowy router najnowszej generacji Wi-Fi 7 (802.11be), który wyróżnia się nietypową jak na urządzenia konsumenckie liczbą i prędkością portów przewodowych. Zaprojektowany z myślą o graczach i zaawansowanych użytkownikach, model ten ma pełnić rolę centralnego routera przewodowego oraz mini przełącznika multigigabitowego w sieci domowej. Sprawdzamy, jak RT-BE88U radzi sobie w takiej roli – w wymagającym środowisku testowym z dwoma łączami WAN (światłowód 8 Gb/s i zapasowe 300 Mb/s) oraz wieloma urządzeniami korzystającymi z prędkości powyżej 1 Gb/s. Przyglądamy się także jego możliwościom bezprzewodowym Wi-Fi 7 oraz oceniamy dostępność interfejsu z perspektywy użytkownika niewidomego.

Konstrukcja, porty i specyfikacja techniczna

Już pobieżny rzut oka na specyfikację RT-BE88U ujawnia, że mamy do czynienia z urządzeniem najwyższej klasy pod względem wyposażenia portów. Router oferuje aż dwa porty 10 Gb/s (w tym jedno gniazdo SFP+ na moduły światłowodowe oraz drugie 10 Gb/s Ethernet standardowe gniazdo rj45) oraz cztery porty 2,5 Gb/s, a dodatkowo cztery porty 1 Gb/s dla mniej wymagających połączeń. Łączna teoretyczna przepustowość przewodowa sięga imponujących 34 Gb/s, co stawia go na równi z małymi przełącznikami sieciowymi klasy L2. Tak rozbudowany zestaw złączy oznacza, że RT-BE88U może jednocześnie pełnić funkcję routera i switcha dla licznych urządzeń przewodowych – to cecha unikatowa w segmencie routerów domowych (dla porównania wiele typowych routerów oferuje tylko 4 porty LAN). Zastosowany w urządzeniu czterordzeniowy procesor 2,6 GHz i 2 GB RAM gwarantują odpowiednią wydajność do obsługi tak szybkich łączy. Router wyposażono w cztery odkręcane anteny zewnętrzne i pracuje w dwóch pasmach Wi-Fi (2,4 GHz oraz 5 GHz) zgodnie ze standardem Wi-Fi 7 (802.11be). Niestety zabrakło tu obsługi pasma 6 GHz – producent zdecydował się na taką konfigurację, być może ze względu na ograniczenia regulacyjne w niektórych krajach. Brak Wi-Fi 6E/7 w paśmie 6 GHz należy zapisać po stronie minusów urządzenia, jako że to właśnie 6 GHz pozwala w pełni rozwinąć skrzydła Wi-Fi 7.

Warto podkreślić różnicę między opisem katalogowym portów a ich rzeczywistą elastycznością. Oficjalnie RT-BE88U posiada dedykowane porty WAN 10G (RJ45) i SFP+ 10G, jednak oprogramowanie AsusWRT umożliwia przypisanie funkcji WAN lub LAN praktycznie dowolnemu złączu. W efekcie użytkownik ma dużą swobodę w doborze, które porty wykorzystać jako główne łącze internetowe, a które pozostawić do sieci lokalnej. Standardowo jeden z portów 2,5 GbE oznaczono jako WAN, ale nic nie stoi na przeszkodzie, aby rolę WAN przejął port 10G RJ45 czy nawet któryś z gigabitowych – w zależności od potrzeb topologii. Co więcej, port SFP+ nie jest połączony w parę (combo) z elektrycznym 10G – mogą one działać jednocześnie. Dzięki temu da się np. podłączyć jednocześnie ultraszybkie łącze światłowodowe 10 Gb/s (do gniazda SFP+ z odpowiednim modułem) oraz nowoczesny serwer NAS do portu 10G RJ45, uzyskując dla obu pełne 10 Gb/s przepustowości. Takie rozwiązanie do niedawna spotykane było wyłącznie w najdroższych, profesjonalnych routerach. Asus nie zapomniał także o użytkownikach potrzebujących więcej niż jednego połączenia internetowego – RT-BE88U obsługuje tryb Dual WAN (równoczesna praca dwóch łączy WAN, z możliwością konfiguracji awaryjnego przełączenia lub balansowania obciążenia). W praktyce dostępne są trzy fizyczne złącza, które mogą pełnić rolę WAN (2,5 GbE, 10G RJ45 oraz 10G SFP+), a dodatkowo funkcję łącza zapasowego może spełniać modem podłączony do portu USB (np. modem LTE/5G). Taka elastyczność topologii sieci to duży atut RT-BE88U – router można dostosować do nietypowych scenariuszy, wykorzystując go zarówno jako wydajny węzeł routingowy, jak i rozbudowany switch dostępowy w jednym.

Od strony programowej urządzenie działa pod kontrolą znanego firmware AsusWRT (wersja 5.0), co oznacza bogaty zestaw funkcji dla zaawansowanych użytkowników. Interfejs oferuje m.in. obsługę AiMesh 2.0 (możliwość tworzenia mesh z innymi routerami Asusa), rozbudowane QoS z trybem priorytetyzacji Gaming, sieci dla gości (Guest Network Pro), wbudowany serwer VPN, ochronę sieci AiProtection Pro z aktualizacjami, kontrolę rodzicielską i wiele innych przydatnych opcji. Ciekawostką jest oznaczenie jednego z portów 2.5 GbE jako Gaming Port – podłączony do niego komputer automatycznie otrzyma najwyższy priorytet ruchu po włączeniu odpowiedniej funkcji QoS. Na pokładzie znajduje się też port USB 3.0, do którego podłączyć można np. dysk zewnętrzny i udostępniać pliki w sieci lub skonfigurować własną chmurę (NAS). Bogactwo funkcji idzie w parze z dojrzałością – AsusWRT jest szybki i stabilny, choć mniej obeznani użytkownicy mogą poczuć się przytłoczeni liczbą ustawień. Na szczęście podstawowa konfiguracja jest intuicyjna, a interfejs webowy domyślnie dostępny jest w języku polskim. O tym ostatnim aspekcie – jego jakości oraz dostępności – piszemy więcej w dalszej części testu.

Środowisko testowe i rola w sieci przewodowej

Aby sprawdzić możliwości RT-BE88U jako centralnego elementu domowej sieci multigigabitowej, poddaliśmy go próbie w wymagającym środowisku z dwoma łączami WAN oraz wieloma szybkimi urządzeniami LAN. Główne łącze internetowe to światłowód o przepustowości do 8 Gb/s, doprowadzony do routera poprzez port 10G (RJ45). Jako łącze zapasowe skonfigurowano typowy dostęp kablowy 300 Mb/s, podłączony do jednego z gigabitowych portów RJ45 (przypisanego w oprogramowaniu jako drugie WAN). Takie zestawienie symuluje zaawansowaną instalację domową, gdzie priorytetem jest maksymalne wykorzystanie szybkiego światłowodu, z zabezpieczeniem na wypadek awarii w postaci drugiego, wolniejszego łącza. Port 10G LAN po stronie RT-BE88U został połączony z 12-portowym przełącznikiem Zyxel XS1930-12HP, stanowiącym rozszerzenie sieci przewodowej na pozostałe pomieszczenia. W sieci działały m.in. komputer stacjonarny z kartą 10 GbE oraz laptop z kartą 5 GbE (USB-C) – oba te urządzenia mogły komunikować się z routerem z prędkościami wielokrotnie przekraczającymi gigabit.

W opisanej konfiguracji RT-BE88U pełnił jednocześnie funkcję routera NAT dla szybkiego łącza 8 Gb/s oraz switcha spinającego segmenty 10G, 2.5G i 1G sieci LAN. Taki przewodowy kręgosłup sieci domowej wymaga od routera bardzo wysokiej wydajności w przekazywaniu ruchu między portami. Testy praktyczne wykazały, że ASUS RT-BE88U radzi sobie z tym zadaniem bez potknięć. Przede wszystkim, routing ruchu WAN-LAN na głównym łączu 8 Gb/s odbywał się z pełną prędkością – router bez problemu obsłużył symulowane obciążenie bliskie 8 Gbps, nie wykazując oznak przeciążenia czy niestabilności. Osiągnięcie takiej wydajności jest możliwe dzięki sprzętowemu przyspieszeniu NAT oraz wydajnemu CPU; RT-BE88U plasuje się tu w ścisłej czołówce routerów konsumenckich. Co istotne, równoczesna aktywność zapasowego łącza WAN 300 Mb/s (w trybie czuwania) nie wpływała negatywnie na główny transfer – mechanizm Dual WAN płynnie przełączał ruch na łącze zapasowe w symulacji awarii, przy czym przerwa w dostępie była minimalna.

Jako przełącznik LAN model RT-BE88U również nie zawodzi oczekiwań. Przepustowości między portami wielokrotnie przekraczały standard Gigabit Ethernet i osiągały wartości bliskie teoretycznemu maksimum danych interfejsów. W testach lokalnych przesyłania plików pomiędzy komputerem 10G a laptopem 5G (poprzez port 10G routera i przełącznik Zyxel) uzyskano transfer na poziomie kilku gigabitów na sekundę, ograniczony de facto możliwościami końcówek (dyski SSD) a nie infrastrukturą sieci. Wewnętrzna magistrala przełączająca routera jest w stanie obsłużyć jednocześnie wiele strumieni danych – potwierdziły to testy, w których równoległe kopiowanie danych przez dwie pary portów 2,5 GbE dało sumarycznie ok. 4,3 Gb/s ruchu, czyli praktycznie dokładnie sumę obu połączeń. Innymi słowy, pod maksymalnym obciążeniem kilku klientów LAN jednocześnie, RT-BE88U zachowuje się stabilnie i przepuszcza ruch liniowo (brak wąskich gardeł). To świetna wiadomość dla każdego, kto planuje intensywnie korzystać z sieci lokalnej – np. strumieniować multimedia 4K/8K z domowego serwera NAS czy wykonywać regularne kopie zapasowe między komputerami z prędkościami multigigabitowymi.

Na uwagę zasługuje też niski opóźnienie i stabilność połączeń przewodowych. Podczas testów ping w sieci lokalnej (nawet przez router) pozostawał na poziomie <1 ms, a wahania transferów były niewielkie. RT-BE88U pozbawiony jest aktywnego chłodzenia (brak wentylatora), ale rozbudowane otwory wentylacyjne w obudowie zapewniają odpowiednie chłodzenie – nawet przy dużym ruchu urządzenie było tylko letnie. W dłuższym teście obciążeniowym router pracował bez zawieszeń czy restartów, co potwierdza jego niezawodność. Jedynym drobnym ograniczeniem w kontekście przewodowym może być wydajność portu USB jako serwera plików: kopiowanie danych z dysku podpiętego do USB 3.0 osiągało ok. 150–200 MB/s, co wprawdzie odpowiada ~1,2–1,6 Gb/s i wystarczy do podstawowych zastosowań NAS, ale przy tak szybkim LAN mogłoby być wyższe. Niemniej, funkcja ta traktowana jest jako dodatek – osoby potrzebujące większych szybkości dyskowych prawdopodobnie i tak skorzystają z dedykowanego serwera lub NAS z 10G.

Wydajność Wi-Fi 7 w praktyce

RT-BE88U to router klasy BE7200, co oznacza łączną teoretyczną przepustowość sieci bezprzewodowej ~7200 Mb/s, rozdzieloną na pasmo 2,4 GHz oraz 5 GHz (4×4 MIMO). W praktyce uzyskane osiągi Wi-Fi zależą od posiadanych urządzeń klienckich. Z wielu testów, które można również znaleźć w sieci wynika,  że korzystając z laptopa wyposażonego w nowy moduł Intel Wi-Fi 7 (BE200) oraz telefonu z Wi-Fi 6E w celu porównania. Zasięg i stabilność sygnału okazały się znakomite – RT-BE88U dorównuje pod tym względem najlepszym routerom dwupasmowym poprzedniej generacji. Na przykład W dużym domu jednorodzinnym o powierzchni ~230 m^2 moc sygnału okazała się na tyle dobra, że dopiero w najbardziej oddalonych zakątkach prędkość spadła poniżej poziomu 1 Gb/s, co uznać można za bardzo dobry wynik dla pasma 5 GHz. Co więcej, w trudnym scenariuszu połączenia między piętrami (gdzie zwykle większość routerów traci najwięcej sygnału) RT-BE88U zaskoczył na plus – zanotowano transfery rzędu ~529 Mb/s przy pobieraniu i ~306 Mb/s przy wysyłaniu, co było rezultatem lepszym niż przy połączeniu przez strop, niż osiągi uzyskane przy komunikacji przez ściany na tym samym poziomie. Oznacza to, że router efektywnie „przebija się” przez stropy, zachowując użyteczną przepustowość nawet między kondygnacjami budynku.

Jeśli chodzi o prędkości maksymalne w idealnych warunkach (blisko routera, pojedyncze urządzenie), RT-BE88U jako przedstawiciel Wi-Fi 7 radzi sobie bardzo dobrze, choć należy pamiętać o ograniczeniach pasma 5 GHz. W pomiarach z kartą Intel BE200 udało się uzyskać ponad 1,5 Gb/s rzeczywistego throughputu TCP przy połączeniu Wi-Fi – to wynik powyżej możliwości Wi-Fi 6 (AX) na 5 GHz, choć różnica nie jest kolosalna. Podobne wnioski płyną z niezależnych testów: serwis Dong Knows Tech odnotował około 1743 Mb/s dla klienta Wi-Fi 7 w paśmie 5 GHz, podczas gdy ten sam router z klientem Wi-Fi 6 osiągał ~1638 Mb/s. Różnica ~6% pokazuje, że Wi-Fi 7 na 5 GHz daje zauważalny, lecz niewielki przyrost szybkości względem Wi-Fi 6. Dużo większe korzyści „siódemka” przynosi na paśmie 6 GHz – Dong Knows Tech wskazał, że router konkurencyjny z 6 GHz uzyskał nawet 2194 Mb/s (o 26% więcej niż na 5 GHz). Niestety RT-BE88U, pozbawiony pasma 6 GHz, nie jest w stanie osiągnąć takich wyników bezprzewodowych. Można zatem podsumować, że pod względem wydajności Wi-Fi testowany model oferuje świetne pokrycie sygnałem i bardzo wysokie transfery w swojej klasie dual-band, ale ustępuje flagowym, trzyzakresowym routerom Wi-Fi 7, które dysponują dodatkowym „pasem autostrady” 6 GHz.

W codziennym użytkowaniu jednak osiągi RT-BE88U w zupełności wystarczą nawet wymagającym domownikom. W bliskim otoczeniu routera można liczyć na Gigabit+ bezprzewodowo, co oznacza np. pobieranie plików z prędkością przekraczającą 1 Gbit/s na odpowiednio wyposażonym laptopie – wynik jeszcze niedawno nieosiągalny na Wi-Fi. Również opóźnienia transmisji bezprzewodowej są minimalne, a technologia Multi-Link Operation (MLO), którą wspiera Wi-Fi 7, pozwala dodatkowo poprawić stabilność połączenia wykorzystując jednoczesną transmisję różnymi kanałami. Oczywiście, by skorzystać z pełni możliwości „siódemki”, potrzebne są kompatybilne karty sieciowe po stronie klienta – standard ten jest wstecznie zgodny, więc starsze urządzenia Wi-Fi 5/6 również się połączą, ale z odpowiednio niższymi prędkościami. Dla typowego użytkownika RT-BE88U dostarcza jednak komfortowe Wi-Fi do codziennych zastosowań (streaming 4K, gry online, wideokonferencje), a w razie potrzeby zawsze można rozszerzyć zasięg lub dodać pasmo 6 GHz poprzez dołączenie drugiego punktu dostępowego w ramach AiMesh. Warto tu zauważyć, że jeśli ktoś faktycznie potrzebuje najwyższej wydajności Wi-Fi 7 z pasmem 6 GHz, Asus oferuje model RT-BE92U lub rozwiązania ROG z trzema pasmami – są one jednak wyraźnie droższe. Z kolei RT-BE88U dzięki rezygnacji z 6 GHz pozostaje tańszy i „odchudzony” sprzętowo, co dla wielu użytkowników będzie rozsądnym kompromisem.

Interfejs i dostępność z perspektywy niewidomego użytkownika

Oprogramowanie AsusWRT w RT-BE88U oferuje duże możliwości konfiguracji, jednak jak każdy rozbudowany system administracyjny – wymaga dopracowanego interfejsu, zwłaszcza gdy mówimy o dostępności dla osób z niepełnosprawnościami. Zdaniem redakcji, w kwestii dostępności dla użytkowników niewidomych panel zarządzania tym routerem mógłby być lepszy. Choć cieszy obecność polskiej wersji językowej interfejsu, nie wszystko zostało przetłumaczone – w głębszych ustawieniach i komunikatach zdarzają się nieprzetłumaczone elementy w języku angielskim, co może dezorientować użytkownika polegającego na czytniku ekranu. Sama zgodność z czytnikami ekranu (testowaliśmy w przeglądarkach Chrome i Firefox przy użyciu popularnych screen readerów) również okazała się tylko częściowa. Podstawowe menu i statusy są odczytywane poprawnie, jednak niektóre kontrolki (np. przyciski ikon graficznych czy wykresy) nie mają odpowiednich etykiet tekstowych. Nawigacja klawiaturą po interfejsie jest możliwa, lecz w niektórych miejscach mało wygodna – panel AsusWRT bazuje w dużej mierze na elementach graficznych i dynamicznych skryptach, co utrudnia prosty dostęp do wszystkich funkcji bez użycia myszy.

Szczególny problem zaobserwowaliśmy przy mechanizmie zabezpieczającym logowanie. Po kilku nieudanych próbach podania hasła, interfejs wymusza rozwiązanie CAPTCHA (prezentuje obrazek/zdanie do przepisania). Rozumiemy względy bezpieczeństwa, jednak taka forma weryfikacji stanowi istotną barierę dla osoby niewidomej – obrazkowa CAPTCHA nie jest obsługiwana przez czytniki ekranu, a alternatywnego sposobu uwierzytelnienia brak. W efekcie użytkownik niewidomy, który pomyli hasło, może mieć trudność z samodzielnym zalogowaniem się ponownie do panelu. Jest to niedociągnięcie, na które producenci sprzętu sieciowego powinni zwrócić uwagę, zwłaszcza w kontekście rosnącej świadomości dostępności cyfrowej.

Na szczęście mechanizm captcha przy logowaniu można po prostu wyłączyć w ustawieniach, co nie jest zalecane ze względów bezpieczeństwa, ale jest obecnie jedynym wyjściem dla osób niewidomych. Ogólnie rzecz biorąc, interfejs AsusWRT w RT-BE88U działa szybko i stabilnie, ale z punktu widzenia dostępności wymaga pewnych poprawek. Dla większości użytkowników będzie on wygodny w obsłudze (także na urządzeniach mobilnych poprzez aplikację ASUS Router), jednak osoby korzystające z technologii asystujących mogą napotkać wymienione trudności. Mamy nadzieję, że w przyszłych aktualizacjach producent wprowadzi ulepszenia w tym zakresie – chociażby pełne tłumaczenie komunikatów oraz udogodnienia dla czytników ekranu. W dobie GAAD 2025 (Globalnego Dnia Świadomości Dostępności) warto przypomnieć, że nowoczesny sprzęt powinien być projektowany z myślą o dostępności dla wszystkich.

Podsumowanie

ASUS RT-BE88U jawi się jako niezwykle interesujący router dla wymagających entuzjastów sieci domowych – szczególnie tych, którzy ponad wszystko cenią wydajność przewodową. W swojej klasie to prawdopodobnie najbardziej rozbudowany pod względem portów model na rynku: dziesięć złączy sieciowych (w tym pięć multigigabitowych) czyni z niego urządzenie 2w1, mogące zastąpić osobny switch w niewielkiej serwerowni domu. W testach potwierdził on swoją funkcjonalność i niezawodność, bez trudu obsługując transfery rzędu wielu gigabitów na sekundę. Jednocześnie oferuje całkiem nowoczesne Wi-Fi 7, które co prawda – z uwagi na brak pasma 6 GHz – nie pretenduje do miana najszybszego na rynku, ale dla większości użytkowników będzie w pełni wystarczające w codziennej pracy. RT-BE88U można więc traktować jako kręgosłup przewodowej sieci z dodatkowym atutem w postaci sieci bezprzewodowej nowej generacji (choć w podstawowym, dwuzakresowym wydaniu). Taka filozofia konstrukcji przekłada się też na korzystniejszą cenę w porównaniu do topowych routerów Wi-Fi 7. W momencie testu urządzenie kosztowało około 1599 zł, co w odczuciu redakcji jest uczciwą kwotą za tak szybki, bogato wyposażony router. Co więcej na promocjach można kupić ten sprzęt za sumkę znacznie poniżej 1300 zł, co już w ogóle sprawia, że jest to bardzo atrakcyjna propozycja. Dla porównania, flagowe modele tri-band z pasmem 6 GHz często przekraczają 2000 zł, więc wybierając RT-BE88U użytkownik może sporo zaoszczędzić, o ile nie zależy mu na absolutnym maksimum bezprzewodowym.

Reasumując, ASUS RT-BE88U to atrakcyjny wybór dla osób budujących zaawansowaną sieć domową, którym zależy przede wszystkim na najwyższej wydajności przewodowej – do podłączenia szybkiego internetu, NAS-a, stacji roboczych i innych urządzeń po kablu – a jednocześnie chcą mieć przyzwoite, nowoczesne Wi-Fi dla urządzeń mobilnych. Jest to router, który z jednej strony zapewnia przyszłościowe standardy (Wi-Fi 7, porty 10G), z drugiej nie zmusza do płacenia za funkcje bezprzewodowe, z których nie każdy skorzysta. Oczywiście brak pasma 6 GHz oznacza, że nie jest to najszybszy możliwy router Wi-Fi 7 na rynku, ale taki kompromis wydaje się sensowny w kontekście domowego zastosowania – zwłaszcza, jeśli priorytetem jest stabilna infrastruktura LAN. Podsumowując ocenę: RT-BE88U to solidny, wydajny router nowej generacji, który rolę przewodowego serca sieci spełnia wzorowo, a przy tym oferuje całą gamę funkcji dodatkowych i rozsądną jak na swoje możliwości cenę. Dla wielu zaawansowanych użytkowników będzie to strzał w dziesiątkę – sprzęt niemal kompletny, jeśli chodzi o sieć domową przyszłości.

Źródła: ASUS, CD-Action, Benchmark.pl, Dong Knows Tech

Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

Wirtualny asystent jako przewodnik: AI w służbie osób niewidomych

Technologia rozwija się w zawrotnym tempie, a innowacyjne rozwiązania, które jeszcze kilkanaście lat temu wydawały się zarezerwowane dla przyszłości, dziś stają się codziennością. Jednym z takich przełomowych osiągnięć jest rozwój sztucznej inteligencji (AI) i jej zastosowanie w postaci wirtualnych asystentów. Te narzędzia, początkowo zaprojektowane do odpowiadania na proste zapytania czy organizowania kalendarza, z biegiem czasu przekształciły się w prawdziwych przewodników, oferujących wsparcie w wielu dziedzinach życia. Szczególnie interesujący jest ich wpływ na życie osób niewidomych i słabowidzących. Dla tej grupy, tradycyjne technologie często stanowią barierę, jednak odpowiednio dostosowane rozwiązania oparte na AI mogą przełamać te ograniczenia, otwierając nowe możliwości samodzielności, nauki, pracy i rozrywki. W artykule przyjrzymy się, czym dokładnie są wirtualni asystenci, jak działają i jakie korzyści przynoszą osobom z dysfunkcją wzroku. Opowiemy również o ich historii, obecnych zastosowaniach, a także o wyzwaniach, które stoją przed twórcami technologii oraz o tym, co może przynieść przyszłość.

W dobie cyfryzacji i globalnej transformacji technologicznej, tematyka dostępności i inkluzywności staje się coraz bardziej paląca. Z jednej strony, firmy technologiczne inwestują w rozwój narzędzi, które umożliwiają osobom z różnymi ograniczeniami korzystanie z dobrodziejstw współczesnego świata cyfrowego, a z drugiej – społeczność osób niewidomych oczekuje narzędzi, które pozwolą im funkcjonować na równi z osobami widzącymi. Wirtualny asystent, wykorzystujący możliwości AI, jest jednym z najbardziej obiecujących rozwiązań w tej dziedzinie.

W niniejszym artykule przybliżymy, jak wirtualny asystent może pełnić rolę przewodnika w codziennym życiu osób niewidomych, na czym polega jego działanie, jakie zastosowania już dzisiaj znajdują realne odzwierciedlenie oraz jakie kierunki rozwoju zapowiadają się na najbliższe lata.

Spróbujemy również zastanowić się, jakie wyzwania stoją przed twórcami takich systemów i jakie etyczne dylematy mogą się pojawić przy implementacji AI w tak wrażliwej sferze życia człowieka.

Historia i rozwój technologii AI

Rozwój sztucznej inteligencji nie nastąpił z dnia na dzień. Początki sięgają lat 50. XX wieku, kiedy to naukowcy zaczęli eksperymentować z ideą maszyn potrafiących „myśleć”. Przez dekady AI przechodziło przez kolejne fazy rozwoju – od systemów opartych na regułach po głębokie sieci neuronowe, które potrafią analizować ogromne ilości danych. W miarę upływu czasu, technologia ta zaczęła znajdować zastosowanie w coraz bardziej zróżnicowanych dziedzinach, od medycyny, poprzez finanse, aż po codzienne zadania użytkowników smartfonów.

Początkowo systemy oparte na sztucznej inteligencji były skomplikowane, mało dostępne i wykorzystywane głównie przez duże korporacje oraz instytucje badawcze. Z czasem, dzięki postępowi technologicznemu, moc obliczeniowa komputerów drastycznie wzrosła, co umożliwiło rozwój bardziej zaawansowanych algorytmów i ich wdrożenie w urządzeniach konsumenckich. To właśnie wtedy narodził się pomysł stworzenia wirtualnych asystentów, którzy nie tylko odpowiadają na pytania, ale również potrafią uczyć się od użytkowników i dostosowywać do ich indywidualnych potrzeb.

Dla osób niewidomych zmiany te miały ogromne znaczenie. W świecie, gdzie każdy dodatkowy szczegół może znacząco wpłynąć na jakość życia, wirtualny asystent oferuje nie tylko ułatwienie w codziennych czynnościach, ale również możliwość pełniejszego uczestnictwa w życiu społecznym. Już na wczesnym etapie rozwoju technologii pojawiały się pierwsze eksperymenty z systemami rozpoznawania mowy, które umożliwiały sterowanie urządzeniami bez potrzeby interakcji wzrokowej. Dzięki temu osoby z dysfunkcją wzroku mogły korzystać z wielu funkcji swoich urządzeń mobilnych, a stopniowo – z coraz bardziej zaawansowanych systemów.

W ciągu ostatniej dekady obserwujemy gwałtowny rozwój rozwiązań opartych na AI, które znajdują zastosowanie nie tylko w sektorze komercyjnym, ale również w obszarze pomocy społecznej. Rozwój technologii mobilnych, wzrost popularności smartfonów oraz rosnące znaczenie aplikacji głosowych sprawiły, że wirtualni asystenci stali się powszechnym narzędziem ułatwiającym życie. Coraz więcej firm inwestuje w technologie dostępności, widząc w nich zarówno szansę na rozwój biznesu, jak i na realne wsparcie dla osób potrzebujących specjalnych rozwiązań.

Niezwykle istotnym aspektem rozwoju AI jest również kwestia etyki. Projektanci systemów muszą mieć świadomość, że ich rozwiązania mogą mieć bezpośredni wpływ na życie ludzi – w tym na osoby niewidome, które często borykają się z barierami, które dla większości z nas są niewidoczne. Dlatego też rozwój technologii w tym obszarze wymaga nie tylko ogromnej wiedzy technicznej, ale także wrażliwości społecznej oraz głębokiego zrozumienia potrzeb użytkowników.

Jak działa wirtualny asystent?

Wirtualny asystent, działający na bazie sztucznej inteligencji, to system komputerowy zaprojektowany tak, aby komunikować się z użytkownikiem w sposób naturalny – zarówno poprzez mowę, jak i tekst. Jego działanie opiera się na kilku kluczowych technologiach:

  1. Rozpoznawanie mowy – to proces, w którym system przetwarza dźwięk mowy użytkownika i zamienia go na tekst. Dzięki zaawansowanym algorytmom systemy te potrafią rozpoznawać nawet nieco zniekształcone wypowiedzi, dialekty czy akcenty, co jest niezwykle istotne w przypadku użytkowników o różnych profilach językowych.
  1. Przetwarzanie języka naturalnego (NLP) – po przekształceniu mowy na tekst, system analizuje wypowiedź, aby zrozumieć jej Dzięki technikom NLP wirtualny asystent może interpretować intencje użytkownika, odpowiadać na pytania czy realizować polecenia. To właśnie ta część systemu sprawia, że komunikacja staje się naturalna i intuicyjna.
  1. Sztuczne sieci neuronowe i uczenie maszynowe – to fundament, na którym opiera się większość współczesnych systemów AI. Dzięki ciągłemu uczeniu się z dostarczanych danych, asystent potrafi dostosować się do indywidualnych preferencji użytkownika, zapamiętując jego zwyczaje oraz reakcje na różne sytuacje. Proces ten odbywa się w sposób niemal niezauważalny, ale jego efekty są widoczne w poprawie jakości interakcji.
  1. Interfejsy głosowe – kluczowym aspektem wirtualnych asystentów dla osób niewidomych jest możliwość interakcji bez potrzeby korzystania z tradycyjnych interfejsów Systemy te wykorzystują syntezę mowy, aby „odczytywać” informacje, a użytkownicy mogą komunikować się z urządzeniem wyłącznie za pomocą głosu. Dzięki temu osoby, które nie mogą korzystać z ekranu dotykowego, mają pełny dostęp do funkcji urządzenia.
  1. Integracja z systemami zewnętrznymi – współczesne asystenty potrafią łączyć się z wieloma aplikacjami oraz urządzeniami, co umożliwia im kompleksowe wsparcie. Mogą zarządzać kalendarzem, wyszukiwać informacje w internecie, a nawet sterować inteligentnym Dla osoby niewidomej takie rozwiązanie to prawdziwy przełom – zamiast polegać na pomocy innych ludzi, system AI staje się niezawodnym narzędziem wspierającym codzienne funkcjonowanie.

Warto podkreślić, że technologia ta nieustannie się rozwija. Dzięki ciągłym inwestycjom w badania i rozwój, wirtualni asystenci stają się coraz bardziej precyzyjni i skuteczni. Już dziś obserwujemy, jak wiele zadań, które kiedyś wymagały manualnego wykonywania lub wsparcia zewnętrznego, jest teraz realizowanych za pomocą głosu i inteligentnych algorytmów.

Przykłady zastosowania AI w życiu osób niewidomych

W praktyce, zastosowanie wirtualnych asystentów przez osoby niewidome przejawia się na wielu płaszczyznach. Poniżej przedstawiam kilka przykładów, które obrazują, jak technologia AI wpływa na poprawę jakości życia.

  1. Nawigacja i orientacja w przestrzeni. Osoby niewidome często napotykają trudności w poruszaniu się w nieznanym otoczeniu. Wirtualny asystent wyposażony w moduły nawigacyjne potrafi nie tylko wskazać właściwy kierunek, ale również dostarczyć informacji o otoczeniu – czy znajdują się w pobliżu skrzyżowania, czy może nadchodzą jakieś przeszkody. Systemy te często współpracują z GPS-em oraz innymi sensorami, co umożliwia precyzyjne określenie pozycji użytkownika. W ten sposób, w sytuacjach kryzysowych lub podczas codziennych spacerów, osoba niewidoma może czuć się bezpieczniej, wiedząc, że ma „osobistego przewodnika” dostępnego na każde wezwanie.
  1. Czytanie i interpretacja informacji. Kolejnym obszarem, w którym AI odgrywa kluczową rolę, jest pomoc w dostępie do informacji. Wirtualny asystent potrafi odczytywać teksty z ekranów, książek czy nawet tablic informacyjnych. Systemy te wykorzystują technologię OCR (optyczne rozpoznawanie znaków) w połączeniu z przetwarzaniem mowy, co umożliwia konwersję tekstu na mowę. Dzięki temu osoba niewidoma może samodzielnie przeglądać dokumenty, czytać wiadomości czy korzystać z serwisów internetowych. Tego typu rozwiązania rewolucjonizują edukację oraz umożliwiają niezależność w codziennych sytuacjach, w których wcześniej była wymagana pomoc osoby trzeciej.
  1. Zarządzanie codziennymi zadaniami. Wielu użytkowników wykorzystuje wirtualnych asystentów do organizowania swojego dnia. Asystent potrafi przypominać o spotkaniach, wyszukiwać informacje w internecie, a nawet sterować innymi urządzeniami – od inteligentnych żarówek po systemy alarmowe. Dla osoby niewidomej, która nie ma możliwości szybkiego sprawdzenia ekranu smartfona, głosowy interfejs to ogromne ułatwienie. Systemy te pomagają w organizacji dnia, co w efekcie przekłada się na większą niezależność i komfort życia.
  1. Wsparcie w sytuacjach awaryjnych. Nie można pominąć aspektu bezpieczeństwa. Wirtualni asystenci mogą reagować na sygnały alarmowe, informować służby ratunkowe czy po prostu umożliwiać szybkie powiadomienie bliskich w razie nagłej potrzeby. Funkcja ta jest szczególnie cenna dla osób, które ze względu na ograniczenia wzrokowe mogą mieć problem z szybkim zlokalizowaniem przycisków alarmowych czy znalezieniem innego sposobu na wezwanie pomocy.
  1. Integracja z systemami inteligentnego domu. Coraz więcej osób korzysta z rozwiązań inteligentnego domu, które pozwalają na sterowanie wieloma urządzeniami za pomocą jednego interfejsu głosowego. Wirtualny asystent może nie tylko dostosować oświetlenie do warunków panujących w pomieszczeniu, ale również kontrolować temperaturę, odtwarzać ulubioną muzykę czy przypominać o codziennych czynnościach. Dzięki temu osoby niewidome, które mają utrudniony dostęp do tradycyjnych paneli sterujących, mogą cieszyć się pełną autonomią w swoim domu.

Korzyści płynące z wykorzystania wirtualnych asystentów

Wprowadzenie wirtualnych asystentów opartych na AI do codziennego życia osób niewidomych niesie ze sobą szereg korzyści. Po pierwsze, podnosi to poziom niezależności. Kiedy technologia jest dostosowana do potrzeb użytkownika, bariery komunikacyjne znikają, a zadania, które wcześniej wydawały się niemożliwe do wykonania samodzielnie, stają się dostępne na wyciągnięcie ręki. Osoba niewidoma, mając dostęp do spersonalizowanego asystenta, może czuć się pewniej zarówno w domu, jak i w przestrzeni publicznej.

Kolejną zaletą jest poprawa jakości życia. Dostęp do informacji w czasie rzeczywistym, możliwość szybkiej komunikacji oraz dostęp do różnorodnych usług – wszystko to sprawia, że osoby niewidome mogą uczestniczyć w życiu społecznym na równi z innymi. Przykładowo, możliwość czytania artykułów, wiadomości czy korzystania z platform edukacyjnych bez potrzeby angażowania dodatkowej pomocy, stanowi ogromny krok naprzód w kierunku inkluzywności.

Równie ważna jest kwestia edukacji oraz rozwoju zawodowego. Dzięki wirtualnym asystentom osoby niewidome mogą łatwiej zdobywać nowe umiejętności, uczestniczyć w kursach online, a także rozwijać swoje pasje. Systemy te często są wyposażone w funkcje wspomagające naukę, takie jak interaktywne pytania, wyjaśnienia czy możliwość personalizacji treści. W rezultacie, korzystanie z takich rozwiązań otwiera nowe ścieżki zawodowe i umożliwia realizację marzeń, które jeszcze niedawno wydawały się nieosiągalne.

Oprócz tego, technologia ta znacząco poprawia bezpieczeństwo. W sytuacjach kryzysowych czy podczas codziennych aktywności, gdy szybka reakcja jest kluczowa, wirtualny asystent może pełnić rolę „strażnika” – informując o zagrożeniach, wskazując najbezpieczniejsze drogi czy automatycznie łącząc z odpowiednimi służbami. W efekcie, zarówno użytkownik, jak i jego bliscy, mogą czuć się bezpieczniej.

Wyzwania i ograniczenia

Jak każda technologia, również i wirtualni asystenci nie są wolni od wyzwań. Jednym z głównych problemów jest kwestia dokładności rozpoznawania mowy. Chociaż algorytmy stale się rozwijają, zdarzają się sytuacje, w których system może błędnie zinterpretować wypowiedź użytkownika – zwłaszcza gdy mowa jest nieco zniekształcona lub pochodzi z nietypowym akcentem. Dla osoby niewidomej, która polega wyłącznie na głosowym interfejsie, każda taka pomyłka może skutkować frustracją czy nawet zagrożeniem bezpieczeństwa.

Kolejnym aspektem jest prywatność i bezpieczeństwo danych. Wirtualni asystenci zbierają i przetwarzają duże ilości informacji osobistych, co rodzi pytania o ochronę prywatności. Konieczne jest zapewnienie, że dane użytkowników są odpowiednio zabezpieczone i nie są wykorzystywane w sposób nieautoryzowany. Dla osób niewidomych, które mogą być bardziej zależne od technologii, jest to szczególnie ważne.

Nie można również pominąć wyzwań związanych z integracją systemów. W idealnym świecie wszystkie urządzenia i aplikacje współpracują ze sobą bez zakłóceń, jednak w praktyce może zdarzyć się sytuacja, w której poszczególne elementy ekosystemu technologicznego nie są ze sobą kompatybilne. Użytkownik, mimo wsparcia wirtualnego asystenta, może napotkać problemy z synchronizacją danych lub niekompletną funkcjonalnością niektórych rozwiązań.

Kwestia kosztów również odgrywa istotną rolę. Chociaż technologia AI staje się coraz bardziej dostępna, niektóre zaawansowane systemy czy urządzenia mogą być poza zasięgiem finansowym wielu użytkowników. W efekcie, pomimo ogromnych korzyści, jakie niesie ze sobą technologia, wciąż istnieje luka, którą trzeba zniwelować, aby wszyscy mieli równy dostęp do nowoczesnych rozwiązań.

Na poziomie technologicznym nieustannie pojawiają się także nowe wyzwania związane z aktualizacją oprogramowania, kompatybilnością systemów czy koniecznością ciągłego doskonalenia algorytmów. Wszystko to wymaga nie tylko inwestycji finansowych, ale także ogromnego zaangażowania ze strony twórców technologii. W miarę jak systemy te stają się bardziej zaawansowane, konieczne będzie również wprowadzanie regulacji, które będą chronić użytkowników i zapewnią etyczne wykorzystanie AI.

Przyszłość technologii AI dla osób niewidomych

Patrząc w przyszłość, można dostrzec ogromny potencjał w rozwoju wirtualnych asystentów, które pełnią funkcję przewodnika dla osób niewidomych. Dynamiczny rozwój algorytmów uczenia maszynowego, rosnąca moc obliczeniowa urządzeń mobilnych oraz coraz lepsza integracja systemów otwierają drzwi do rozwiązań, które jeszcze kilka lat temu wydawały się niemożliwe. Przyszłość zapowiada się obiecująco, a wiele projektów badawczych skupia się na tym, aby stworzyć narzędzia, które będą jeszcze bardziej precyzyjne, intuicyjne i dostępne dla każdego.

Możemy spodziewać się, że w miarę postępu technologii, wirtualni asystenci staną się nie tylko pomocnikami w codziennych zadaniach, ale również wsparciem w sferze emocjonalnej. Systemy, które będą w stanie wykryć nastrój użytkownika, dostosować ton głosu czy sugerować odpoczynku w trudnych chwilach, mogą stać się cennym narzędziem w walce z samotnością i stresem. Integracja rozwiązań AI z technologiami wearable – inteligentnymi zegarkami, opaskami czy innymi urządzeniami noszonymi – pozwoli na ciągły monitoring zdrowia i stanu emocjonalnego użytkownika, co może znacząco poprawić jakość życia.

W obszarze edukacji i rozwoju zawodowego, dalsze postępy w dziedzinie przetwarzania języka naturalnego umożliwią tworzenie jeszcze bardziej zaawansowanych systemów wsparcia. Wyobraźmy sobie narzędzia, które potrafią automatycznie przetłumaczyć skomplikowane instrukcje na przystępny język, czy systemy, które będą w stanie tworzyć spersonalizowane ścieżki edukacyjne, uwzględniające indywidualne predyspozycje i tempo nauki. Takie rozwiązania zrewolucjonizują sposób, w jaki osoby niewidome przyswajają wiedzę oraz rozwijają swoje umiejętności zawodowe.

Nie bez znaczenia są także aspekty społeczne. W miarę jak technologia staje się bardziej dostępna, rośnie też świadomość społeczna na temat potrzeb osób z dysfunkcjami wzroku. Współpraca pomiędzy firmami technologicznymi, organizacjami pozarządowymi oraz samymi użytkownikami będzie kluczowa, aby rozwój AI odbywał się w sposób zrównoważony, etyczny i zgodny z potrzebami społeczności. Tylko dzięki takiemu podejściu można stworzyć rozwiązania, które będą realnie poprawiać jakość życia i umożliwiać pełne uczestnictwo w społeczeństwie.

Nie sposób pominąć również aspektu emocjonalnego. Wirtualny asystent, który potrafi nie tylko wykonywać polecenia, ale również „słuchać” i reagować na potrzeby użytkownika, staje się swoistym towarzyszem. W momentach samotności czy trudnych chwilach, kiedy tradycyjne formy wsparcia zawodzą, technologia ta oferuje choćby symboliczne pocieszenie. Oczywiście, nic nie zastąpi ludzkiej empatii, ale dla wielu osób jest to realna pomoc, która codziennie wspiera ich w walce o niezależność.

Wyzwania etyczne i technologiczne

Rozwój AI w obszarze wsparcia osób niewidomych wiąże się nie tylko z korzyściami, ale także z pewnymi dylematami etycznymi. Jak każda technologia ingerująca w sferę życia prywatnego, wirtualni asystenci niosą ze sobą ryzyko naruszenia prywatności. W miarę jak systemy te zbierają dane o użytkownikach, pojawia się pytanie o to, kto i w jaki sposób ma dostęp do tych informacji. Dlatego kluczowe staje się wprowadzenie odpowiednich regulacji oraz ciągłe monitorowanie bezpieczeństwa danych.

Innym wyzwaniem jest zapewnienie, że technologia ta będzie dostępna dla wszystkich, a nie tylko dla wybranej grupy osób. Koszty związane z zakupem nowoczesnych urządzeń czy subskrypcją specjalistycznych usług mogą być barierą nie do pokonania dla wielu użytkowników. W związku z tym ważne jest, aby rozwój technologiczny szedł w parze z inicjatywami wspierającymi dostępność i inkluzywność, zarówno na poziomie rządowym, jak i korporacyjnym.

Z punktu widzenia technologicznego, ciągłe doskonalenie algorytmów oraz zwiększanie precyzji rozpoznawania mowy pozostaje priorytetem. Nawet najmniejsze błędy w interpretacji poleceń mogą wpłynąć na codzienne funkcjonowanie osoby niewidomej, dlatego też każdy postęp w tej dziedzinie jest na wagę złota. W miarę jak systemy stają się coraz bardziej zaawansowane, rośnie także oczekiwanie, że będą one w stanie dostosować się do najbardziej nietypowych sytuacji, co wymaga ogromnych nakładów pracy badawczej.

Przyszłe perspektywy i nadzieje

Patrząc w przyszłość, trudno nie zauważyć, jak bardzo technologia zmienia nasze życie. Wirtualni asystenci stają się coraz bardziej inteligentni, a ich rola jako przewodników w codziennym funkcjonowaniu osób niewidomych zyskuje na znaczeniu. Możemy oczekiwać, że w nadchodzących latach zobaczymy jeszcze bardziej zaawansowane rozwiązania, które będą integrować funkcje zdrowotne, edukacyjne oraz rozrywkowe w jednym systemie.

Wyobraźmy sobie świat, w którym każda osoba, niezależnie od swoich ograniczeń, ma dostęp do narzędzi umożliwiających pełne uczestnictwo w życiu społecznym. W takim scenariuszu wirtualny asystent staje się nie tylko pomocnikiem, ale i partnerem w realizacji codziennych zadań, a technologia przestaje być barierą, a staje się mostem łączącym różne grupy społeczne. Nadzieje te są szczególnie realne, gdy zauważymy dynamiczny rozwój startupów oraz inwestycje w rozwiązania dostępności, które mają na celu zmniejszenie przepaści technologicznej między osobami z niepełnosprawnościami a resztą społeczeństwa.

Nie można też zapomnieć o roli, jaką w tym procesie odgrywają organizacje pozarządowe oraz społeczności osób niewidomych. Ich aktywność i współpraca z firmami technologicznymi są dowodem na to, że zmiana jest możliwa, a technologia może być siłą napędową pozytywnych przemian. W miarę jak coraz więcej ludzi angażuje się w rozwój narzędzi dostosowanych do ich potrzeb, rośnie również świadomość społeczna, co przekłada się na lepszą integrację i większe możliwości rozwoju dla wszystkich.

Podsumowanie

Podsumowując, wirtualny asystent oparty na sztucznej inteligencji to narzędzie, które już dziś odgrywa kluczową rolę w życiu osób niewidomych. Jego zastosowanie obejmuje szeroki zakres funkcji od nawigacji i organizacji codziennych zadań, przez odczytywanie informacji, aż po wsparcie w sytuacjach kryzysowych. Dzięki ciągłemu rozwojowi technologii, asystenci te stają się coraz bardziej precyzyjni, intuicyjni i spersonalizowani, co przekłada się na realną poprawę jakości życia użytkowników.

Warto również podkreślić, że rozwój tych systemów to nie tylko kwestia technologiczna, ale również społeczna. Inwestycje w narzędzia dostępności, rozwój aplikacji głosowych czy integracja z inteligentnymi systemami domowymi to działania, które mają na celu stworzenie bardziej inkluzywnego społeczeństwa, w którym każdy, niezależnie od swoich ograniczeń, ma szansę na pełne uczestnictwo w życiu publicznym.

Perspektywy na przyszłość są niezwykle obiecujące. Z jednej strony widzimy, jak dynamicznie rozwijają się algorytmy AI, a z drugiej – jak wiele projektów badawczych i inicjatyw społecznych skupia się na kwestiach dostępności. Przyszłość, w której technologia naprawdę służy ludziom, niezależnie od ich zdolności, wydaje się być coraz bliżej. Wirtualny asystent, będący jednocześnie przewodnikiem, nauczycielem i partnerem, może stać się symbolem nowej ery, w której bariery przestają istnieć, a możliwości są nieograniczone.

Na zakończenie warto zaznaczyć, że choć droga do pełnej integracji technologicznej jest jeszcze długa, już dziś obserwujemy ogromny postęp. Każda nowa funkcja, każdy kolejny algorytm, który lepiej rozumie mowę i potrzeby użytkownika, przybliża nas do świata, w którym technologia staje się prawdziwym narzędziem emancypacji. To właśnie dzięki takim innowacjom osoby niewidome mogą czuć się bardziej pewnie, niezależnie i aktywnie uczestniczyć w życiu społecznym.

Mam nadzieję, że ten artykuł nie tylko przybliżył Wam działanie wirtualnych asystentów, ale również zainspirował do refleksji na temat przyszłości technologii w kontekście dostępności. Każdy, kto korzysta z dobrodziejstw współczesnej nauki, zasługuje na to, aby technologia była dla niego narzędziem wsparcia, a nie przeszkodą. W erze, w której granice między światem fizycznym a cyfrowym zacierają się z dnia na dzień, kluczowe staje się, aby każdy mógł korzystać z osiągnięć nauki na równych zasadach.

  • Źródło własne.

Inspirujące Historie Osób, Które Przełamały Bariery Niepełnosprawności – cd

W tej publikacji znajdziesz również sylwetki osób, które choć same nie są niewidome, aktywnie działają na rzecz równości i wsparcia dla osób z niepełnosprawnościami. Ich wkład w promowanie integracji, walkę o prawa osób z niepełnosprawnościami i rozwój nowoczesnych technologii wspierających codzienne życie niewidomych jest równie ważny i inspirujący.

Każda z tych historii to dowód na to, że ludzie, niezależnie od trudności, z jakimi się zmagają, mogą przekraczać swoje ograniczenia i pozytywnie wpływać na życie innych. Te opowieści mają na celu nie tylko zainspirowanie do działania, ale także przypomnienie, że wszyscy możemy przyczynić się do budowania świata, w którym niepełnosprawność nie definiuje czyichś możliwości. Zapraszamy do lektury!

1. Aaron Hale – Niezłomny Duch Weterana, Szefa Kuchni i Motywatora

Aaron Hale to przykład człowieka, który pomimo ciężkich życiowych wyzwań, nie poddał się losowi i stał się inspiracją dla wielu. Urodzony i wychowany w Stanach Zjednoczonych, Hale zyskał sławę jako weteran armii amerykańskiej, który po tragicznych wydarzeniach w Afganistanie stracił wzrok. Jednak to, co czyni jego historię wyjątkową, to niezwykła determinacja i wola walki, która pozwoliła mu nie tylko przetrwać, ale także odnosić sukcesy w życiu osobistym i zawodowym.

Wczesne lata i kariera wojskowa

Aaron Hale wstąpił do armii amerykańskiej jako młody człowiek, pragnąc służyć swojemu krajowi. Z czasem zyskał reputację świetnego żołnierza, który z zaangażowaniem podchodził do swoich obowiązków. Specjalizował się w saperstwie i unieszkodliwianiu materiałów wybuchowych, stając się członkiem elitarnego zespołu EOD (Explosive Ordnance Disposal), czyli oddziału zajmującego się usuwaniem i neutralizowaniem niebezpiecznych ładunków wybuchowych.

Podczas służby w Afganistanie Hale był odpowiedzialny za rozbrajanie improwizowanych ładunków wybuchowych (IED), które stanowiły jedno z największych zagrożeń dla wojsk alianckich. Niestety, jego służba zakończyła się tragicznie w 2011 roku, kiedy podczas jednej z misji doszło do eksplozji, która pozbawiła go wzroku. W wyniku wybuchu, Hale odniósł poważne obrażenia, które na zawsze zmieniły jego życie.

Walka o przetrwanie i nowa ścieżka życia

Po tym tragicznym wypadku Hale przeszedł długi i bolesny proces rehabilitacji. Strata wzroku była ogromnym ciosem, ale Aaron szybko udowodnił, że nie zamierza poddać się trudnościom. Zamiast użalać się nad losem, postanowił poszukać nowych wyzwań, które pozwolą mu odbudować swoje życie.

Jednym z największych osiągnięć Hale’a było to, że po utracie wzroku odkrył swoją pasję do gotowania. Początkowo traktował to jako sposób na zajęcie czasu podczas rehabilitacji, jednak z czasem stał się profesjonalnym szefem kuchni. Zdecydował się założyć własny biznes – Extraordinary Delights – firmę specjalizującą się w wyrobach czekoladowych i deserach, które stały się prawdziwym hitem. Aaron samodzielnie uczył się, jak zarządzać produkcją i przygotowywać różnorodne smakołyki, nie pozwalając, aby jego niepełnosprawność go ograniczała. Przedsiębiorstwo szybko zyskało uznanie, a jego produkty zaczęły trafiać do szerokiego grona klientów, zarówno lokalnie, jak i krajowo.

Przykład niezłomności

Aaron Hale to nie tylko biznesmen i kucharz. Jego historia stała się inspiracją dla wielu, a sam Hale zaczął angażować się w działalność motywacyjną, pomagając innym ludziom zrozumieć, że nawet najtrudniejsze przeszkody w życiu można pokonać. Jego przesłanie o niezłomności ducha i sile determinacji dociera do ludzi na całym świecie, a on sam stał się cenionym mówcą motywacyjnym, występującym na różnych konferencjach i wydarzeniach.

Jednak los postanowił wystawić Hale’a na jeszcze jedną próbę. W 2015 roku, w wyniku powikłań po wcześniejszych urazach, Aaron stracił również słuch. Dla wielu osób byłby to moment załamania, ale nie dla niego. Dzięki nowoczesnej technologii – implantom ślimakowym – udało mu się częściowo odzyskać słuch, co umożliwiło mu dalsze działanie na rzecz innych i rozwijanie swojej kariery.

Wyzwania sportowe

Aaron Hale to również zapalony sportowiec. Po tym, jak stracił wzrok, zaczął szukać nowych sposobów na aktywność fizyczną. Stał się zapalonym entuzjastą biegania maratonów oraz uczestnikiem różnorodnych zawodów sportowych, takich jak wyścigi na dystansach długodystansowych. Jego determinacja pozwoliła mu na ukończenie m.in. maratonu bostońskiego, a także zawodów triathlonowych.

Wielką inspiracją był również jego udział w zawodach Ironman, które są jednym z najtrudniejszych wyzwań sportowych na świecie, wymagających wytrzymałości fizycznej i psychicznej. Pomimo swojej niepełnosprawności, Aaron Hale nieustannie dąży do przekraczania własnych granic, pokazując innym, że wszystko jest możliwe, jeśli tylko znajdzie się odpowiednią motywację.

Rodzina i życie osobiste

Jednym z kluczowych elementów w życiu Aarona Hale’a jest jego rodzina. Jego żona McKayla stała się jego partnerką nie tylko w życiu osobistym, ale także w biznesie. To dzięki jej wsparciu i miłości Hale jest w stanie stawiać czoła codziennym wyzwaniom. Razem wychowują trójkę dzieci i prowadzą szczęśliwe, spełnione życie.

2. Aldous Huxley – Wizjoner Literatury i Twórca Nowoczesnych Dystopii

Aldous Huxley, urodzony 26 lipca 1894 roku w Godalming, w Anglii, jest uznawany za jednego z najważniejszych pisarzy XX wieku. Jego najsłynniejsze dzieło, „Nowy wspaniały świat” (ang. Brave New World), stworzyło literacką wizję dystopii, która do dziś stanowi jedną z najbardziej wpływowych i proroczych powieści w historii literatury. Pomimo tego, że Huxley zmagał się z poważnymi problemami ze wzrokiem przez dużą część swojego życia, osiągnął status jednego z najwybitniejszych intelektualistów swojego pokolenia.

Wczesne życie i utrata wzroku

Aldous Huxley urodził się w inteligenckiej rodzinie. Jego ojciec, Leonard Huxley, był znanym pisarzem i wydawcą, a dziadek, Thomas Henry Huxley, był czołowym biologiem, który aktywnie promował teorie

ewolucji Karola Darwina. Huxley dorastał w otoczeniu, które sprzyjało intelektualnemu rozwojowi, a jego przyszłość jako uczonego wydawała się nieunikniona.

W wieku 16 lat Aldous Huxley zachorował na ciężką chorobę oczu, keratitis punctata, która niemal całkowicie pozbawiła go wzroku na ponad półtora roku. Choć z czasem częściowo odzyskał zdolność widzenia, jego wzrok pozostał znacząco osłabiony przez resztę życia. To doświadczenie miało ogromny wpływ na Huxleya, zarówno na jego życie osobiste, jak i na twórczość literacką. Jego trudności ze wzrokiem zmusiły go do porzucenia marzeń o karierze medycznej, ale jednocześnie skierowały jego zainteresowania ku literaturze.

Kariera literacka

Pomimo problemów zdrowotnych, Huxley nie zrezygnował z pisania. Rozpoczął karierę literacką jako krytyk i eseista, a później zwrócił się ku beletrystyce. Jego pierwsze powieści, takie jak „Crome Yellow” (1921) i „Point Counter Point” (1928), ukazywały jego błyskotliwość, ironię i zdolność do analizowania złożonych problemów społecznych i filozoficznych.

Jednak to właśnie powieść „Nowy wspaniały świat”, opublikowana w 1932 roku, przyniosła mu międzynarodową sławę. W tej książce Huxley przedstawił dystopijną wizję przyszłości, w której ludzie są kontrolowani przez rządzących poprzez technologie i chemiczne środki masowego nadzoru. Huxley przewidywał, że ludzkość może poddać się tyranii wygody i zrezygnować z wolności na rzecz technologicznie kontrolowanego społeczeństwa konsumpcyjnego. Powieść ta stała się jednym z najważniejszych dzieł literatury XX wieku, poruszając tematy manipulacji, dehumanizacji i utraty tożsamości jednostki.

Zainteresowanie filozofią i duchowością

Po sukcesie „Nowego wspaniałego świata”, Huxley zaczął coraz bardziej interesować się filozofią, duchowością i mistycyzmem. Jego fascynacja ludzką świadomością i jej granicami doprowadziła do badań nad psychodelikami i ich wpływem na percepcję. W 1954 roku Huxley opublikował „Drzwi percepcji” (ang. The Doors of Perception), esej oparty na jego własnych doświadczeniach z meskaliną, co wywołało szeroką debatę na temat roli substancji psychoaktywnych w odkrywaniu głębszych poziomów ludzkiej świadomości.

Huxley uważał, że substancje psychodeliczne mogą otworzyć ludzkie umysły na nowe sposoby postrzegania rzeczywistości, a jego prace miały ogromny wpływ na kulturę lat 60., szczególnie na ruch kontrkulturowy i rozwój badań nad psychodelikami.

Problemy zdrowotne i późniejsze lata

W miarę upływu lat, wzrok Huxleya stawał się coraz słabszy. Choć przez większą część życia korzystał z pomocy innych ludzi w codziennych czynnościach i pisaniu, nigdy nie zrezygnował z pracy twórczej. Jego zainteresowania literackie ewoluowały w stronę bardziej duchowych i filozoficznych zagadnień.

W 1962 roku opublikował „Wyspę” (ang. Island), powieść, która stanowiła kontrapunkt dla jego wcześniejszych, bardziej pesymistycznych dzieł. „Wyspa” była utopijną wizją idealnego społeczeństwa, w którym ludzie żyją w harmonii z naturą i ze sobą nawzajem, odrzucając konsumpcjonizm i technologie kontroli.

Aldous Huxley zmarł 22 listopada 1963 roku, tego samego dnia, w którym zginął prezydent John F. Kennedy. Jego życie i twórczość pozostawiły trwały ślad w literaturze i filozofii, a jego prace są nadal aktualne w kontekście współczesnych debat o technologii, społeczeństwie i wolności jednostki.

Dziedzictwo Huxleya

Aldous Huxley to postać, której twórczość miała ogromny wpływ na myślenie o przyszłości i kondycji ludzkiej. Jego wizje społeczne, ostrzeżenia przed technologiczną tyranią i refleksje nad ludzką naturą wciąż rezonują w XXI wieku. Pomimo problemów zdrowotnych, które mogłyby zniechęcić innych, Huxley pozostał twórcą o wyjątkowej sile intelektu i wizji, który inspirował i nadal inspiruje kolejne pokolenia czytelników, myślicieli i artystów.

Podsumowanie

Publikacja przedstawia inspirujące sylwetki osób, które mimo przeciwności losu osiągnęły niezwykłe sukcesy oraz tych, którzy aktywnie działają na rzecz wsparcia i integracji osób z niepełnosprawnościami. Przykłady takich postaci jak Aaron Hale – weteran wojskowy, szef kuchni i sportowiec, czy Aldous Huxley – wybitny pisarz o osłabionym wzroku, pokazują, że determinacja i pasja mogą przezwyciężyć każdą przeszkodę. Historie te nie tylko inspirują, ale również podkreślają znaczenie społecznej solidarności i technologii w budowaniu świata bez barier.

  • Źródło własne.

Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

„BlindFit” – Rewolucyjna Aplikacja Fitness dla Osób Niewidomych i Słabowidzących

W listopadzie 2024 roku na rynku aplikacji wspierających pojawiła się „BlindFit”, pierwsza tego typu aplikacja fitness zaprojektowana z myślą o potrzebach osób niewidomych i słabowidzących. Dzięki interaktywnym wskazówkom głosowym , funkcjom monitorowania aktywności i pełnej integracji z technologią ubieralną, „BlindFit” rewolucjonizuje podejście do aktywności fizycznej w tej grupie użytkowników.

Dzięki „BlindFit” ćwiczenia stają się prostsze, bardziej dostępne i bezpieczne, co pozwala każdemu użytkownikowi cieszyć się zdrowym trybem życia bez względu na ograniczenia wzrokowe.

Co oferuje „BlindFit”?

1. Interaktywne wskazówki głosowe

Aplikacja prowadzi użytkownika krok po kroku przez różnorodne ćwiczenia, dostosowując instrukcje do poziomu zaawansowania i preferencji użytkownika.

2. Monitorowanie aktywności fizycznej

Dzięki integracji z urządzeniami ubieralnymi, takimi jak smartwatche czy opaski fitness, aplikacja rejestruje liczbę kroków, spalone kalorie i czas trwania treningu.

3. Dostosowane plany treningowe

„BlindFit” oferuje indywidualne plany treningowe, które uwzględniają cele użytkownika, takie jak poprawa kondycji, utrata wagi czy budowa siły.

4. Wsparcie w sportach na świeżym powietrzu

Aplikacja wykorzystuje GPS do prowadzenia użytkownika w czasie rzeczywistym podczas biegania, spacerów czy jazdy na rowerze.

5. Motywacja i społeczność

Użytkownicy mogą dołączać do grup wsparcia, brać udział w wyzwaniach i dzielić się swoimi postępami z innymi osobami korzystającymi z aplikacji.

Interaktywne wskazówki głosowe – Twój osobisty trener

Jednym z kluczowych elementów „BlindFit” są szczegółowe instrukcje głosowe, które umożliwiają użytkownikom bezpieczne wykonywanie ćwiczeń. Funkcja ta oferuje:

• Krok po kroku instrukcje: Każde ćwiczenie jest opisane w sposób jasny i szczegółowy, np. „Stań prosto, stopy na szerokość bioder, unieś ręce nad głowę i wykonaj skłon”.

• Ostrzeżenia o poprawnej technice: Aplikacja informuje, jeśli użytkownik wykonuje ruchy nieprawidłowo, np. „Upewnij się, że Twoje plecy są wyprostowane”.

Przykład: Podczas treningu użytkownik może usłyszeć: „Za 5 sekund rozpoczniesz serię 15 przysiadów. Trzy, dwa, jeden – start!”.

Monitorowanie aktywności fizycznej – dane na wyciągnięcie ręki

Dzięki integracji z technologią ubieralną „BlindFit” rejestruje i analizuje postępy użytkownika, dostarczając informacji takich jak:

• Liczba kroków: Aplikacja informuje o codziennej aktywności użytkownika.

• Spalone kalorie: Funkcja szczególnie przydatna dla osób dbających o utrzymanie wagi.

• Czas trwania treningów: Rejestruje czas poświęcony na każdą aktywność fizyczną.

Przykład: Po zakończonym treningu użytkownik może usłyszeć podsumowanie: „Gratulacje! Spędziłeś 30 minut na ćwiczeniach i spaliłeś 250 kalorii”.

Dostosowane plany treningowe – Twój indywidualny program

„BlindFit” tworzy spersonalizowane plany treningowe dostosowane do potrzeb i celów użytkownika. Plany mogą obejmować:

• Ćwiczenia siłowe: Dla osób chcących zbudować masę mięśniową.

• Trening cardio: Dla poprawy kondycji i zdrowia serca.

• Ćwiczenia relaksacyjne: Takie jak joga czy medytacja.

Przykład: Użytkownik wybierający plan „Poprawa kondycji” otrzyma zestaw ćwiczeń biegowych, marszów i treningów interwałowych.

Wsparcie w sportach na świeżym powietrzu – aktywność bez granic

Dzięki wbudowanemu GPS, „BlindFit” wspiera użytkowników w uprawianiu sportów na świeżym powietrzu. Funkcja ta oferuje:

• Nawigację głosową: Aplikacja prowadzi użytkownika, informując o trasie i przeszkodach.

• Analizę wyników: Po zakończonym biegu lub spacerze użytkownik otrzymuje podsumowanie swoich osiągnięć.

• Tryb eksploracji: Aplikacja proponuje nowe trasy w okolicy, zachęcając do odkrywania nowych miejsc.

Przykład: Podczas biegu aplikacja może powiedzieć: „Skręć w lewo za 20 metrów. Po prawej stronie znajduje się park”.

Motywacja i społeczność – ćwicz z innymi

„BlindFit” umożliwia użytkownikom dołączenie do społeczności osób korzystających z aplikacji. Funkcje społecznościowe obejmują:

• Grupy wsparcia: Możliwość wymiany doświadczeń i motywacji z innymi użytkownikami.

• Wyzwania: Aplikacja organizuje wyzwania, takie jak „10000 kroków dziennie” czy „30-dniowy trening siłowy”.

• Dziel się postępami: Użytkownicy mogą udostępniać swoje osiągnięcia na platformach społecznościowych.

Przykład: Użytkownik może dołączyć do grupy „Bieganie w Warszawie” i uczestniczyć w lokalnych wyzwaniach.

Praktyczne zastosowania „BlindFit” w codziennym życiu

1. Trening w domu

Użytkownicy mogą korzystać z planów treningowych dostosowanych do ćwiczeń bez sprzętu.

2. Sporty na świeżym powietrzu

Dzięki GPS i wskazówkom głosowym aplikacja pomaga w bezpiecznym uprawianiu biegania, spacerów czy jazdy na rowerze.

3. Budowanie zdrowych nawyków

Monitorowanie aktywności i przypomnienia o treningach pomagają w utrzymaniu regularności ćwiczeń.

4. Wspólna motywacja

Funkcje społecznościowe sprawiają, że treningi stają się bardziej angażujące i motywujące.

Podsumowanie – „BlindFit” jako Twój osobisty trener

„BlindFit” to aplikacja, która otwiera nowe możliwości dla osób niewidomych i słabowidzących, pomagając im prowadzić aktywny i zdrowy tryb życia. Dzięki interaktywnym wskazówkom głosowym, monitorowaniu postępów i wsparciu społeczności, ćwiczenia stają się łatwiejsze, bezpieczniejsze i bardziej motywujące.

Jeśli szukasz narzędzia, które pomoże Ci w realizacji celów fitness, „BlindFit” to rozwiązanie, które warto wypróbować. Zacznij już dziś i odkryj, jak aktywność fizyczna może zmienić Twoje życie!

  • Czas dostępu: 10.12.2024, godz. 10:00 UTC, https://www.researchgate.net/publication/389519574_Assistive_technology_use_in_domestic_activities_by_people_who_are_blind

Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

„InVision AI” – Przełomowe Narzędzie do Rozpoznawania Obrazów dla Osób Niewidomych i Słabowidzących

W listopadzie 2024 roku na rynku technologii wspierających zadebiutowało „InVision AI”, zaawansowane narzędzie do rozpoznawania obrazów, które dzięki sztucznej inteligencji (AI) potrafi identyfikować przedmioty, teksty, twarze i otoczenie w czasie rzeczywistym. Stworzone z myślą o osobach niewidomych i słabowidzących, „InVision AI” wykorzystuje kamerę smartfona lub dedykowanego urządzenia, aby zapewnić użytkownikom niezrównane wsparcie w codziennym życiu.

Najważniejsze funkcje „InVision AI”

1. Rozpoznawanie przedmiotów i otoczenia

Aplikacja potrafi identyfikować przedmioty codziennego użytku oraz elementy otoczenia, takie jak meble, pojazdy czy rośliny.

2. Odczytywanie tekstu w czasie rzeczywistym

„InVision AI” analizuje teksty drukowane i ręcznie pisane, pozwalając użytkownikom czytać książki, dokumenty i etykiety.

3. Identyfikacja twarzy

Narzędzie może zapamiętywać twarze i rozpoznawać je podczas interakcji społecznych, informując użytkownika, kto znajduje się w pobliżu.

4. Opis zdjęć i grafik

Aplikacja generuje szczegółowe opisy obrazów i zdjęć, co sprawia, że użytkownik zyskuje pełniejszy dostęp do treści wizualnych.

5. Wsparcie głosowe i personalizacja

Wszystkie funkcje są obsługiwane głosowo, a użytkownik może dostosować sposób działania aplikacji do swoich potrzeb.

6. Tryb offline

„InVision AI” działa również bez dostępu do internetu, oferując podstawowe funkcje nawet w trudnych warunkach.

Rozpoznawanie przedmiotów i otoczenia – widzenie przez dźwięk

„InVision AI” pozwala użytkownikom identyfikować przedmioty i elementy otoczenia w czasie rzeczywistym. Kamera rejestruje obraz, a sztuczna inteligencja:

• Informuje o przedmiotach w polu widzenia, np. „Filiżanka kawy na stole”.

• Rozpoznaje otoczenie, np. „Przed tobą znajduje się park z ławkami i drzewami”.

• Ostrzega o potencjalnych przeszkodach, takich jak schody czy słupy.

Przykład: Podczas spaceru aplikacja może powiedzieć: „Na twojej drodze jest niska przeszkoda, ominięcie możliwe w prawo”.

Odczytywanie tekstu w czasie rzeczywistym – niezależność w każdej sytuacji

„InVision AI” potrafi błyskawicznie odczytywać teksty drukowane i pisane ręcznie:

• Książki i dokumenty: Użytkownik może skanować strony tekstu, a aplikacja odczytuje je na głos.

• Etykiety i paragony: Narzędzie odczytuje informacje o produktach, np. daty ważności czy składniki.

• Znaki i tablice informacyjne: Aplikacja pomaga zrozumieć treści wizualne w miejscach publicznych, takich jak przystanki autobusowe czy sklepy.

Przykład: Użytkownik skanuje menu w restauracji, a aplikacja odczytuje jego zawartość, np. „Kategoria: Dania główne – makaron carbonara, cena 35 zł”.

Identyfikacja twarzy – nowe możliwości w relacjach społecznych

„InVision AI” umożliwia rozpoznawanie twarzy w czasie rzeczywistym:

• Zapamiętywanie osób: Użytkownik może dodać twarze znajomych i rodziny do bazy danych.

• Informacje w czasie rzeczywistym: Aplikacja informuje, kto znajduje się w polu widzenia, np. „To Jan Kowalski, Twój kolega z pracy”.

• Wsparcie w interakcjach społecznych: Narzędzie ułatwia identyfikację osób w grupach lub podczas spotkań.

Opis zdjęć i grafik – pełny dostęp do wizualnych treści

Dzięki AI, „InVision AI” generuje szczegółowe opisy zdjęć i obrazów:

• Fotografie: Aplikacja opisuje, co znajduje się na zdjęciu, np. „Zdjęcie przedstawia plażę z palmami i zachodzącym słońcem”.

• Grafiki i wykresy: Narzędzie konwertuje wizualne dane na opisy tekstowe, ułatwiając ich zrozumienie.

Przykład: Oglądając post na Instagramie, użytkownik może usłyszeć: „Zdjęcie przedstawia kota leżącego na sofie”.

Wsparcie głosowe i personalizacja – technologia na Twoich warunkach

„InVision AI” oferuje pełną obsługę głosową, co czyni ją intuicyjną i łatwą w użyciu. Funkcje personalizacji obejmują:

• Regulację prędkości i tonu głosu.

• Dostosowanie powiadomień: Użytkownik może określić, jakie informacje mają być przekazywane.

• Skróty głosowe: Przyspieszają dostęp do najczęściej używanych funkcji.

Tryb offline – zawsze dostępne wsparcie

„InVision AI” działa również bez połączenia z internetem:

• Rozpoznawanie przedmiotów: Aplikacja identyfikuje podstawowe obiekty i teksty w trybie offline.

• Zapisywanie treści: Możliwość zapisania odczytanych tekstów lub opisów do późniejszego wykorzystania.

Praktyczne zastosowania „InVision AI” w codziennym życiu

1. Zakupy

Rozpoznawanie etykiet produktów, dat ważności i cen ułatwia zakupy w sklepach.

2. Poruszanie się w przestrzeni publicznej

Informacje o otoczeniu, takie jak znaki drogowe, budynki czy przeszkody, zwiększają niezależność.

3. Relacje społeczne

Identyfikacja twarzy pomaga w interakcjach z rodziną, przyjaciółmi i współpracownikami.

4. Edukacja

Skanowanie podręczników, dokumentów i grafik wspiera naukę na różnych poziomach edukacji.

5. Praca zawodowa

„InVision AI” ułatwia odczytywanie dokumentów, analizę danych i organizację przestrzeni biurowej.

Podsumowanie – „InVision AI” jako krok milowy w technologii dostępności

„InVision AI” to narzędzie, które zmienia sposób, w jaki osoby niewidome i słabowidzące doświadczają otaczającego świata. Dzięki rozpoznawaniu przedmiotów, tekstów i twarzy, a także pełnemu wsparciu głosowemu, aplikacja zapewnia niezrównaną niezależność i wygodę.

Jeśli szukasz technologii, która pomoże Ci w codziennym życiu, „InVision AI” to rozwiązanie, które warto wypróbować.

  • Czas dostępu: 03.12.2024, godz. 10:00 UTC, https://brytesoft.com/blog/accessibility-features-in-microsoft-office-2024.html

Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.