Dla użytkowników niewidomych jednym z największych problemów internetu i aplikacji nie jest „brak skrótów klawiszowych”, tylko brak informacji kontekstowej. Obraz w artykule, wykres w raporcie, diagram w dokumentacji, a czasem nawet przycisk w aplikacji bez podpisu — to miejsca, gdzie klasyczny czytnik ekranu często milknie albo odczytuje szczątkowe dane. Microsoft zaproponował podejście, które ma łatać tę lukę: bogatsze opisy obrazów w Narratorze generowane przez AI.
Wpis z 11 kwietnia 2025 na blogu programu Windows Insider opisuje funkcję, która „zaczyna być wdrażana”: Narrator ma generować bogate, szczegółowe opisy obrazów, wykresów i grafów na komputerach Copilot+ PC, wykorzystując lokalną moc obliczeniową (NPU) oraz modele pobierane przy pierwszym użyciu. Mechanizm uruchomienia jest prosty: skrót klawisz narratora+ Ctrl + D ma odczytać kontekstowy opis, obejmujący m.in. obiekty, kolory, tekst i liczby widoczne na obrazie.
Warto tu zatrzymać się na dwóch rzeczach, które Microsoft mówi wprost. Po pierwsze, funkcja ma mieć dwie jakości: na Copilot+ PC opisy mają być „bogate”, a na komputerach bez tej klasy sprzętu doświadczenie ma pozostać „bardzo podstawowe”. Po drugie, przy pierwszym uruchomieniu skrótu system pobiera modele potrzebne do generowania opisów i pozwala sprawdzić status pobierania w Windows Update. [1]
To ważny detal, bo w praktyce oznacza to „nowy rodzaj zależności”: dostępność obrazu nie wynika już wyłącznie z tego, czy developer dodał ALT, ale też z tego, czy system ma pobrane modele, czy urządzenie spełnia wymagania oraz czy wdrożenie już dotarło do danego użytkownika. Warto uczciwie nazwać to kompromisem: AI nie rozwiązuje problemu braku opisów u źródła, ale może pełnić rolę ratunkową, gdy autor strony lub aplikacji tych opisów nie dostarczył.
Microsoft podaje we wpisie przykład zastosowania: dla wykresu notowań giełdowych Narrator ma wygenerować opis trendu i osi czasu. Sama notka zawiera także zrzuty ekranu pokazujące osobne okno z opisem i przyciskami regeneracji/oceny/kopiowania, co sugeruje, że funkcja jest traktowana jako narzędzie „do dalszego użycia”, a nie tylko jednorazowy komunikat czytnika.
Równolegle z tym wpisem Microsoft odsyła do dokumentacji: „Complete guide to Narrator” oraz FAQ dotyczącego bogatych opisów obrazów. W FAQ pojawia się istotne doprecyzowanie: bogate opisy mają dotyczyć szerzej „treści wizualnych” (obrazy, wykresy, diagramy, a nawet nieopisane przyciski), a celem jest umożliwienie osobom niewidomym i słabowidzącym zrozumienia kontekstu na podstawie generowanego opisu.
FAQ zawiera też element, który w relacjach o AI często ginie: ostrzeżenie o zawodności. Microsoft wprost wskazuje, że funkcja może generować nieprawidłowe opisy, błędne odczyty danych z wykresów i grafów albo „wnioski emocjonalne”, co może prowadzić do błędnych założeń dotyczących obrazu lub intencji treści wizualnej. To bardzo ważne dla praktyki użytkownika niewidomego: AI może „zapełnić ciszę”, ale czasem wypełni ją źle — a wtedy błędny opis staje się nową barierą, bo brzmi wiarygodnie.
Co zostaje otwarte? Dwie kwestie. Pierwsza to realny zasięg: wpis mówi o wdrożeniu „beginning to roll out”, więc część użytkowników w kwietniu mogła widzieć tylko komunikat o „konfigurowaniu funkcji” (co zresztą pokazują zrzuty ekranu z wpisu). [1] Druga to pytanie o to, czy bogate opisy będą wystarczająco stabilne w kontekstach profesjonalnych: analiza wykresów, danych, materiałów szkoleniowych, UI aplikacji biznesowych.
Na dziś można więc napisać tak: kwiecień 2025 to moment, w którym Narrator wchodzi na teren zarezerwowany dotąd dla osobnych narzędzi (OCR, rozpoznawanie obrazów, asystenci AI). Jeśli funkcja okaże się solidna, może stać się jednym z najbardziej „życiowych” zastosowań AI w systemie operacyjnym. Ale Microsoft już na starcie sygnalizuje, że nie wolno traktować opisów jak nieomylnego źródła prawdy — a raczej jak pomoc, która wymaga krytycznego odsłuchu, zwłaszcza przy danych i emocjach. W naszej redakcji bardzo chwalimy to podejście. AI może pomagać, ale bezkrytyczne zaufanie może spowodować więcej problemów niż ich rozwiązać.