Nowość: Podręcznik do nauki programowania w Pythonie dla osób niewidomych i słabowidzących

Logo Województwa Wielkopolskiego i Herb.

Z radością informujemy, że w ramach projektu „Rozwój kompetencji społecznych i cyfrowych dla niewidomych i słabowidzących” powstał innowacyjny podręcznik nauczyciela: „Algorytmika i programowanie w Pythonie z wykorzystaniem robotów SPIKE Prime” autorstwa Jakuba Piaseckiego (p. 1).

 

O publikacji

Podręcznik został opracowany przez Stowarzyszenie „Pomóż dziecku niewidomemu” z siedzibą w Owińskach (p. 1). Jest to kompleksowe narzędzie dydaktyczne, które pozwala na naukę programowania w sposób dostępny, z uwzględnieniem specyficznych potrzeb uczniów z dysfunkcją wzroku.

Kluczowe cechy podręcznika:

  • Dostępność: Materiały dostosowane do pracy z czytnikami ekranu (np. NVDA) oraz powiększalnikami.
  • Praktyczne podejście: Wykorzystanie robotów LEGO® SPIKE Prime jako narzędzi generujących fizyczną i dźwiękową informację zwrotną.
  • Standard kodu: Wprowadzenie specjalnego standardu zapisu kodu Python, który ułatwia orientację w strukturze programu osobom niewidomym.
  • Metodyka: Scenariusze lekcji obejmujące naukę od podstaw – od pojęcia algorytmu, przez zmienne i instrukcje warunkowe, aż po zaawansowane pętle i listy.

Nauka programowania robota z Lego

Budowanie i testowanie robotów Lego

 

 

Publikacja stanowi nieocenione wsparcie dla nauczycieli informatyki, oferując gotowe ramy dydaktyczne zgodne z podstawą programową liceum ogólnokształcącego.

Podręcznik można pobrać z poniższego linku:

podręcznik do nauki programowania robotów Lego

Publikacja powstała w ramach projektu „Rozwój kompetencji społecznych i cyfrowych dla niewidomych i słabowidzących”
Projekt współfinansowany ze środków PFRON będących w dyspozycji Samorządu Województwa Wielkopolskiego.

Narrator w Windows 11 testuje „bogate opisy obrazów” z AI: skrót Ctrl+D ma czytać wykresy, zdjęcia i diagramy

Dla użytkowników niewidomych jednym z największych problemów internetu i aplikacji nie jest „brak skrótów klawiszowych”, tylko brak informacji kontekstowej. Obraz w artykule, wykres w raporcie, diagram w dokumentacji, a czasem nawet przycisk w aplikacji bez podpisu — to miejsca, gdzie klasyczny czytnik ekranu często milknie albo odczytuje szczątkowe dane. Microsoft zaproponował podejście, które ma łatać tę lukę: bogatsze opisy obrazów w Narratorze generowane przez AI.

Wpis z 11 kwietnia 2025 na blogu programu Windows Insider opisuje funkcję, która „zaczyna być wdrażana”: Narrator ma generować bogate, szczegółowe opisy obrazów, wykresów i grafów na komputerach Copilot+ PC, wykorzystując lokalną moc obliczeniową (NPU) oraz modele pobierane przy pierwszym użyciu. Mechanizm uruchomienia jest prosty: skrót klawisz narratora+ Ctrl + D ma odczytać kontekstowy opis, obejmujący m.in. obiekty, kolory, tekst i liczby widoczne na obrazie.

Warto tu zatrzymać się na dwóch rzeczach, które Microsoft mówi wprost. Po pierwsze, funkcja ma mieć dwie jakości: na Copilot+ PC opisy mają być „bogate”, a na komputerach bez tej klasy sprzętu doświadczenie ma pozostać „bardzo podstawowe”. Po drugie, przy pierwszym uruchomieniu skrótu system pobiera modele potrzebne do generowania opisów i pozwala sprawdzić status pobierania w Windows Update. [1]

To ważny detal, bo w praktyce oznacza to „nowy rodzaj zależności”: dostępność obrazu nie wynika już wyłącznie z tego, czy developer dodał ALT, ale też z tego, czy system ma pobrane modele, czy urządzenie spełnia wymagania oraz czy wdrożenie już dotarło do danego użytkownika. Warto uczciwie nazwać to kompromisem: AI nie rozwiązuje problemu braku opisów u źródła, ale może pełnić rolę ratunkową, gdy autor strony lub aplikacji tych opisów nie dostarczył.

Microsoft podaje we wpisie przykład zastosowania: dla wykresu notowań giełdowych Narrator ma wygenerować opis trendu i osi czasu. Sama notka zawiera także zrzuty ekranu pokazujące osobne okno z opisem i przyciskami regeneracji/oceny/kopiowania, co sugeruje, że funkcja jest traktowana jako narzędzie „do dalszego użycia”, a nie tylko jednorazowy komunikat czytnika.

Równolegle z tym wpisem Microsoft odsyła do dokumentacji: „Complete guide to Narrator” oraz FAQ dotyczącego bogatych opisów obrazów. W FAQ pojawia się istotne doprecyzowanie: bogate opisy mają dotyczyć szerzej „treści wizualnych” (obrazy, wykresy, diagramy, a nawet nieopisane przyciski), a celem jest umożliwienie osobom niewidomym i słabowidzącym zrozumienia kontekstu na podstawie generowanego opisu.

FAQ zawiera też element, który w relacjach o AI często ginie: ostrzeżenie o zawodności. Microsoft wprost wskazuje, że funkcja może generować nieprawidłowe opisy, błędne odczyty danych z wykresów i grafów albo „wnioski emocjonalne”, co może prowadzić do błędnych założeń dotyczących obrazu lub intencji treści wizualnej. To bardzo ważne dla praktyki użytkownika niewidomego: AI może „zapełnić ciszę”, ale czasem wypełni ją źle — a wtedy błędny opis staje się nową barierą, bo brzmi wiarygodnie.


Co zostaje otwarte? Dwie kwestie. Pierwsza to realny zasięg: wpis mówi o wdrożeniu „beginning to roll out”, więc część użytkowników w kwietniu mogła widzieć tylko komunikat o „konfigurowaniu funkcji” (co zresztą pokazują zrzuty ekranu z wpisu). [1] Druga to pytanie o to, czy bogate opisy będą wystarczająco stabilne w kontekstach profesjonalnych: analiza wykresów, danych, materiałów szkoleniowych, UI aplikacji biznesowych.

Na dziś można więc napisać tak: kwiecień 2025 to moment, w którym Narrator wchodzi na teren zarezerwowany dotąd dla osobnych narzędzi (OCR, rozpoznawanie obrazów, asystenci AI). Jeśli funkcja okaże się solidna, może stać się jednym z najbardziej „życiowych” zastosowań AI w systemie operacyjnym. Ale Microsoft już na starcie sygnalizuje, że nie wolno traktować opisów jak nieomylnego źródła prawdy — a raczej jak pomoc, która wymaga krytycznego odsłuchu, zwłaszcza przy danych i emocjach. W naszej redakcji bardzo chwalimy to podejście. AI może pomagać, ale bezkrytyczne zaufanie może spowodować więcej problemów niż ich rozwiązać.

Światowy dzień świadomości dostępności 2023

Światowy dzień świadomości dostępności z j. Ang. Global Accessibility awareness Day przypada zawsze w trzeci czwartek maja.

Z każdym rokiem dzień ten zyskuje znaczniejszy rozgłos. Wielkie firmy technologiczne, uczelnie, organizacje pozarządowe np. fundacje, eksperci do spraw dostępności, głównie cyfrowej organizują w tym dniu różne wydarzenia, w których prezentują rozwiązania zwiększające dostępność.

Nie jest to wcale dzień wyłącznie dla specjalistów zajmujących się wyłącznie dostępnością od strony tworzenia aplikacji albo projektowania stron internetowych. Wiele z tych wydarzeń przyda się osobom na co dzień tworzącym np. treści internetowe dla różnych serwisów, które redagują lub współtworzą. Na wielu takich wydarzeniach można dowiedzieć się np. jak poprawnie umieszczać treści w mediach społecznościowych, aby były one dostępne dla możliwie największej grupy odbiorców, jak tworzyć dostępne dokumenty. Można dowiedzieć się, czym jest dostępność, szczególnie dostępność cyfrowa.  Oczywiście dostępność dotyczy wielu obszarów, ale przede wszystkim wybija się na pierwszy plan wszystko, co związane z dostępnością cyfrową.

Zapraszamy do zapoznania się z krótką listą ciekawostek z tegorocznego dnia świadomości dostępności.

Na początek proponuję zapoznać się z nowościami w zakresie dostępności, jakie oferuje w swoich systemach i urządzeniach Apple.

Na szczególną uwagę zasługuje, w przypadku osób o zerowym poczuciu światła możliwość skorzystania z trybu wskaż i mów, jaki oferuje Lupa systemowa.

Nie jest to oczywiście jedyna nowość, po więcej zapraszamy na stronę myapple.pl.

Na blogu Google, (w języku angielskim) można przeczytać wpis z okazji dnia świadomości dostępności omawiający ostatnie nowości, które zostały wprowadzone lub będą wprowadzone w najbliższej przyszłości do produktów i usług Google.

Na blogu Microsoft (w języku angielskim) również pojawił się stosowny wpis związany z dwunastym światowym dniem świadomości dostępności. Wymieniono tam znaczną liczbę działań firmy Microsoft i współpracowników na rzecz zwiększania dostępności produktów tej firmy, z najnowszym Czatem GPT na czele i zastosowaniem generatywnej sztucznej inteligencji w ogóle

Od siebie dodamy, że również staramy się tworzyć dla was treści, które w przystępny sposób pozwolą zrozumieć wymagania WCAG osobom, które zajmują się programowaniem jak i tym, które po prostu tworzą treści, aby były jak najbardziej dostępne. Oczywiście oferujemy wam również inne treści, które mogą być przydatne w codzienności osoby niewidomej posługującej się sprzętem elektronicznym i oprogramowaniem w celu zwiększenia swojej samodzielności i niezależności.

Dzień Świadomości dostępności służy właśnie temu, aby propagować potrzebę dostępności wszystkiego, co ludzie tworzą dla jak największej grupy odbiorców.

JAWS i NVDA – porównanie nowości i kierunków zmian.

W ostatnich latach można zauważyć stopniowy, lecz nieubłagany wyścig NVDA z programem JAWS już nie tylko jednostronnie, ale także obustronnie. Istnieją obszary, w których to drogi, komercyjny program musi nadrabiać dystans do darmowego czytnika ekranu. Obecnie za korzystaniem z programu JAWS, gdy alternatywą jest darmowy NVDA mamy tylko jeden argument. warto wybrać go właściwie tylko wtedy, gdy korzystamy z urządzenia lub aplikacji, którą lepiej wspiera. O przyzwyczajeniu użytkownika nie piszemy, bo ta kwestia nie jest przeszkodą nie do pokonania. Obszarów, w których produkt Amerykańskiej firmy VISPERO GROUP ma dużą przewagę nad darmowym odpowiednikiem nie ma już prawie wcale, bo np. wsparcie NVDA dla podstawowej edycji w pakiecie Office właściwie zrównało się z tym, co oferuje JAWS. Nadal większość zaawansowanych funkcji edycyjnych jest w sposób bardziej kompleksowy obsługiwana przez płatną aplikację, co nieszczególnie powinno dziwić, ale funkcje potrzebne większości osób w typowych zastosowaniach obydwa czytniki obsługują już w sposób porównywalnie zadowalający, w pewnych aspektach zaczyna się pojawiać przewaga NVDA.

Czy możliwe jest tworzenie tabel w programie Word? Jak najbardziej, Poruszanie się po nich również.

Podstawowe formatowanie takie jak np. wyrównywanie tekstu, zmiana czcionki, formatowanie akapitów, wstawianie łączy i innych tego typu elementów można już od dłuższego czasu wykonywać zarówno z JAWSEM jak i z NVDA.

JAWS zachowuje nadal przewagę w ilości sposobów i kolejności oznajmiania różnych elementów oraz w personalizacji oznajmiania dla konkretnych dokumentów.

NVDA zaczyna natomiast zdobywać przewagę w odczytywaniu informacji przez Microsoft User Interface Automation UIA.

NVDA jest programem, który nie instaluje sterownika lustrzanego grafiki WDDM (Windows Display Driver Management), czego wymaga Program JAWS w trybie zgodności ze starszymi wersjami aplikacji i systemu. Przez to NVDA w wersji przenośnej jest naprawdę przenośny, ponieważ w sposób ograniczony, ale może pracować z tym, co ma w swojej przenośnej kopii z np. Pendrive’a czy karty pamięci na dowolnym komputerze z Windows. JAWS niestety wymaga Instalacji m. in. Video Accessibility, którego WDDM jest obecnie częścią. Windows 11 i późniejsze będą stopniowo odchodzić od tego modelu na rzecz Microsoft User Interface Automation, przez co sterownik video przestanie być w pewnym momencie niezbędny.

NVDA jest od początku tworzony w ten sposób, żeby informacje uzyskiwać bezpośrednio z obiektów aplikacji, z której korzysta użytkownik.

Od dłuższego czasu obserwujemy sytuację, w której to NVDA Potrafi odczytać coś więcej na stronie internetowej czy w Aplikacji.

Ponieważ JAWS jest projektem dłużej istniejącym, mającym w sobie więcej zależności, twórcom dostosowanie się do nowych wersji systemu czy oprogramowania zaczyna zajmować co raz więcej czasu, mimo ścisłej przecież współpracy z Microsoftem. Wiadomo też, że cykl wydawniczy Windows i aplikacji użytkowych znacznie przyspieszył od czasu, gdy w sieci przesyłało się głównie dane czy pobierało aktualizacje, a pracowało na oprogramowaniu lokalnie. Obecne oprogramowanie, aby oferować pełnię swych możliwości musi właściwie przez cały czas być podłączone do Internetu. Tak duża ilość zmieniających się warunków nie ułatwia twórcom czytników ekranu, na dowolny system zapewnienia użytkownikom możliwie najlepszych doświadczeń i jak najlepszego dostępu do interfejsu oprogramowania. Dlatego komercyjny Screenreader ma tutaj znacznie trudniej. Oto prosty przykład.

Jeżeli NVDA czegoś nie odczytuje w wersji dostarczanej przez NV ACCESS, to w wielu przypadkach sprawę załatwiają różne dodatki, które są tworzone znacznie szybciej niż kompleksowe rozwiązania dostarczane przez JAWS. Oczywiście ciemną stroną dodatków do NVDA jest niestety ich zmienna jakość, brak tłumaczenia na ojczysty język użytkownika, dublujące się dodatki oferujące zbliżony zakres funkcji, trudności z aktualizacjami z powodu braku jednego centralnego repozytorium oraz problemy ze zgodnością dodatków, których twórca regularnie nie aktualizuje oraz nie dostarcza w formie aktualizatora.

Aby potwierdzić powyższe obserwacje wystarczy przeczytać sekcję co nowego w JAWS i co nowego w NVDA w podręcznikach do obu programów. O ile w NVDA znajdziemy mnóstwo informacji nie tylko o poprawkach, lecz także o wprowadzeniu obsługi takich czy innych elementów interfejsu jakiejś aplikacji czy nowych przydatnych skrótów klawiszowych i innych poleceń, tak w programie JAWS z rzadka pojawiają się nowe naprawdę interesujące funkcje, a producent skupia się na poprawie obsługi tego co już jest lub na wprowadzeniu obsługi tych rozwiązań, które stają się co raz bardziej popularne, są nowe lub zmieniają się np. ostatnio takim obszarem jest praca z Google docs, gdzie JAWS mocno się rozwija, ale przecież NVDA również się rozwija w tym kierunku.

Ostatnie nowości, to głównie poprawa współpracy z Windows 11 w przypadku obu czytników ekranu. Z nowości w JAWS warto wyróżnić dwie funkcje, które pojawiły się lub zostały rozbudowane w wersji 2022 i 2023. Pierwszą taką funkcją jest Smart Glance (inteligentne spojrzenie), czyli funkcja, która na podstawie wyróżnień wizualnych i kolorów wyszukuje punkty na stronie www, w aplikacji internetowej lub wszędzie tam, gdzie wykorzystywany jest wirtualny kursor PC, które mogą być ważne. Takie wyróżnienia są klasyfikowane w ten sposób, że im jest ich mniej, tym bardziej mogą one być potencjalnym ważnym punktem na stronie np. pole hasła, które trzeba wpisać. Osobiście podczas naszych testów takie obszary były wybierane przez funkcję Smart Glance dość ciekawie, chociaż nie zawsze były to istotne elementy na stronie.

Drugą ważną nową funkcją jest w JAWS możliwość uzyskania dostępu do listy powiadomień, które pojawiły się w systemie zarówno w formacie Toast „tost” jak i zostały przesłane bezpośrednio do czytnika ekranu przez funkcje User Interface Automation.

Funkcja ta pojawiła się pierwszy raz w wersji 2022, natomiast w 2023 rozwinięto jej możliwości.

Dawniej, za czasów Windowsa 7 i wcześniejszych powiadomienia mogły dostarczać głównie aplikacje zainstalowane lokalnie i osadzone mocno w systemie.

Obecnie powiadomienia mogą wysyłać nie tylko aplikacje, ale również strony internetowe przez mechanizmy powiadomień w przeglądarce, a nawet samodzielne aplikacje internetowe osadzone na stronach.

Wiele witryn uzyskuje dostęp do lokalizacji, gdy tego potrzebujemy i przeglądarki informują o tym. Dla naszych kont mail, bo częściej mamy więcej niż jedno, może być wyświetlane powiadomienie o każdej nowej wiadomości itd. W dodatku wiele aplikacji ochoczo tworzonych przez programistów wysyła wiele komunikatów tekstowych bezpośrednio do czytników ekranu poprzez stosowną funkcję ułatwień dostępu User Interface Automation. Takich komunikatów jest często zbyt dużo i pojawiają się zbyt często. Niechlubnym przykładem jest niestety sama przeglądarka Microsoft Edge z Chromium, Gdzie do czytnika ekranu przesyłany jest właściwie komunikat o każdej zmianie np. otwarcie nowej karty, zamknięcie karty, ładowanie strony, załadowano stronę, czyli przy każdym wciśnięciu entera lub jakiejś innej popularnej funkcji.

W komputerze jednego z naszych redaktorów pojawiło się… 500 takich powiadomień w ciągu dwudziestu czterech minionych godzin.

Nowa przeglądarka powiadomień w JAWS pozwala te powiadomienia przeglądać, a obecnie także tworzyć reguły służące do pomijania tych, które są mniej istotne i nie pozwalają skupić się na pracy lub rozrywce.

Nowe reguły dotyczące powiadomień pozwalają na znacznie więcej i chętnie odsyłamy tutaj do pomocy JAWS.

Niezależnie od ustawionych reguł, powiadomienia te zawsze można przejrzeć w przeglądarce powiadomień JAWS.

Powstała ona dlatego, że wielu z tych powiadomień nie widać w centrum akcji i nie można się do nich odwołać w czasie późniejszym, gdy się pojawiły lub pojawiło się jednocześnie bardzo dużo takich powiadomień.

A co ciekawego w NVDA?  Tutaj pojawiła się nowość, która w dobie masowych ataków przy użyciu dokumentów, stron i wiadomości zawierających podejrzane łącza sprawdzi się świetnie. Łatwo podejrzeć czy np. link prowadzi do oryginalnego serwisu transakcyjnego naszego banku czy na spreparowaną przez przestępców stronę służącą do wyłudzenia danych.

To tylko jedna z licznych nowości, poprawek i zmian wprowadzonych tylko w wersji 2023.1, czyli wersji na pierwszy kwartał 2023 roku.

Jak widać, nowości tych jest znacznie więcej niż w JAWS i są one bardziej różnorodne, bo oprócz bieżącego ulepszania współpracy z Windowsem i aplikacjami użytkowymi, pojawia się mnóstwo nowych funkcji, jak dawniej w JAWS.

Jeżeli ktoś ma możliwość, to warto korzystać z obu tych czytników zamiennie, a czasem nawet z narratora, który również dynamicznie się rozwija, chociaż klawiszologia i ogólnie działanie tego programu różni się dość znacząco od tego, co oferują JAWS i NVDA.

Co w przyszłości?

Chociaż nieco ponad 1,5 roku temu został wydany Windows 11, to już trwają prace nad nowym systemem w wersji 12. Z dostępnych informacji wynika, że użycie sztucznej inteligencji do interakcji z tą wersją Windowsa ma być tak duże, że nigdy wcześniej niespotykane w żadnym systemie. Takie przyszłościowe rozwiązania zawarte w nowym Windowsie nie są pozbawione podstaw, biorąc pod uwagę rozwoju GPT od Open AI oraz CHAT GPT od Microsoftu.

Miejmy nadzieje, że rozwój sztucznej inteligencji pozwoli nie tylko na szybsze przetwarzanie i uzyskiwanie informacji, ale również na szybsze i lepsze działanie technologii wspomagających, w tym NVDA i JAWS’a.

Wirtualny wolontariusz w Be My Eyes, czyli sztuczna inteligencja pomoże wspierać osoby niewidome i słabowidzące.

Wiele ostatnio pisze i mówi się o Chat GPT, czyli bocie firmy Microsoft, który komunikuje się z użytkownikami wykorzystując Mechanizmy sztucznej inteligencji.

Firma Microsoft musiała nawet nałożyć ograniczenia na swój nowy produkt, ponieważ np. obrażał on piszących z nim użytkowników.

Wielu uczniów czy studentów wykorzystało Chat GPT do wykonania niektórych zadań np. napisania treści wypracowań lub odpowiedzi na pytania.

W związku z tym na wielu portalach traktujących o technologii pojawiło się wiele treści ostrzegających przed rozwojem tego typu technologii, przed możliwą utratą pełnej kontroli, jaką do tej pory sprawuje nad nią człowiek lub jej wykorzystaniem w sposób szkodliwy dla państw, grup społecznych czy nawet całej ludzkości.

Rzeczywiście z rozwojem sztucznej inteligencji i wzrostem oddawania kontroli programom i automatom wiąże się pewne ryzyko, ale przecież ryzyko niosły ze sobą różne wynalazki z przeszłości. Najpierw był wynalazek, a później kodyfikowano sposoby i dopuszczalne ramy jego użycia. Podobnie będzie w przypadku Sztucznej inteligencji.

Chcielibyśmy dzisiaj napisać o pozytywnym przykładzie rozwoju tego typu technologii.

Co to jest Be My EyES?

Jest to miejsce, które kojarzy wolontariuszy chcących pomagać osobom niewidomym lub słabowidzącym z osobami poszukującymi takiej pomocy. Jednym zdaniem platforma ta łączy potrzebujących z mogącymi pomóc tak jak np. platforma fixly łączy osoby potrzebujące pomocy w różnych dziedzinach takich jak naprawa komputerów z osobami, które chcą taką naprawę wykonać, a same nie potrafią. Platforma Be My Eyes wystartowała w 2012 roku.

A jak można skorzystać z Be My Eyes?

W przypadku Be My Eyes zastosowań jest wiele w zależności od potrzeb. Można skorzystać z pomocy w nawigacji po nieznanym obiekcie np. duży budynek, lotnisko, można poprosić wolontariusza o odczytanie etykiet, dat ważności produktów czy też uzyskać wsparcie w innych czynnościach, jeżeli tylko wolontariusz posiada wiedzę na dany temat i może zobaczyć w kamerze to, w czym ma udzielić pomocy.

Be My Eyes wchodzi na nowy poziom.

Platforma uzyskała dostęp do technologii sztucznej inteligencji GPT-4 firmy Open AI powołując do życia tzw. Wirtualnego wolontariusza.

W czym może pomóc wirtualny wolontariusz?

Wykorzystanie GPT-4 w zakresie przetwarzania danych wizualnych pomoże osobom niewidomym uzyskiwać informacje o tym, co jest np. na obrazie praktycznie w taki sam sposób, jak zrobiłby to żywy człowiek.

Wykorzystanie sztucznej inteligencji do przetwarzania danych wizualnych pozwoli uzyskać informacje nie tylko o tekście, jaki może znajdować się na obrazie przy pomocy optycznego rozpoznawania znaków OCR, ale pomoże również uzyskać kontekstowe informacje na temat takiego obrazu.

Jak mówi Michael Buckley, dyrektor generalny firmy Be My Eyes, w krótkim czasie, w którym uzyskano dostęp do GPT 4 Open AI, zaobserwowano niezrównaną wydajność w porównaniu do dowolnej technologii OCR istniejącej wcześniej.

Dodał, że implikacje dla dostępności są ogromne. W przyszłości, społeczność osób mających problemy ze wzrokiem i niewidomych będzie mogła wykorzystywać te narzędzia nie tylko do wielu zastosowań związanych z interpretacją danych wizualnych, ale również w wielu innych sytuacjach ogólnie zwiększając ich niezależność w życiu.

Różnica między GPT-4 a innymi modelami uczenia językowego i maszynowego polega zarówno na możliwości prowadzenia rozmowy, jak i na większym stopniu sprawności analitycznej oferowanej przez tę technologię.

Podstawowe aplikacje do rozpoznawania obrazu mogą jedynie zidentyfikować to, co znajduje się przed nimi, podczas gdy GPT-4 może ekstrapolować, analizować i rozumieć kontekst, co pozwala na zaoferowanie znacznie bardziej wszechstronnej pomocy.

Jednym z najbardziej ekscytujących aspektów funkcji Wirtualnego Wolontariusza jest jego zdolność do oferowania natychmiastowej pomocy wizualnej w wielu różnych zadaniach. Oto kilka przykładów zastosowania BE My Eyes. użytkownicy mogą wysłać zdjęcie zawartości swojej lodówki do narzędzia, które następnie nie tylko zidentyfikuje, co znajduje się w środku, ale także zaproponuje przepisy, które można przygotować z tych składników.

Nowa funkcja przeszła testy beta z wybraną grupą pracowników Be My Eyes, uzyskując w większości pozytywne opinie. Testerzy chwalili użyteczność tej funkcji, szczególnie w jednym przypadku, gdy użytkownik był w stanie z powodzeniem poruszać się po dworcu kolejowym. Funkcja ta dostarczała szczegółowych informacji o lokalizacji użytkownika na mapie i oferowała instrukcje krok po kroku, jak bezpiecznie dotrzeć do pożądanego celu.

W kolejnym przykładzie użytkowniczka Be My Eyes pokazuje, jak aplikacja pomaga jej w wielu zadaniach, w tym opisuje wygląd sukienki, identyfikuje roślinę, czyta mapę, tłumaczy etykietę, kieruje ją do określonej bieżni na siłowni i mówi, które przyciski nacisnąć w automacie.

Jesper Hvirring Henriksen, z firmy Be My Eyes, wyjaśnia, że przemierzanie skomplikowanego świata to tylko połowa sukcesu. Osoby z dysfunkcją wzroku napotykają na wyzwania związane z korzystaniem z czytników ekranu w celu zrozumienia stron internetowych, zwłaszcza jeśli chodzi o obrazy. „GPT-4 jest w stanie podsumować wyniki wyszukiwania w sposób, w jaki widzący naturalnie je skanują – nie czytając każdego najdrobniejszego szczegółu, ale koncentrując się na ważnych danych. „Ta technologia może uprościć zadania, takie jak czytanie wiadomości online i nawigowanie po zaśmieconych stronach e-commerce dla osób z wadami wzroku.

Wirtualny Wolontariusz będzie dostępny dla użytkowników w najbliższych miesiącach, a przez Buckleya został okrzyknięty jako „zmieniający zasady gry.

Jeśli Wirtualny Wolontariusz nie będzie w stanie odpowiedzieć na pytanie, automatycznie zaoferuje użytkownikom możliwość połączenia się za pośrednictwem aplikacji z widzącym wolontariuszem w celu uzyskania pomocy.

Narzędzie będzie bezpłatne dla wszystkich członków społeczności niewidomych i słabowidzących korzystających z aplikacji Be My Eyes.

Obecnie można zarejestrować się w aplikacji, aby zostać umieszczonym na liście oczekujących na dostęp.

Od siebie dodamy, że im więcej użytkowników, tym Wirtualny wolontariusz zyska więcej umiejętności i wiedzy, dlatego warto się zarejestrować i korzystać, gdy potrzeba. Doświadczenia z korzystania i wiedza zostaną wykorzystane później, aby pomoc świadczona innym w przyszłości była na jeszcze wyższym poziomie.

Źródło: Applevis.com

Co raz bardziej przyjazny dla niewidomych InPost

Pamiętacie nasz artykuł sprzed ponad roku? Napisaliśmy wtedy o dostępnym odbiorze paczek bez konieczności obsługi ekranu dotykowego paczkomatu, a jedynie przy pomocy aplikacji mobilnej InPost dla iOS lub androida.
Od pewnego czasu dostępna jest również możliwość, o której tylko wspomnieliśmy w poprzednim tekście jako o możliwości potencjalnej. Okazuje się, że bardzo szybko stało się możliwe nie tylko odbieranie paczek, ale również ich nadawanie.
Co zwykle stanowiło barierę w trakcie nadawania paczki dla osoby niewidomej, która nie ma możliwości skorzystania z pomocy? Mogłoby się wydawać, że np. poprawne zaklejenie paczki i istotnie, zapakowanie jest trudne dla osób mniej sprawnych manualnie, ale nie to było główną trudnością. Barierą główną jest, czy też było umieszczenie etykiety na paczce, a wcześniej jej poprawne wydrukowanie oraz brak możliwości obsługi paczkomatu bez użycia aplikacji w zakresie nadawania przesyłek.
W przypadku chęci nadania paczki przez InPost w aplikacji, z możliwością przesłania jej do dowolnego paczkomatu w pobliżu odbiorcy lub nawet do domu bezpośrednio w formie przesyłki kurierskiej problemu etykiety na paczce nie ma. Po prostu nie trzeba jej drukować i naklejać. Zniknął też problem nadawania paczek z wykorzystaniem niedostępnego dla niewidomych interfejsu paczkomatu, wystarczy sama aplikacja mobilna. Oczywiście aby nadać paczkę musimy dysponować danymi odbiorcy, tj. numerem telefonu, adresem e-mail oraz danymi adresowymi. Jedyne wymogi, jakie należy spełnić względem samej paczki, to zmierzyć ją po poprawnym i starannym zapakowaniu i przy tworzeniu przesyłki w aplikacji wybrać odpowiedni rozmiar. W aplikacji wszystko jest bardzo dobrze opisane, więc można tworzyć przesyłkę w systemie śledząc kreator i wykonując potrzebne do realizacji kroki.
W dodatku, można zapłacić za przesyłkę m. in. Blikiem, Google Pay czy Apple Pay, co szczególnie ucieszy użytkowników iPhone’ów i telefonów z androidem, którzy korzystają z tej funkcji w swoich urządzeniach.
Od utworzenia przesyłki mamy prawie 30 dni na jej zaniesienie do dowolnego paczkomatu i jej nadanie.
To bardzo dużo czasu, więc z pewnością można to zrobić w najwygodniejszym dla nas terminie, gdy tylko znajdzie się chwila na odwiedzenie najbliższego paczkomatu.

Jak wygląda proces nadawania po utworzeniu przesyłki?

Po podejściu do paczkomatu wystarczy sięgnąć po telefon, uruchomić aplikację InPost, odczekać chwilę i przejść do sekcji nadaję w aplikacji. Następnie należy rozwinąć szczegóły przesyłki, którą chcemy nadać. Wśród informacji o przesyłce znajdziemy obok kodu QR przycisk: „otwórz skrytkę zdalnie”, podobnie jak ma to miejsce w przypadku odbierania paczek. Po wciśnięciu tego przycisku aplikacja zlokalizuje dla nas kilka najbliższych paczkomatów i jeżeli pierwszy od góry nie będzie tym, przy którym akurat stoimy należy wskazać właściwy. W naszym teście nadawania przesyłek lokalizacja paczkomatu i nasza została skojarzona bezbłędnie. Po wybraniu paczkomatu otrzymujemy pytanie, czy to na pewno ten paczkomat i czy chcemy otworzyć skrytkę.
Po wybraniu opcji tak paczkomat otworzy skrytkę dostosowaną do wybranego przez nas rozmiaru paczki.
Postępujemy podobnie, jak w przypadku odbioru paczki, czyli lokalizujemy skrytkę nawigując od środka paczkomatu, czyli tego miejsca, gdzie jest ekran dotykowy. W aplikacji otrzymujemy oczywiście informację, która to kolumna i który rząd oraz w którą stronę od środka urządzenia należy się przemieścić. Tę ostatnią informację słychać z resztą dość dokładnie, gdy skrytka otwiera się.
Po zlokalizowaniu skrytki wystarczy już tylko umieścić w niej paczkę i zamknąć drzwiczki dokładnie, aż klikną.
Teraz możemy śledzić drogę naszej przesyłki w aplikacji. Oczywiście po dostarczeniu w aplikacji pojawi się stosowne powiadomienie, a status przesyłki zmieni się na doręczona.
Gdy umieścimy paczkę lub paczki w skrytce, nadawca również zostanie poinformowany o tym fakcie. Teraz, w zależności od dokonanego wyboru będzie oczekiwać na kuriera InPost lub na informację, że paczka dotarła do wskazanego przez nadawcę paczkomatu.
Gotowe.
Aplikację ze sklepu Google Play pobierzecie pod tym adresem. Użytkownicy mobilnych urządzeń Apple znajdą wersję aplikacji InPost dla swoich urządzeń pod tym linkiem.
Teraz wśród niewidomych InPost naprawdę zyska solidnych klientów, a w każdym razie na pewno dotyczy to członków naszej redakcji.
p.s.
Ciekawe, czy i jeżeli tak, to kiedy pojawi się możliwość nadawania przesyłek kurierskich, w tym tych większych oraz ubezpieczonych bez konieczności drukowania etykiet, z możliwością utworzenia w aplikacji mobilnej oczywiście. Warto na to czekać i zgłaszać się z propozycjami do firmy InPost.