W ostatnich dniach czerwca 2024 r. zrealizowane zostały letnie warsztaty z podstaw programowania dla osób niewidomych i słabowidzących. 25 uczestników pod okiem 2 instruktorów uczyło się budować i programować roboty Lego z zastosowaniem technologii asystujących. Jak na wakacyjną porę przystało buło również trochę zwiedzania i poznawania naszego środowiska. W czasie warsztatów gościliśmy naszych przyjaciół z Fundacji Prowadnica. Nasi niewidomi rówieśnicy Monika i Dawid pokazali nam jakie projektują pomoce dla niewidomych w wydruku 3D. Mieliśmy również spotkanie z Panią Adwokat Katarzyną Hebą, która opowiedziała nam, jak to jest być niewidomym prawnikiem, który codziennie swoją aktywnością zawodową potwierdza, że osoba niewidoma może być aktywna zawodowo. W czasie naszych letnich warsztatów zwiedziliśmy oceanarium, popłynęliśmy na Hel, by zobaczyć foki. Spacerowaliśmy po Molo w Sopocie oraz zobaczyliśmy symulator łodzi podwodnej.
Warsztaty były bardzo ciekawym doświadczeniem dla wszystkich. Cieszymy się, że wśród młodych osób niepełnosprawnych jest tak wielu entuzjastów technologii.
Uczestnicy pozują przy biurku
Uczestnicy pracują przy biurku
Uczestnicy pracują przy biurku
Uczestnicy pracują przy biurku
Uczestnicy pracują przy biurku
Uczestnicy pracują przy biurku
Uczestniczka pracuje przy biurku
Uczestnik pracuje przy biurku
Uczestnicy pracują przy biurku
Żaglowiec
Zdjęcie grupowe na plaży
Zdjęcje grupowe przed napisem: I love Rewa
Na żaglowcu
Zdjęcje grupowe przy żaglowcu
Zdjęcje grupowe na molo
Uczestnicy pracują przy komputerze
Uczestnicy pracują przy komputerze
Uczestnicy pracują przy komputerze
Uczestnicy pracują przy komputerze
Uczestnicy pracują przy komputerze
Uczestnicy pracują przy komputerze
Uczestnicy pracują przy komputerze
Uczestnicy pracują przy komputerze
Uczestnicy pracują przy komputerze
Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.
Apple ogłosiło wprowadzenie szeregu nowych funkcji dostępności w swoich systemach operacyjnych iOS, iPadOS, macOS i innych, które będą dostępne w najbliższym czasie. Te innowacje mają na celu znaczne poprawienie jakości życia osób niewidomych i niedowidzących, oferując im zaawansowane narzędzia do lepszej interakcji z otaczającym światem. Poniżej przedstawiamy szczegółowy opis tych funkcji oraz instrukcje, jak z nich korzystać.
Point and Speak w Aplikacji Lupka
Opis Funkcji:
“Point and Speak” to nowa funkcja w aplikacji Lupka, która umożliwia użytkownikom skierowanie urządzenia na tekst, który następnie jest odczytywany na głos. Funkcja ta będzie szczególnie przydatna w interakcji z fizycznymi obiektami, takimi jak urządzenia domowe, etykiety produktów, menu w restauracjach czy tablice informacyjne.
Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu iOS lub iPadOS (iOS 17 lub iPadOS 17).
2. Uruchomienie Aplikacji Lupka: Otwórz aplikację Lupka na swoim iPhonie lub iPadzie. Jeśli aplikacja nie jest zainstalowana, można ją pobrać z App Store.
3. Włączenie Funkcji “Point and Speak”: Przejdź do Ustawienia > Dostępność > Lupka > Detekcja Tekstu i włącz funkcję “Point and Speak”.
4. Używanie Funkcji: Skieruj kamerę urządzenia na tekst, który chcesz przeczytać. Aplikacja automatycznie rozpozna tekst i odczyta go na głos.
Jak to Będzie Działać:
Gdy skierujesz kamerę na tekst, aplikacja Lupka wykorzystuje wbudowane algorytmy rozpoznawania tekstu (OCR), aby zidentyfikować litery i słowa. Następnie, korzystając z technologii syntezy mowy, przekształca tekst na mowę, która jest odczytywana przez urządzenie. Funkcja ta działa w czasie rzeczywistym, co pozwala na natychmiastową interakcję z otoczeniem.
VoiceOver z Nowymi Językami i Głosami
Opis Funkcji:
VoiceOver to zaawansowany czytnik ekranu, który umożliwia osobom niewidomym i niedowidzącym nawigację i interakcję z urządzeniami Apple. Nowa aktualizacja wprowadza wsparcie dla ponad 20 dodatkowych języków i lokalizacji, a także nowe głosy zoptymalizowane dla funkcji asystujących.
Jak to Włączyć:
1. Aktualizacja Systemu: Sprawdź, czy masz najnowszą wersję systemu iOS, iPadOS lub macOS.
2. Włączenie VoiceOver: Przejdź do Ustawienia > Dostępność > VoiceOver i włącz tę funkcję.
3. Ustawienie Języka i Głosu: W ustawieniach VoiceOver wybierz Język i Głos, a następnie wybierz preferowany język i głos z listy dostępnych opcji.
Jak to Działa:
VoiceOver umożliwia nawigację po urządzeniu za pomocą gestów dotykowych i komend głosowych. Po włączeniu, VoiceOver odczytuje na głos elementy ekranu, takie jak ikony aplikacji, przyciski i teksty. Użytkownicy mogą również dostosować tempo mowy, wysokość głosu i inne parametry, aby dopasować funkcję do swoich potrzeb. Nowe głosy są zoptymalizowane, aby brzmiały bardziej naturalnie i były łatwiejsze do zrozumienia, co znacznie poprawia komfort użytkowania.
Eye Tracking
Opis Funkcji:
Eye Tracking to innowacyjna funkcja, która pozwala użytkownikom z ograniczeniami ruchowymi na kontrolowanie iPada lub iPhone’a za pomocą ruchu oczu. Funkcja ta wykorzystuje przednią kamerę urządzenia do śledzenia ruchu oczu, umożliwiając nawigację po ekranie bez użycia rąk.
Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu iOS lub iPadOS.
2. Włączenie Eye Tracking: Przejdź do Ustawienia > Dostępność > Eye Tracking i włącz tę funkcję.
3. Kalibracja: Postępuj zgodnie z instrukcjami na ekranie, aby skalibrować funkcję Eye Tracking do Twojego wzroku.
Jak to Będzie Działać:
Po skalibrowaniu, Eye Tracking pozwala użytkownikom nawigować po ekranie za pomocą ruchu oczu. Aby aktywować element, użytkownik musi spojrzeć na niego przez kilka sekund, co aktywuje funkcję Dwell Control, umożliwiając wykonywanie dodatkowych czynności, takich jak przewijanie, kliknięcia i gesty. Technologia ta jest wspierana przez algorytmy uczenia maszynowego, które zapewniają dokładność i responsywność działania.
Music Haptics
Opis Funkcji:
Music Haptics to nowa funkcja, która pozwala osobom niesłyszącym doświadczyć muzyki poprzez wibracje generowane przez silnik Taptic w iPhone’ie. Funkcja ta przekłada dźwięki muzyki na sekwencje wibracji, które są odczuwalne dla użytkownika.
Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Sprawdź, czy masz najnowszą wersję systemu iOS.
2. Włączenie Music Haptics: Przejdź do Ustawienia > Dostępność > Dotyk > Music Haptics i włącz tę funkcję.
Jak to Będzie Działać:
Po włączeniu, Music Haptics synchronizuje wibracje z dźwiękami odtwarzanej muzyki, umożliwiając użytkownikom doświadczanie muzyki poprzez dotyk. Wibracje będą zsynchronizowane z rytmem, melodią i innymi elementami muzyki, co pozwala na pełniejsze doświadczenie dźwiękowe. Funkcja ta jest szczególnie przydatna dla osób niesłyszących, które chcą czerpać radość z muzyki w sposób dotykowy.
Znaczenie i Wpływ
Nowe funkcje dostępności wprowadzone przez Apple mają na celu zwiększenie niezależności i komfortu użytkowania dla osób z różnymi niepełnosprawnościami. Dzięki takim innowacjom jak Point and Speak, VoiceOver, Eye Tracking i Music Haptics, użytkownicy będą mogli lepiej interagować ze światem i czerpać większą satysfakcję z codziennego życia.
Apple kontynuuje swoje zaangażowanie w tworzenie technologii dostępnych dla każdego, co jest kluczowe dla zapewnienia równych szans i pełnego uczestnictwa w społeczeństwie.
Źródło
Nowe Funkcje Apple: https://www.apple.com/newsroom/2024/05/new-accessibility-features
Czas dostępu: 28.06.2024, godz. 10:00 UTC
Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.
Podczas Ability Summit 2024, Microsoft przedstawił nowe technologie wspomagające, które mają na celu poprawę dostępności dla osób z niepełnosprawnościami. Nowe funkcje dostępności w Windows uruchamiane przez Copilot for Windows, takie jak Live Captions, Narratora oraz inne funkcje dostępności, a także Azure AI for Accessibility, wprowadzają nowe modele generatywnej AI do opisywania obrazów i dokumentów. Poniżej szczegółowy opis tych technologii oraz instrukcje, jak z nich korzystać.
Nowe Funkcje Dostępności w Windows uruchamiane przez Copilot for Windows
Opis Funkcji:
Podczas Ability Summit 2024, Microsoft zaprezentował nowe umiejętności dostępności w systemie Windows, które będą uruchamiane przez Copilot for Windows. Funkcje te obejmują Live Captions, Narratora oraz inne narzędzia, które mają na celu poprawę dostępności systemu dla osób z niepełnosprawnościami.
Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu Windows.
2. Włączenie Copilot for Windows: Przejdź do Ustawienia > Dostępność > Copilot for Windows i włącz tę funkcję.
3. Korzystanie z Funkcji: Po włączeniu Copilot for Windows, nowe funkcje dostępności, takie jak Live Captions i Narrator, będą dostępne w systemie.
Jak to Będzie Działać:
Live Captions automatycznie generują napisy na żywo dla wszelkich dźwięków odtwarzanych na urządzeniu, co umożliwia osobom niesłyszącym lub niedosłyszącym śledzenie treści audio. Narrator odczytuje na głos teksty wyświetlane na ekranie, ułatwiając nawigację i interakcję z systemem osobom niewidomym i niedowidzącym.
Azure AI for Accessibility
Opis Funkcji:
Azure AI for Accessibility to inicjatywa Microsoftu, która wprowadza nowe modele generatywnej AI do opisywania obrazów i dokumentów. Celem tych technologii jest poprawa dostępności wizualnej i tekstowej dla osób niewidomych lub niedowidzących.
Jak to Będzie Można Włączyć:
1. Dostęp do Azure AI: Upewnij się, że masz dostęp do usług Azure AI.
2. Konfiguracja Modeli AI: Przejdź do portalu Azure i skonfiguruj modele generatywnej AI do opisywania obrazów i dokumentów.
3. Korzystanie z Funkcji: Po skonfigurowaniu, modele AI będą automatycznie opisywać obrazy i dokumenty, poprawiając dostępność dla osób niewidomych.
Jak to Będzie Działać:
Modele generatywnej AI w Azure AI for Accessibility analizują obrazy i dokumenty, a następnie generują opisy tekstowe, które mogą być odczytywane przez czytniki ekranu. Technologia ta umożliwia osobom niewidomym lub niedowidzącym lepsze zrozumienie i interakcję z treściami wizualnymi i tekstowymi.
Znaczenie i Wpływ
Nowe technologie wspomagające przedstawione przez Microsoft podczas Ability Summit 2024 mają na celu zwiększenie dostępności i niezależności osób z niepełnosprawnościami. Dzięki takim innowacjom jak Copilot for Windows i Azure AI for Accessibility, użytkownicy będą mogli lepiej interagować z technologią i czerpać większą satysfakcję z jej użytkowania.
Microsoft kontynuuje swoje zaangażowanie w tworzenie dostępnych technologii, które mają na celu zapewnienie równych szans i pełnego uczestnictwa w społeczeństwie.
Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.
Dekodery TV nie są już od dłuższego czasu wyłącznie transmiterami sygnału od anteny do naszego telewizora. Przykład dekodera, który wprowadził do oferty PolsatBoX jest tutaj jak najbardziej na miejscu.
Przyjrzyjmy się pokrótce jego specyfikacji. Oto najważniejsze cechy dekodera Polsat Soundbox 4K:
Dźwięk Immersyjny: Wykorzystuje technologię Dolby Atmos® z czterema głośnikami zoptymalizowanymi przez Bang & Olufsen.
Jakość Obrazu: Obsługuje rozdzielczość 4K dla ostrych i wyraźnych obrazów.
Platforma Android TV: Umożliwia dostęp do aplikacji Google Play, takich jak Polsat Box Go, HBO Max, Disney+ i YouTube.
Funkcje Multimedialne: Zawiera Chromecast, TimeShift, reStart, CatchUP i nPVR dla lepszej kontroli nad treściami.
Dekoder jest przystosowany do odbioru telewizji satelitarnej i kablowej IPTV, a także obsługuje komendy głosowe i Wi-Fi 6.
Jak widać mamy tutaj do czynienia nie tylko z urządzeniem dekodującym sygnał, ale w pełni zadowalającą przystawką z androidem dla telewizorów na pokładzie. Dekoder może odbierać sygnał zarówno satelitarny jak i w technologii IP TV, gdy dostępu do sygnału satelitarnego nie ma czasowo lub nie można zainstalować w danym miejscu anteny.
Oczywiście najlepiej jest posiadać możliwość przełączania odtwarzania z obu tych źródeł zamiennie, bo każde ma swoje wady, nie mniej jednak IP TV już wystarczy aby cieszyć się swoimi kanałami telewizyjnymi, które są dostępne w wybranej ofercie.
To, co wyróżnia ten dekoder, to głośniki, które mogą być ciekawym zamiennikiem tańszego Soundbara, a już z pewnością głośników w telewizorze. PolsatBox nie jest pierwszym operatorem, który udostępnił w ofercie dekoder z systemem android, można je znaleźć m. in. W Orange czy Play, ale to zawsze dobrze wiedzieć, że mamy większy wybór.
Dla niewidomych użytkowników wiąże się to przede wszystkim z większą dostępnością takiego urządzenia, bo jest prawie pewne, że będzie można uzyskać udźwiękowienie w systemie tego urządzenia i korzystać z niego w znacznie bardziejpełny sposób niż z dawniejszych dekoderów, w których pozostawało nauczyć się przycisków na pilocie i liczyć ich wciśnięcia, jak w telefonach komórkowych sprzed ćwierćwiecza.
A zatem zachęcamy do porównania dostępnych u naszych operatorów dekoderów z androidem i jeżeli posiadacie lub wasza rodzina posiada stary dekoder, może warto wymienić go na inny, bardziej dostępny dla wszystkich?
Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.
Picture smart, czyli opisywanie obrazów wprowadzono w JAWS już w wersji 2019. Ta funkcja pozwala, w swojej podstawowej wersji ogólnie przekonać się o tym, co znajduje się na obrazie lub zdjęciu, które wskazaliśmy picture smart do opisania. Poprzednie jej wersje polegały na wielu przykładach wcześniej dostarczonych zdjęć i uczeniu się.
Boom na sztuczną inteligencję na szczęście nie ominął też czytnika ekranu. W wersji 2024 wprowadzono ulepszone Picture SMART AI, które korzysta ze sztucznej inteligencji od dwóch producentów.
Jak wiadomo i przed czym ostrzegają wszyscy producenci rozwijający modele AI rozwiązania te mogą dopowiadać sobie również rzeczy, które nie są prawdą, a zatem użycie dwóch odrębnych modeli pozwoli w większości sytuacji wykryć taką konfabulację, na jaką może sobie pozwolić w opisie dla Picture smart którykolwiek z modeli AI. Funkcja ta wychodzi obecnie z programu wczesnego wdrożenia w JAWS i niedługo będzie domyślnym źródłem opisu obrazu dla Picture Smart z JAWS. W wypadku potrzeby skorzystania z poprzedniej wersji picture smart, znanej już od kilku lat, do polecenia picture smart trzeba będzie dodać klawisz Control (CTRL).
Już wtedy można było przekonać się, że przydatne jest opisywanie obrazów czy zdjęć, które nie posiadają tekstu alternatywnego, więc możemy się tylko cieszyć, że sztuczna inteligencja podniesie poziom takich opisów zdecydowanie wyżej, co udowadnia najbardziej znany chyba chat GPT i aplikacje bardziej kierowane do niewidomych jak np. Be My Eyes ze swoim Be My AI opartym na modelu sztucznej inteligencji od Open AI.
Należy się tylko cieszyć z takiego rozwoju sytuacji i czekać na nowe wersje JAWS.
Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.
Po wielu latach starań udało się pozyskać środki na realizację innowacyjnego projektu pt. „Niewidomyprogramista.pl daj szansę niewidomym na start zawodowy”. Projekt otrzymał dofinansowanie ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.
W ramach projektu będziemy realizowali:
Letnie warsztaty dla dzieci i młodzieży z niepełnosprawnością z podstaw programowania,
Innowacyjny w skali świata program rozwoju kompetencji cyfrowych osób niewidomych i słabowidzących w zakresie testowania oprogramowania,
Zrealizujemy dwie kampanie społeczne pokazujące możliwości aktywizacji zawodowej osób niepełnosprawnych z zastosowaniem technologii asystujących i technologii informatycznych (programowanie, bazy danych, webdeweloperzy i inni pracujący w branży IT w Polsce i na świecie) oraz jak rozwijać kompetencje cyfrowe na etapie edukacji i co jest w tym wszystkim najważniejsze,
Nagramy i opublikujemy podcasty związane z procesem akceptacji niepełnosprawności, rozwoju zainteresowań oraz wdrażaniu osób niepełnosprawnych na rynek pracy w branży IT.
Będziemy Was drodzy odbiorcy informowali na bieżąco o postępach w realizacji projektu.