Innowacje Bez Barier: Hackathon #HackDisability – Tworzy Przyszłość Bardziej Dostępną

MIT we współpracy ze Szkołą dla Niewidomych Perkins zorganizowało hackathon, którego celem było rozwijanie technologii dostępnych dla osób niewidomych. Uczestnicy stworzyli różne prototypy, takie jak narzędzia do wewnętrznej nawigacji, interpretacji emocji oraz tworzenia dostępnych infografik. Wydarzenie miało na celu edukowanie przyszłych inżynierów o znaczeniu projektowania z myślą o dostępności od samego początku.

Opis Wydarzenia

Wydarzenie:
Hackathon #HackDisability odbył się na kampusie MIT, gromadząc studentów, inżynierów oraz specjalistów ds. dostępności. Wydarzenie było otwarte dla wszystkich zainteresowanych tworzeniem technologii dostępnych dla osób niewidomych i niedowidzących. Celem hackathonu było promowanie innowacyjnych rozwiązań, które mogą znacząco poprawić jakość życia osób z niepełnosprawnościami.

Cele i Założenia

Cele:
1. Rozwijanie nowych technologii dostępności dla osób niewidomych.
2. Edukowanie przyszłych inżynierów i projektantów o znaczeniu dostępności.
3. Tworzenie prototypów narzędzi, które mogą być rozwijane i wdrażane na szeroką skalę.
4. Budowanie świadomości na temat wyzwań, z jakimi borykają się osoby niewidome.

Stworzone Prototypy

Prototypy:
Podczas hackathonu uczestnicy stworzyli różnorodne prototypy, które mogą przyczynić się do poprawy dostępności:
1. Narzędzia do Wewnętrznej Nawigacji: Aplikacje i urządzenia, które pomagają osobom niewidomym poruszać się po wnętrzach budynków, takich jak szkoły, biura i centra handlowe.
2. Interpretacja Emocji: Technologie, które umożliwiają osobom niewidomym rozpoznawanie i interpretowanie emocji na twarzach ludzi, z którymi się komunikują.
3. Tworzenie Dostępnych Infografik: Narzędzia, które przekształcają infografiki i dane wizualne na formaty dostępne dla osób niewidomych, takie jak teksty brajlowskie lub opisy dźwiękowe.

Jak Wziąć Udział

Rejestracja:
Aby wziąć udział w hackathonie, uczestnicy musieli zarejestrować się online na stronie wydarzenia. Proces rejestracji obejmował wypełnienie formularza zgłoszeniowego, w którym należało opisać swoje doświadczenie, zainteresowania oraz pomysł na projekt związany z dostępnością.

Przygotowanie:
Przed rozpoczęciem hackathonu uczestnicy otrzymali dostęp do materiałów szkoleniowych, które pomogły im lepiej zrozumieć wyzwania związane z dostępnością oraz zapoznać się z narzędziami i technologiami, które mogą być przydatne podczas tworzenia prototypów.

Wydarzenie:
Hackathon trwał 48 godzin, podczas których uczestnicy pracowali w zespołach nad swoimi projektami. Każdy zespół miał dostęp do mentorów – specjalistów z dziedziny dostępności, inżynierów i projektantów, którzy służyli pomocą i wsparciem technicznym.

Znaczenie i Plany na Przyszłość

Znaczenie:
Hackathon #HackDisability miał ogromne znaczenie nie tylko dla samych uczestników, ale również dla społeczności osób niewidomych. Wydarzenie pokazało, jak ważne jest uwzględnianie dostępności od samego początku procesu projektowania technologii. Uczestnicy zdobyli cenne doświadczenie i wiedzę, która pomoże im w przyszłej karierze inżynierskiej.

Plany na Przyszłość:
Organizatorzy hackathonu planują kontynuować współpracę z MIT i Szkołą dla Niewidomych Perkins, aby organizować kolejne edycje wydarzenia. Celem jest dalsze promowanie innowacji w dziedzinie dostępności oraz rozwijanie stworzonych podczas hackathonu prototypów, aby mogły stać się realnymi narzędziami pomagającymi osobom niewidomym na co dzień.

Źródło

Hackathon #HackDisability: https://news.mit.edu/2024/hackathon-hackdisability

  • Czas dostępu: 28.06.2024, godz. 10:00 UTC

Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

Pierwsze letnie warsztaty pt. „Niezwykłe Wakacje dla Młodego Programisty” już za nami

W ostatnich dniach czerwca 2024 r. zrealizowane zostały letnie warsztaty z podstaw programowania dla osób niewidomych i słabowidzących. 25 uczestników pod okiem 2 instruktorów uczyło się budować i programować roboty Lego z zastosowaniem technologii asystujących. Jak na wakacyjną porę przystało buło również trochę zwiedzania i poznawania naszego środowiska. W czasie warsztatów gościliśmy naszych przyjaciół z Fundacji Prowadnica. Nasi niewidomi rówieśnicy Monika i Dawid pokazali nam jakie projektują pomoce dla niewidomych w wydruku 3D. Mieliśmy również spotkanie z Panią Adwokat Katarzyną Hebą, która opowiedziała nam, jak to jest być niewidomym prawnikiem, który codziennie swoją aktywnością zawodową potwierdza, że osoba niewidoma może być aktywna zawodowo. W czasie naszych letnich warsztatów zwiedziliśmy oceanarium, popłynęliśmy na Hel, by zobaczyć foki. Spacerowaliśmy po Molo w Sopocie oraz zobaczyliśmy symulator łodzi podwodnej.

Warsztaty były bardzo ciekawym doświadczeniem dla wszystkich. Cieszymy się, że wśród młodych osób niepełnosprawnych jest tak wielu entuzjastów technologii.

Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

Nowe Funkcje Apple dla Osób Niewidomych i Niedowidzących

Apple ogłosiło wprowadzenie szeregu nowych funkcji dostępności w swoich systemach operacyjnych iOS, iPadOS, macOS i innych, które będą dostępne w najbliższym czasie. Te innowacje mają na celu znaczne poprawienie jakości życia osób niewidomych i niedowidzących, oferując im zaawansowane narzędzia do lepszej interakcji z otaczającym światem. Poniżej przedstawiamy szczegółowy opis tych funkcji oraz instrukcje, jak z nich korzystać.

Point and Speak w Aplikacji Lupka

Opis Funkcji:
“Point and Speak” to nowa funkcja w aplikacji Lupka, która umożliwia użytkownikom skierowanie urządzenia na tekst, który następnie jest odczytywany na głos. Funkcja ta będzie szczególnie przydatna w interakcji z fizycznymi obiektami, takimi jak urządzenia domowe, etykiety produktów, menu w restauracjach czy tablice informacyjne.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu iOS lub iPadOS (iOS 17 lub iPadOS 17).
2. Uruchomienie Aplikacji Lupka: Otwórz aplikację Lupka na swoim iPhonie lub iPadzie. Jeśli aplikacja nie jest zainstalowana, można ją pobrać z App Store.
3. Włączenie Funkcji “Point and Speak”: Przejdź do Ustawienia > Dostępność > Lupka > Detekcja Tekstu i włącz funkcję “Point and Speak”.
4. Używanie Funkcji: Skieruj kamerę urządzenia na tekst, który chcesz przeczytać. Aplikacja automatycznie rozpozna tekst i odczyta go na głos.

Jak to Będzie Działać:
Gdy skierujesz kamerę na tekst, aplikacja Lupka wykorzystuje wbudowane algorytmy rozpoznawania tekstu (OCR), aby zidentyfikować litery i słowa. Następnie, korzystając z technologii syntezy mowy, przekształca tekst na mowę, która jest odczytywana przez urządzenie. Funkcja ta działa w czasie rzeczywistym, co pozwala na natychmiastową interakcję z otoczeniem.

VoiceOver z Nowymi Językami i Głosami

Opis Funkcji:
VoiceOver to zaawansowany czytnik ekranu, który umożliwia osobom niewidomym i niedowidzącym nawigację i interakcję z urządzeniami Apple. Nowa aktualizacja wprowadza wsparcie dla ponad 20 dodatkowych języków i lokalizacji, a także nowe głosy zoptymalizowane dla funkcji asystujących.

Jak to Włączyć:
1. Aktualizacja Systemu: Sprawdź, czy masz najnowszą wersję systemu iOS, iPadOS lub macOS.
2. Włączenie VoiceOver: Przejdź do Ustawienia > Dostępność > VoiceOver i włącz tę funkcję.
3. Ustawienie Języka i Głosu: W ustawieniach VoiceOver wybierz Język i Głos, a następnie wybierz preferowany język i głos z listy dostępnych opcji.

Jak to Działa:
VoiceOver umożliwia nawigację po urządzeniu za pomocą gestów dotykowych i komend głosowych. Po włączeniu, VoiceOver odczytuje na głos elementy ekranu, takie jak ikony aplikacji, przyciski i teksty. Użytkownicy mogą również dostosować tempo mowy, wysokość głosu i inne parametry, aby dopasować funkcję do swoich potrzeb. Nowe głosy są zoptymalizowane, aby brzmiały bardziej naturalnie i były łatwiejsze do zrozumienia, co znacznie poprawia komfort użytkowania.

Eye Tracking

Opis Funkcji:
Eye Tracking to innowacyjna funkcja, która pozwala użytkownikom z ograniczeniami ruchowymi na kontrolowanie iPada lub iPhone’a za pomocą ruchu oczu. Funkcja ta wykorzystuje przednią kamerę urządzenia do śledzenia ruchu oczu, umożliwiając nawigację po ekranie bez użycia rąk.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu iOS lub iPadOS.
2. Włączenie Eye Tracking: Przejdź do Ustawienia > Dostępność > Eye Tracking i włącz tę funkcję.
3. Kalibracja: Postępuj zgodnie z instrukcjami na ekranie, aby skalibrować funkcję Eye Tracking do Twojego wzroku.

Jak to Będzie Działać:
Po skalibrowaniu, Eye Tracking pozwala użytkownikom nawigować po ekranie za pomocą ruchu oczu. Aby aktywować element, użytkownik musi spojrzeć na niego przez kilka sekund, co aktywuje funkcję Dwell Control, umożliwiając wykonywanie dodatkowych czynności, takich jak przewijanie, kliknięcia i gesty. Technologia ta jest wspierana przez algorytmy uczenia maszynowego, które zapewniają dokładność i responsywność działania.

Music Haptics

Opis Funkcji:
Music Haptics to nowa funkcja, która pozwala osobom niesłyszącym doświadczyć muzyki poprzez wibracje generowane przez silnik Taptic w iPhone’ie. Funkcja ta przekłada dźwięki muzyki na sekwencje wibracji, które są odczuwalne dla użytkownika.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Sprawdź, czy masz najnowszą wersję systemu iOS.
2. Włączenie Music Haptics: Przejdź do Ustawienia > Dostępność > Dotyk > Music Haptics i włącz tę funkcję.

Jak to Będzie Działać:
Po włączeniu, Music Haptics synchronizuje wibracje z dźwiękami odtwarzanej muzyki, umożliwiając użytkownikom doświadczanie muzyki poprzez dotyk. Wibracje będą zsynchronizowane z rytmem, melodią i innymi elementami muzyki, co pozwala na pełniejsze doświadczenie dźwiękowe. Funkcja ta jest szczególnie przydatna dla osób niesłyszących, które chcą czerpać radość z muzyki w sposób dotykowy.

Znaczenie i Wpływ

Nowe funkcje dostępności wprowadzone przez Apple mają na celu zwiększenie niezależności i komfortu użytkowania dla osób z różnymi niepełnosprawnościami. Dzięki takim innowacjom jak Point and Speak, VoiceOver, Eye Tracking i Music Haptics, użytkownicy będą mogli lepiej interagować ze światem i czerpać większą satysfakcję z codziennego życia.
Apple kontynuuje swoje zaangażowanie w tworzenie technologii dostępnych dla każdego, co jest kluczowe dla zapewnienia równych szans i pełnego uczestnictwa w społeczeństwie.

Źródło

Nowe Funkcje Apple: https://www.apple.com/newsroom/2024/05/new-accessibility-features

  • Czas dostępu: 28.06.2024, godz. 10:00 UTC

Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

Nowe Technologie Wspomagające Przedstawione na Ability Summit 2024

Podczas Ability Summit 2024, Microsoft przedstawił nowe technologie wspomagające, które mają na celu poprawę dostępności dla osób z niepełnosprawnościami. Nowe funkcje dostępności w Windows uruchamiane przez Copilot for Windows, takie jak Live Captions, Narratora oraz inne funkcje dostępności, a także Azure AI for Accessibility, wprowadzają nowe modele generatywnej AI do opisywania obrazów i dokumentów. Poniżej szczegółowy opis tych technologii oraz instrukcje, jak z nich korzystać.

Nowe Funkcje Dostępności w Windows uruchamiane przez Copilot for Windows

Opis Funkcji:
Podczas Ability Summit 2024, Microsoft zaprezentował nowe umiejętności dostępności w systemie Windows, które będą uruchamiane przez Copilot for Windows. Funkcje te obejmują Live Captions, Narratora oraz inne narzędzia, które mają na celu poprawę dostępności systemu dla osób z niepełnosprawnościami.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu Windows.
2. Włączenie Copilot for Windows: Przejdź do Ustawienia > Dostępność > Copilot for Windows i włącz tę funkcję.
3. Korzystanie z Funkcji: Po włączeniu Copilot for Windows, nowe funkcje dostępności, takie jak Live Captions i Narrator, będą dostępne w systemie.

Jak to Będzie Działać:
Live Captions automatycznie generują napisy na żywo dla wszelkich dźwięków odtwarzanych na urządzeniu, co umożliwia osobom niesłyszącym lub niedosłyszącym śledzenie treści audio. Narrator odczytuje na głos teksty wyświetlane na ekranie, ułatwiając nawigację i interakcję z systemem osobom niewidomym i niedowidzącym.

Azure AI for Accessibility

Opis Funkcji:
Azure AI for Accessibility to inicjatywa Microsoftu, która wprowadza nowe modele generatywnej AI do opisywania obrazów i dokumentów. Celem tych technologii jest poprawa dostępności wizualnej i tekstowej dla osób niewidomych lub niedowidzących.

Jak to Będzie Można Włączyć:
1. Dostęp do Azure AI: Upewnij się, że masz dostęp do usług Azure AI.
2. Konfiguracja Modeli AI: Przejdź do portalu Azure i skonfiguruj modele generatywnej AI do opisywania obrazów i dokumentów.
3. Korzystanie z Funkcji: Po skonfigurowaniu, modele AI będą automatycznie opisywać obrazy i dokumenty, poprawiając dostępność dla osób niewidomych.

Jak to Będzie Działać:
Modele generatywnej AI w Azure AI for Accessibility analizują obrazy i dokumenty, a następnie generują opisy tekstowe, które mogą być odczytywane przez czytniki ekranu. Technologia ta umożliwia osobom niewidomym lub niedowidzącym lepsze zrozumienie i interakcję z treściami wizualnymi i tekstowymi.

Znaczenie i Wpływ

Nowe technologie wspomagające przedstawione przez Microsoft podczas Ability Summit 2024 mają na celu zwiększenie dostępności i niezależności osób z niepełnosprawnościami. Dzięki takim innowacjom jak Copilot for Windows i Azure AI for Accessibility, użytkownicy będą mogli lepiej interagować z technologią i czerpać większą satysfakcję z jej użytkowania.
Microsoft kontynuuje swoje zaangażowanie w tworzenie dostępnych technologii, które mają na celu zapewnienie równych szans i pełnego uczestnictwa w społeczeństwie.

Źródło

Microsoft Ability Summit 2024: https://www.microsoft.com/en-us/accessibility/blog/microsoft-ability-summit-2024

Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

Dekoder Polsat Soundbox 4K – przyszłość dostępnej domowej rozrywki

Dekodery TV nie są już od dłuższego czasu wyłącznie transmiterami sygnału od anteny do naszego telewizora. Przykład dekodera, który wprowadził do oferty PolsatBoX jest tutaj jak najbardziej na miejscu.

Przyjrzyjmy się pokrótce jego specyfikacji. Oto najważniejsze cechy dekodera Polsat Soundbox 4K:

  • Dźwięk Immersyjny: Wykorzystuje technologię Dolby Atmos® z czterema głośnikami zoptymalizowanymi przez Bang & Olufsen.
  • Jakość Obrazu: Obsługuje rozdzielczość 4K dla ostrych i wyraźnych obrazów.
  • Platforma Android TV: Umożliwia dostęp do aplikacji Google Play, takich jak Polsat Box Go, HBO Max, Disney+ i YouTube.
  • Funkcje Multimedialne: Zawiera Chromecast, TimeShift, reStart, CatchUP i nPVR dla lepszej kontroli nad treściami.

Dekoder jest przystosowany do odbioru telewizji satelitarnej i kablowej IPTV, a także obsługuje komendy głosowe i Wi-Fi 6.

Jak widać mamy tutaj do czynienia nie tylko z urządzeniem dekodującym sygnał, ale w pełni zadowalającą przystawką z androidem dla telewizorów na pokładzie. Dekoder może odbierać sygnał zarówno satelitarny jak i w technologii IP TV, gdy dostępu do sygnału satelitarnego nie ma czasowo lub nie można zainstalować w danym miejscu anteny.

Oczywiście najlepiej jest posiadać możliwość przełączania odtwarzania z obu tych źródeł zamiennie, bo każde ma swoje wady, nie mniej jednak IP TV już wystarczy aby cieszyć się swoimi kanałami telewizyjnymi, które są dostępne w  wybranej ofercie.

To, co wyróżnia ten dekoder, to głośniki, które mogą być ciekawym zamiennikiem tańszego Soundbara, a już z pewnością głośników w telewizorze. PolsatBox nie jest pierwszym operatorem, który udostępnił w ofercie dekoder z systemem android, można je znaleźć m. in. W Orange czy Play, ale to zawsze dobrze wiedzieć, że mamy większy wybór.

Dla niewidomych użytkowników wiąże się to przede wszystkim z większą dostępnością takiego urządzenia, bo jest prawie pewne, że będzie można uzyskać udźwiękowienie w systemie tego urządzenia i korzystać z niego w znacznie bardziejpełny sposób niż z dawniejszych dekoderów, w których pozostawało nauczyć się przycisków na pilocie i liczyć ich wciśnięcia, jak w telefonach komórkowych sprzed ćwierćwiecza.

A zatem zachęcamy do porównania dostępnych u naszych operatorów dekoderów z androidem i jeżeli posiadacie lub wasza rodzina posiada stary dekoder, może warto wymienić go na inny, bardziej dostępny dla wszystkich?

Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

Picture smart w JAWS wchodzi na wyższy poziom, czyli co raz więcej zastosowań sztucznej inteligencji w czytnikach ekranu

Picture smart, czyli opisywanie obrazów wprowadzono w JAWS już w wersji 2019. Ta funkcja pozwala, w swojej podstawowej wersji ogólnie przekonać się o tym, co znajduje się na obrazie lub zdjęciu, które wskazaliśmy picture smart do opisania. Poprzednie jej wersje polegały na wielu przykładach wcześniej dostarczonych zdjęć i uczeniu się.

Boom na sztuczną inteligencję na szczęście nie ominął też czytnika ekranu. W wersji 2024 wprowadzono ulepszone Picture SMART AI, które korzysta ze sztucznej inteligencji od dwóch producentów.

Jak wiadomo i przed czym ostrzegają wszyscy producenci rozwijający modele AI rozwiązania te mogą dopowiadać sobie również rzeczy, które nie są prawdą, a zatem użycie dwóch odrębnych modeli pozwoli w większości sytuacji wykryć taką konfabulację, na jaką może sobie pozwolić w opisie dla Picture smart którykolwiek z modeli AI. Funkcja ta wychodzi obecnie z programu wczesnego wdrożenia w JAWS i niedługo będzie domyślnym źródłem opisu obrazu dla Picture Smart z JAWS. W wypadku potrzeby skorzystania z poprzedniej wersji picture smart, znanej już od kilku lat, do polecenia picture smart trzeba będzie dodać klawisz Control (CTRL).

Już wtedy można było przekonać się, że przydatne jest opisywanie obrazów czy zdjęć, które nie posiadają tekstu alternatywnego, więc możemy się tylko cieszyć, że sztuczna inteligencja podniesie poziom takich opisów zdecydowanie wyżej, co udowadnia najbardziej znany chyba chat GPT i aplikacje bardziej kierowane do niewidomych jak np. Be My Eyes ze swoim Be My AI opartym na modelu sztucznej inteligencji od Open AI.

Należy się tylko cieszyć z takiego rozwoju sytuacji i czekać na nowe wersje JAWS.

Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.