WorldScribe – Narzędzie AI do Opisywania Obrazów dla Osób Niewidomych i Słabowidzących

Odbyła się premiera WorldScribe, innowacyjnego narzędzia opartego na sztucznej inteligencji (AI), które rewolucjonizuje sposób, w jaki osoby niewidome i słabowidzące mogą poznawać i rozumieć otaczający ich świat wizualny. Stworzone przez naukowców z Uniwersytetu Michigan, WorldScribe wykorzystuje zaawansowane algorytmy analizy obrazu, aby dostarczać szczegółowych opisów obiektów, miejsc i osób w czasie rzeczywistym.

Czym jest WorldScribe?

WorldScribe to inteligentna aplikacja, która działa na urządzeniach mobilnych i komputerach, pomagając użytkownikom „widzieć” otoczenie za pomocą szczegółowych opisów dźwiękowych. Wystarczy skierować kamerę smartfona na obiekt, a narzędzie natychmiast opisze, co się przed nim znajduje.

Najważniejsze funkcje WorldScribe

1. Opis obrazów w czasie rzeczywistym

Aplikacja analizuje obraz z kamery urządzenia i dostarcza szczegółowych opisów dźwiękowych w czasie rzeczywistym.

2. Rozpoznawanie obiektów i otoczenia

WorldScribe potrafi identyfikować przedmioty codziennego użytku, takie jak kubki, klucze, książki, a także bardziej złożone sceny, np. „pokój dzienny z sofą, stołem i telewizorem”.

3. Analiza tekstu

Aplikacja odczytuje teksty drukowane, np. dokumenty, menu w restauracjach czy znaki drogowe, oferując natychmiastową konwersję tekstu na mowę.

4. Rozpoznawanie twarzy

Dzięki funkcji zapisywania twarzy aplikacja informuje użytkownika, kto znajduje się w jego polu widzenia, np. „Jan Kowalski, Twój kolega”.

5. Opis otoczenia i przestrzeni

WorldScribe dostarcza informacji o charakterystyce otoczenia, takich jak rodzaje budynków, parki, ścieżki czy punkty orientacyjne.

6. Działanie offline

Narzędzie działa także w trybie offline, oferując podstawowe funkcje rozpoznawania obiektów i tekstów bez potrzeby połączenia z internetem.

Jak działa WorldScribe?

WorldScribe wykorzystuje zaawansowane algorytmy AI i przetwarzanie obrazu do analizy danych w czasie rzeczywistym:

• Kamera smartfona lub urządzenia przenośnego rejestruje obraz.

• Sztuczna inteligencja identyfikuje obiekty, teksty i twarze, generując opis w formie dźwiękowej.

• Informacje są przekazywane użytkownikowi przez słuchawki lub głośnik, zapewniając płynną interakcję.

Przykład: Użytkownik kieruje kamerę na półkę w sklepie, a aplikacja mówi: „Przed Tobą znajduje się sok pomarańczowy, 1 litr, cena 4,50 zł”.

Praktyczne zastosowania WorldScribe

1. Zakupy

Rozpoznawanie produktów i odczytywanie etykiet pozwala osobom niewidomym samodzielnie robić zakupy.

2. Praca zawodowa

Aplikacja wspiera czytanie dokumentów, identyfikację współpracowników czy analizę prezentacji graficznych.

3. Zwiedzanie i turystyka

Dzięki opisom otoczenia WorldScribe umożliwia poznawanie nowych miejsc i atrakcji turystycznych.

4. Organizacja domowa

Narzędzie pomaga w identyfikacji przedmiotów w domu, takich jak ubrania, przyprawy czy klucze.

5. Relacje społeczne

Rozpoznawanie twarzy i imion ułatwia nawiązywanie kontaktów w pracy, na spotkaniach czy w życiu codziennym.

Co wyróżnia WorldScribe?

• Wysoka precyzja opisów: AI generuje szczegółowe i kontekstowe opisy obiektów i przestrzeni.

• Szybkość działania: Analiza obrazu i generowanie opisu zajmuje mniej niż sekundę.

• Dostosowanie do potrzeb użytkownika: Możliwość personalizacji głosu, języka i preferencji dźwiękowych.

Technologia w służbie dostępności

WorldScribe jest przełomowym narzędziem, które otwiera nowe możliwości dla osób niewidomych i słabowidzących:

• Zwiększa niezależność w codziennych czynnościach.

• Ułatwia integrację społeczną, dzięki lepszemu rozumieniu otoczenia.

• Wspiera edukację i pracę, oferując dostęp do tekstów i informacji wizualnych.

Podsumowanie – Nowy standard dostępności

WorldScribe to nie tylko aplikacja, ale także most łączący osoby niewidome i słabowidzące z wizualnym światem. Dzięki wykorzystaniu sztucznej inteligencji narzędzie oferuje niezrównane wsparcie w codziennym życiu, pracy i nauce.

Jeśli szukasz technologii, która zmienia sposób, w jaki doświadczasz otoczenia, WorldScribe to rozwiązanie, które warto wypróbować.

  • Czas dostępu: 30.07.2024, godz. 10:00 UTC, https://www.transcanadatrail.ca/blindsquare

Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

Nowe Horyzonty Dostępności: BlindSquare na Szlaku Trans Canada

Aplikacja BlindSquare, rozwijana przez CNIB Access Labs, jest samo-mówiącą aplikacją, która współpracuje z aplikacjami nawigacyjnymi, aby ogłaszać szczegółowe punkty orientacyjne i skrzyżowania, zapewniając bezpieczne i niezawodne podróżowanie zarówno na zewnątrz, jak i wewnątrz budynków. W ramach projektu w Victoria, aplikacja będzie informować użytkowników o takich elementach jak ławki, kosze na śmieci czy toalety, co znacznie poprawi ich doświadczenia na szlaku.

Aplikacja BlindSquare

Opis Funkcji:
BlindSquare to samo-mówiąca aplikacja nawigacyjna opracowana przez CNIB Access Labs. Współpracuje z innymi aplikacjami nawigacyjnymi, takimi jak Google Maps czy Apple Maps, aby dostarczać użytkownikom szczegółowe informacje o punktach orientacyjnych i skrzyżowaniach.

Jak Włączyć:
1. Pobranie Aplikacji: Pobierz aplikację BlindSquare z App Store lub Google Play.
2. Konfiguracja Aplikacji: Po zainstalowaniu, uruchom aplikację i postępuj zgodnie z instrukcjami na ekranie, aby skonfigurować ustawienia dostępności.
3. Integracja z Aplikacjami Nawigacyjnymi: W aplikacji BlindSquare przejdź do Ustawienia > Integracje i wybierz swoją preferowaną aplikację nawigacyjną (Google Maps, Apple Maps itp.).
4. Rozpoczęcie Nawigacji: Wybierz cel podróży w aplikacji nawigacyjnej, a BlindSquare automatycznie zacznie ogłaszać punkty orientacyjne i skrzyżowania.

Działanie Aplikacji:
BlindSquare wykorzystuje technologię GPS oraz wbudowane algorytmy, aby śledzić lokalizację użytkownika i dostarczać mu informacje o otoczeniu. Ogłasza szczegółowe punkty orientacyjne, takie jak ławki, kosze na śmieci, toalety i inne ważne elementy infrastruktury, co umożliwia bezpieczne i niezawodne podróżowanie zarówno na zewnątrz, jak i wewnątrz budynków.

Projekt w Victoria

Opis Projektu:
W ramach projektu realizowanego w Victoria, aplikacja BlindSquare będzie informować użytkowników o różnych elementach infrastruktury na szlaku Trans Canada, takich jak ławki, kosze na śmieci, toalety i inne.

Jak Włączyć Funkcje Szlaku:
1. Aktualizacja Aplikacji: Upewnij się, że masz zainstalowaną najnowszą wersję aplikacji BlindSquare.
2. Aktywacja Funkcji Szlaku: W aplikacji BlindSquare przejdź do Ustawienia > Szlak Trans Canada i włącz tę funkcję.
3. Rozpoczęcie Nawigacji: Wybierz punkt początkowy i docelowy na szlaku, a aplikacja automatycznie zacznie dostarczać informacje o elementach infrastruktury.

Działanie Funkcji Szlaku:
Aplikacja BlindSquare, korzystając z danych GPS oraz informacji o infrastrukturze szlaku Trans Canada, ogłasza szczegółowe informacje o punktach orientacyjnych i elementach infrastruktury, takich jak ławki, kosze na śmieci i toalety. Dzięki temu użytkownicy mogą bezpiecznie i komfortowo korzystać ze szlaku, mając pełną świadomość otoczenia.

Znaczenie i Wpływ

Aplikacja BlindSquare znacząco poprawia jakość podróżowania osób niewidomych i niedowidzących, dostarczając im szczegółowych informacji o otoczeniu. Dzięki projektowi realizowanemu w Victoria na szlaku Trans Canada, użytkownicy będą mogli cieszyć się bezpiecznym i niezawodnym doświadczeniem podczas spacerów i wędrówek.
CNIB Access Labs kontynuuje swoje zaangażowanie w tworzenie technologii dostępnych dla każdego, co jest kluczowe dla zapewnienia równych szans i pełnego uczestnictwa w społeczeństwie.

  • Czas dostępu: 28.06.2024, godz. 10:00 UTC, https://www.transcanadatrail.ca/blindsquare

Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

Innowacje Bez Barier: Hackathon #HackDisability – Tworzy Przyszłość Bardziej Dostępną

MIT we współpracy ze Szkołą dla Niewidomych Perkins zorganizowało hackathon, którego celem było rozwijanie technologii dostępnych dla osób niewidomych. Uczestnicy stworzyli różne prototypy, takie jak narzędzia do wewnętrznej nawigacji, interpretacji emocji oraz tworzenia dostępnych infografik. Wydarzenie miało na celu edukowanie przyszłych inżynierów o znaczeniu projektowania z myślą o dostępności od samego początku.

Opis Wydarzenia

Wydarzenie:
Hackathon #HackDisability odbył się na kampusie MIT, gromadząc studentów, inżynierów oraz specjalistów ds. dostępności. Wydarzenie było otwarte dla wszystkich zainteresowanych tworzeniem technologii dostępnych dla osób niewidomych i niedowidzących. Celem hackathonu było promowanie innowacyjnych rozwiązań, które mogą znacząco poprawić jakość życia osób z niepełnosprawnościami.

Cele i Założenia

Cele:
1. Rozwijanie nowych technologii dostępności dla osób niewidomych.
2. Edukowanie przyszłych inżynierów i projektantów o znaczeniu dostępności.
3. Tworzenie prototypów narzędzi, które mogą być rozwijane i wdrażane na szeroką skalę.
4. Budowanie świadomości na temat wyzwań, z jakimi borykają się osoby niewidome.

Stworzone Prototypy

Prototypy:
Podczas hackathonu uczestnicy stworzyli różnorodne prototypy, które mogą przyczynić się do poprawy dostępności:
1. Narzędzia do Wewnętrznej Nawigacji: Aplikacje i urządzenia, które pomagają osobom niewidomym poruszać się po wnętrzach budynków, takich jak szkoły, biura i centra handlowe.
2. Interpretacja Emocji: Technologie, które umożliwiają osobom niewidomym rozpoznawanie i interpretowanie emocji na twarzach ludzi, z którymi się komunikują.
3. Tworzenie Dostępnych Infografik: Narzędzia, które przekształcają infografiki i dane wizualne na formaty dostępne dla osób niewidomych, takie jak teksty brajlowskie lub opisy dźwiękowe.

Jak Wziąć Udział

Rejestracja:
Aby wziąć udział w hackathonie, uczestnicy musieli zarejestrować się online na stronie wydarzenia. Proces rejestracji obejmował wypełnienie formularza zgłoszeniowego, w którym należało opisać swoje doświadczenie, zainteresowania oraz pomysł na projekt związany z dostępnością.

Przygotowanie:
Przed rozpoczęciem hackathonu uczestnicy otrzymali dostęp do materiałów szkoleniowych, które pomogły im lepiej zrozumieć wyzwania związane z dostępnością oraz zapoznać się z narzędziami i technologiami, które mogą być przydatne podczas tworzenia prototypów.

Wydarzenie:
Hackathon trwał 48 godzin, podczas których uczestnicy pracowali w zespołach nad swoimi projektami. Każdy zespół miał dostęp do mentorów – specjalistów z dziedziny dostępności, inżynierów i projektantów, którzy służyli pomocą i wsparciem technicznym.

Znaczenie i Plany na Przyszłość

Znaczenie:
Hackathon #HackDisability miał ogromne znaczenie nie tylko dla samych uczestników, ale również dla społeczności osób niewidomych. Wydarzenie pokazało, jak ważne jest uwzględnianie dostępności od samego początku procesu projektowania technologii. Uczestnicy zdobyli cenne doświadczenie i wiedzę, która pomoże im w przyszłej karierze inżynierskiej.

Plany na Przyszłość:
Organizatorzy hackathonu planują kontynuować współpracę z MIT i Szkołą dla Niewidomych Perkins, aby organizować kolejne edycje wydarzenia. Celem jest dalsze promowanie innowacji w dziedzinie dostępności oraz rozwijanie stworzonych podczas hackathonu prototypów, aby mogły stać się realnymi narzędziami pomagającymi osobom niewidomym na co dzień.

Źródło

Hackathon #HackDisability: https://news.mit.edu/2024/hackathon-hackdisability

  • Czas dostępu: 28.06.2024, godz. 10:00 UTC

Kampania społeczna “Niewidomyprogramista.pl – daj szansę niepełnosprawnym programistom na start zawodowy” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

Pierwsze letnie warsztaty pt. „Niezwykłe Wakacje dla Młodego Programisty” już za nami

W ostatnich dniach czerwca 2024 r. zrealizowane zostały letnie warsztaty z podstaw programowania dla osób niewidomych i słabowidzących. 25 uczestników pod okiem 2 instruktorów uczyło się budować i programować roboty Lego z zastosowaniem technologii asystujących. Jak na wakacyjną porę przystało buło również trochę zwiedzania i poznawania naszego środowiska. W czasie warsztatów gościliśmy naszych przyjaciół z Fundacji Prowadnica. Nasi niewidomi rówieśnicy Monika i Dawid pokazali nam jakie projektują pomoce dla niewidomych w wydruku 3D. Mieliśmy również spotkanie z Panią Adwokat Katarzyną Hebą, która opowiedziała nam, jak to jest być niewidomym prawnikiem, który codziennie swoją aktywnością zawodową potwierdza, że osoba niewidoma może być aktywna zawodowo. W czasie naszych letnich warsztatów zwiedziliśmy oceanarium, popłynęliśmy na Hel, by zobaczyć foki. Spacerowaliśmy po Molo w Sopocie oraz zobaczyliśmy symulator łodzi podwodnej.

Warsztaty były bardzo ciekawym doświadczeniem dla wszystkich. Cieszymy się, że wśród młodych osób niepełnosprawnych jest tak wielu entuzjastów technologii.

Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

Nowe Funkcje Apple dla Osób Niewidomych i Niedowidzących

Apple ogłosiło wprowadzenie szeregu nowych funkcji dostępności w swoich systemach operacyjnych iOS, iPadOS, macOS i innych, które będą dostępne w najbliższym czasie. Te innowacje mają na celu znaczne poprawienie jakości życia osób niewidomych i niedowidzących, oferując im zaawansowane narzędzia do lepszej interakcji z otaczającym światem. Poniżej przedstawiamy szczegółowy opis tych funkcji oraz instrukcje, jak z nich korzystać.

Point and Speak w Aplikacji Lupka

Opis Funkcji:
“Point and Speak” to nowa funkcja w aplikacji Lupka, która umożliwia użytkownikom skierowanie urządzenia na tekst, który następnie jest odczytywany na głos. Funkcja ta będzie szczególnie przydatna w interakcji z fizycznymi obiektami, takimi jak urządzenia domowe, etykiety produktów, menu w restauracjach czy tablice informacyjne.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu iOS lub iPadOS (iOS 17 lub iPadOS 17).
2. Uruchomienie Aplikacji Lupka: Otwórz aplikację Lupka na swoim iPhonie lub iPadzie. Jeśli aplikacja nie jest zainstalowana, można ją pobrać z App Store.
3. Włączenie Funkcji “Point and Speak”: Przejdź do Ustawienia > Dostępność > Lupka > Detekcja Tekstu i włącz funkcję “Point and Speak”.
4. Używanie Funkcji: Skieruj kamerę urządzenia na tekst, który chcesz przeczytać. Aplikacja automatycznie rozpozna tekst i odczyta go na głos.

Jak to Będzie Działać:
Gdy skierujesz kamerę na tekst, aplikacja Lupka wykorzystuje wbudowane algorytmy rozpoznawania tekstu (OCR), aby zidentyfikować litery i słowa. Następnie, korzystając z technologii syntezy mowy, przekształca tekst na mowę, która jest odczytywana przez urządzenie. Funkcja ta działa w czasie rzeczywistym, co pozwala na natychmiastową interakcję z otoczeniem.

VoiceOver z Nowymi Językami i Głosami

Opis Funkcji:
VoiceOver to zaawansowany czytnik ekranu, który umożliwia osobom niewidomym i niedowidzącym nawigację i interakcję z urządzeniami Apple. Nowa aktualizacja wprowadza wsparcie dla ponad 20 dodatkowych języków i lokalizacji, a także nowe głosy zoptymalizowane dla funkcji asystujących.

Jak to Włączyć:
1. Aktualizacja Systemu: Sprawdź, czy masz najnowszą wersję systemu iOS, iPadOS lub macOS.
2. Włączenie VoiceOver: Przejdź do Ustawienia > Dostępność > VoiceOver i włącz tę funkcję.
3. Ustawienie Języka i Głosu: W ustawieniach VoiceOver wybierz Język i Głos, a następnie wybierz preferowany język i głos z listy dostępnych opcji.

Jak to Działa:
VoiceOver umożliwia nawigację po urządzeniu za pomocą gestów dotykowych i komend głosowych. Po włączeniu, VoiceOver odczytuje na głos elementy ekranu, takie jak ikony aplikacji, przyciski i teksty. Użytkownicy mogą również dostosować tempo mowy, wysokość głosu i inne parametry, aby dopasować funkcję do swoich potrzeb. Nowe głosy są zoptymalizowane, aby brzmiały bardziej naturalnie i były łatwiejsze do zrozumienia, co znacznie poprawia komfort użytkowania.

Eye Tracking

Opis Funkcji:
Eye Tracking to innowacyjna funkcja, która pozwala użytkownikom z ograniczeniami ruchowymi na kontrolowanie iPada lub iPhone’a za pomocą ruchu oczu. Funkcja ta wykorzystuje przednią kamerę urządzenia do śledzenia ruchu oczu, umożliwiając nawigację po ekranie bez użycia rąk.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu iOS lub iPadOS.
2. Włączenie Eye Tracking: Przejdź do Ustawienia > Dostępność > Eye Tracking i włącz tę funkcję.
3. Kalibracja: Postępuj zgodnie z instrukcjami na ekranie, aby skalibrować funkcję Eye Tracking do Twojego wzroku.

Jak to Będzie Działać:
Po skalibrowaniu, Eye Tracking pozwala użytkownikom nawigować po ekranie za pomocą ruchu oczu. Aby aktywować element, użytkownik musi spojrzeć na niego przez kilka sekund, co aktywuje funkcję Dwell Control, umożliwiając wykonywanie dodatkowych czynności, takich jak przewijanie, kliknięcia i gesty. Technologia ta jest wspierana przez algorytmy uczenia maszynowego, które zapewniają dokładność i responsywność działania.

Music Haptics

Opis Funkcji:
Music Haptics to nowa funkcja, która pozwala osobom niesłyszącym doświadczyć muzyki poprzez wibracje generowane przez silnik Taptic w iPhone’ie. Funkcja ta przekłada dźwięki muzyki na sekwencje wibracji, które są odczuwalne dla użytkownika.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Sprawdź, czy masz najnowszą wersję systemu iOS.
2. Włączenie Music Haptics: Przejdź do Ustawienia > Dostępność > Dotyk > Music Haptics i włącz tę funkcję.

Jak to Będzie Działać:
Po włączeniu, Music Haptics synchronizuje wibracje z dźwiękami odtwarzanej muzyki, umożliwiając użytkownikom doświadczanie muzyki poprzez dotyk. Wibracje będą zsynchronizowane z rytmem, melodią i innymi elementami muzyki, co pozwala na pełniejsze doświadczenie dźwiękowe. Funkcja ta jest szczególnie przydatna dla osób niesłyszących, które chcą czerpać radość z muzyki w sposób dotykowy.

Znaczenie i Wpływ

Nowe funkcje dostępności wprowadzone przez Apple mają na celu zwiększenie niezależności i komfortu użytkowania dla osób z różnymi niepełnosprawnościami. Dzięki takim innowacjom jak Point and Speak, VoiceOver, Eye Tracking i Music Haptics, użytkownicy będą mogli lepiej interagować ze światem i czerpać większą satysfakcję z codziennego życia.
Apple kontynuuje swoje zaangażowanie w tworzenie technologii dostępnych dla każdego, co jest kluczowe dla zapewnienia równych szans i pełnego uczestnictwa w społeczeństwie.

Źródło

Nowe Funkcje Apple: https://www.apple.com/newsroom/2024/05/new-accessibility-features

  • Czas dostępu: 28.06.2024, godz. 10:00 UTC

Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.

Nowe Technologie Wspomagające Przedstawione na Ability Summit 2024

Podczas Ability Summit 2024, Microsoft przedstawił nowe technologie wspomagające, które mają na celu poprawę dostępności dla osób z niepełnosprawnościami. Nowe funkcje dostępności w Windows uruchamiane przez Copilot for Windows, takie jak Live Captions, Narratora oraz inne funkcje dostępności, a także Azure AI for Accessibility, wprowadzają nowe modele generatywnej AI do opisywania obrazów i dokumentów. Poniżej szczegółowy opis tych technologii oraz instrukcje, jak z nich korzystać.

Nowe Funkcje Dostępności w Windows uruchamiane przez Copilot for Windows

Opis Funkcji:
Podczas Ability Summit 2024, Microsoft zaprezentował nowe umiejętności dostępności w systemie Windows, które będą uruchamiane przez Copilot for Windows. Funkcje te obejmują Live Captions, Narratora oraz inne narzędzia, które mają na celu poprawę dostępności systemu dla osób z niepełnosprawnościami.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu Windows.
2. Włączenie Copilot for Windows: Przejdź do Ustawienia > Dostępność > Copilot for Windows i włącz tę funkcję.
3. Korzystanie z Funkcji: Po włączeniu Copilot for Windows, nowe funkcje dostępności, takie jak Live Captions i Narrator, będą dostępne w systemie.

Jak to Będzie Działać:
Live Captions automatycznie generują napisy na żywo dla wszelkich dźwięków odtwarzanych na urządzeniu, co umożliwia osobom niesłyszącym lub niedosłyszącym śledzenie treści audio. Narrator odczytuje na głos teksty wyświetlane na ekranie, ułatwiając nawigację i interakcję z systemem osobom niewidomym i niedowidzącym.

Azure AI for Accessibility

Opis Funkcji:
Azure AI for Accessibility to inicjatywa Microsoftu, która wprowadza nowe modele generatywnej AI do opisywania obrazów i dokumentów. Celem tych technologii jest poprawa dostępności wizualnej i tekstowej dla osób niewidomych lub niedowidzących.

Jak to Będzie Można Włączyć:
1. Dostęp do Azure AI: Upewnij się, że masz dostęp do usług Azure AI.
2. Konfiguracja Modeli AI: Przejdź do portalu Azure i skonfiguruj modele generatywnej AI do opisywania obrazów i dokumentów.
3. Korzystanie z Funkcji: Po skonfigurowaniu, modele AI będą automatycznie opisywać obrazy i dokumenty, poprawiając dostępność dla osób niewidomych.

Jak to Będzie Działać:
Modele generatywnej AI w Azure AI for Accessibility analizują obrazy i dokumenty, a następnie generują opisy tekstowe, które mogą być odczytywane przez czytniki ekranu. Technologia ta umożliwia osobom niewidomym lub niedowidzącym lepsze zrozumienie i interakcję z treściami wizualnymi i tekstowymi.

Znaczenie i Wpływ

Nowe technologie wspomagające przedstawione przez Microsoft podczas Ability Summit 2024 mają na celu zwiększenie dostępności i niezależności osób z niepełnosprawnościami. Dzięki takim innowacjom jak Copilot for Windows i Azure AI for Accessibility, użytkownicy będą mogli lepiej interagować z technologią i czerpać większą satysfakcję z jej użytkowania.
Microsoft kontynuuje swoje zaangażowanie w tworzenie dostępnych technologii, które mają na celu zapewnienie równych szans i pełnego uczestnictwa w społeczeństwie.

Źródło

Microsoft Ability Summit 2024: https://www.microsoft.com/en-us/accessibility/blog/microsoft-ability-summit-2024

Kampania społeczna „Niezwykłe Wakacje dla Młodego Programisty” współfinansowana ze środków Narodowego Instytutu Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego w ramach Rządowego Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030.