FINTIN V1: Nowoczesna klawiatura QWERTY Bluetooth dla niewidomych

W świecie, gdzie technologia dostępności rozwija się w zawrotnym tempie, FINTIN V1 pojawia się jako jedno z najbardziej innowacyjnych rozwiązań dla osób niewidomych. Ta kompaktowa klawiatura Bluetooth została zaprojektowana z myślą o użytkownikach, którzy wolą korzystać z klasycznego układu QWERTY, zamiast polegać na klawiaturach brajlowskich. To urządzenie otwiera nowe możliwości dla osób niewidomych, umożliwiając im korzystanie ze smartfonów bez konieczności wzrokowego wsparcia.

Co wyróżnia FINTIN V1? 

FINTIN V1 to pierwsza na rynku kompaktowa klawiatura QWERTY stworzona specjalnie dla osób niewidomych. Tradycyjny układ QWERTY, który wielu z nas zna z komputerów i smartfonów, został tu zminiaturyzowany i dostosowany tak, by był możliwy do obsługi jedną ręką. Klawiatura łączy się ze smartfonem za pomocą Bluetooth, co sprawia, że jest kompatybilna zarówno z systemem iOS, jak i Android. 

Zaletą FINTIN V1 jest to, że użytkownicy mogą pisać na klawiaturze bez potrzeby patrzenia na ekran. Jest to możliwe dzięki specjalnemu układowi klawiszy oraz sprzężeniom haptycznym, które pozwalają na precyzyjne wyczucie liter pod palcami. Dla osób, które przez całe życie używały klawiatury QWERTY i czują się z nią komfortowo, FINTIN V1 jest idealnym rozwiązaniem, pozwalającym na pełne korzystanie ze smartfonów bez potrzeby przyswajania nowego układu. 

Jak działa FINTIN V1? 

Klawiatura FINTIN V1 korzysta z technologii Structured Mini QWERTY, co oznacza, że pełny układ 36 klawiszy został podzielony na zaledwie sześć klawiszy. Każdy z nich odpowiada za kilka liter, a użytkownik wybiera odpowiednią literę za pomocą prostych kombinacji klawiszy i funkcji haptycznego sprzężenia zwrotnego. Dzięki temu osoby niewidome mogą korzystać z pełnej funkcjonalności smartfona, pisząc wiadomości, notatki, czy obsługując aplikacje – bez konieczności patrzenia na ekran. 

Co więcej, FINTIN V1 ma wbudowane dedykowane klawisze do obsługi najpopularniejszych czytników ekranu, takich jak VoiceOver (iOS) i TalkBack (Android). Oznacza to, że użytkownicy mogą błyskawicznie włączać funkcje czytników, bez potrzeby nawigowania po zawiłych ustawieniach smartfona. 

Dla kogo jest przeznaczony FINTIN V1? 

FINTIN V1 to idealne rozwiązanie dla osób, które preferują klasyczny układ QWERTY nad brajl. Wielu niewidomych użytkowników nie nauczyło się brajla lub po prostu czuje się bardziej komfortowo z tradycyjnymi klawiaturami. Dla takich osób FINTIN V1 to rewolucyjne narzędzie, które pozwala im na wygodniejsze korzystanie ze smartfona. 

Dodatkowo, dzięki swojej przenośności i kompaktowym rozmiarom, klawiatura ta jest świetnym wyborem dla osób, które często się przemieszczają lub potrzebują lekkiego i poręcznego urządzenia do codziennego użytku. Bez względu na to, czy pracujesz, piszesz wiadomości, czy przeglądasz internet, FINTIN V1 pozwala na szybkie i precyzyjne wpisywanie tekstu bez patrzenia na ekran. 

Co sprawia, że FINTIN V1 jest tak wyjątkowa? 

Jednym z największych atutów FINTIN V1 jest jej wszechstronność. Jest to urządzenie, które umożliwia pełny dostęp do smartfona dla osób niewidomych, ale w sposób dostosowany do ich potrzeb. Dzięki klawiszom dedykowanym czytnikom ekranowym, szybkiemu sprzężeniu zwrotnemu i kompaktowym rozmiarom, FINTIN V1 eliminuje wiele barier, z jakimi codziennie spotykają się niewidomi użytkownicy technologii. 

Dodatkowo, klawiatura jest łatwa do skonfigurowania i kompatybilna z większością urządzeń mobilnych na rynku. To sprawia, że osoby niewidome nie muszą martwić się o złożoność ustawień – FINTIN V1 działa bezpośrednio po sparowaniu ze smartfonem, gotowa do pracy w każdej chwili. 

Podsumowanie 

FINTIN V1 to kompaktowa, nowoczesna klawiatura QWERTY Bluetooth, która może zrewolucjonizować sposób, w jaki osoby niewidome korzystają ze smartfonów. Dzięki połączeniu klasycznego układu QWERTY z technologią haptyczną i wsparciem dla czytników ekranowych, FINTIN V1 oferuje nie tylko wygodę, ale także pełną funkcjonalność, jakiej potrzebują użytkownicy. Dla tych, którzy preferują klasyczną klawiaturę nad brajl, FINTIN V1 to idealne rozwiązanie, które pozwala na pełną kontrolę nad smartfonem – bez wzrokowego wsparcia.

  • Czas dostępu: 22.09.2024, godz. 10:00 UTC

Materiał powstał w ramach projektu  „Niewidomyprogramista.pl – daj szansę niepełnosprawnym na start zawodowy”.

Google Gemini: Nowy wymiar sztucznej inteligencji

Ostatnio bardzo głośno jest na temat rozwiązania Chat GPT oraz modelu GPT 4 i jego nowszych wersji. Przyjrzyjmy się teraz Gemini, czyli rozwiązaniu opartemu na sztucznej inteligencji i uczeniu neuronowym od firmy Google.

Na sam początek zauważyliśmy, testując rozwiązanie od giganta znanego przede wszystkim ze znakomitej wyszukiwarki, że odpowiedzi na nawet złożone pytania są udzielane zdecydowanie szybciej niż w Microsoft Copilot, a przynajmniej w jego darmowej wersji. Copilot jest oparty na GPT 4 i jego nowszych wersjach.

Rozwiązanie od Google lepiej i dokładniej rozumie też naturalny język, jakim użytkownik zadaje różne pytania np. o specyfikację sprzętu, program telewizyjny, propozycję fragmentu kodu programistycznego w jakimś języku programowania itd. Tłumaczenie w Google translatorze od kilku lat między nawet tak różnymi językami jak chiński i polski też wypada w sposób pozwalający na porozumienie bez wielkich trudności. Gemini jeszcze poprawia ten stan rzeczy.

Gemini pisze nawet ciekawe artykuły, zacytujmy zatem tutaj taki niedługi tekst, który pozwoli wam, drodzy czytelnicy przyjrzeć się jego możliwościom.

Nie jest w stanie jeszcze zastąpić osoby piszącej i gromadzącej dla was konkretne informacje, tekst jest dość bezosobowy i podaje twarde fakty, niewiele tam halucynacji czy chwalenia lub krytyki jakiegoś rozwiązania, ale nie ma też tam tej nieuchwytnej ludzkiej charakterystyki, dzięki czemu wiemy, że tekst pisze człowiek, a nie wiemy kto konkretnie, natomiast dobrze widać, że chociaż poprawny, to został stworzony przez narzędzia sztucznej inteligencji. Redaktorów treści jeszcze to rozwiązanie również nie zastąpi, ale już dziś może być świetną pomocą w syntetyzowaniu i tworzeniu treści, które chcemy przekazać w szeroki świat.

Jak zatem przedstawia się Google Gemini?

Google Gemini to najnowszy i najbardziej zaawansowany model językowy stworzony przez firmę Google. Ten potężny system AI wyznacza nowe standardy w dziedzinie przetwarzania języka naturalnego, oferując użytkownikom szeroki wachlarz możliwości, które wykraczają daleko poza proste odpowiadanie na pytania.

Co to jest Google Gemini?

Gemini to wielomodowy model językowy, co oznacza, że jest w stanie przetwarzać i generować różne rodzaje danych, takie jak tekst, kod, a nawet obrazy. Został stworzony w oparciu o najnowsze osiągnięcia w dziedzinie głębokiego uczenia się i architektury neuronowych sieci. Dzięki temu Gemini jest w stanie zrozumieć kontekst, intencje użytkownika oraz generować odpowiedzi, które są zarówno trafne, jak i kreatywne.

Jakie są możliwości Google Gemini?

  • Tworzenie różnorodnych treści: Gemini może być wykorzystywany do generowania tekstów kreatywnych, takich jak wiersze, scenariusze czy artykuły blogowe. Może również tworzyć różnego rodzaju kody programistyczne, tłumaczyć języki obce oraz streszczać długie teksty,
  • Rozumienie złożonych zapytań: Dzięki zaawansowanym algorytmom Gemini jest w stanie zrozumieć nawet najbardziej złożone pytania i polecenia, które są sformułowane w języku naturalnym,
  • Uczenie się na podstawie kontekstu: Gemini jest w stanie uczyć się na podstawie kontekstu rozmowy, co pozwala mu na generowanie bardziej spersonalizowanych i trafnych odpowiedzi,
  • Współpraca z innymi narzędziami: Gemini może być zintegrowany z innymi narzędziami i usługami, co pozwala na tworzenie bardziej złożonych i zaawansowanych aplikacji.

Co wyróżnia Google Gemini?

  • Wielomodowość: Jedną z najważniejszych cech Gemini jest jego wielomodowość. Dzięki temu model może przetwarzać i generować różne rodzaje danych, co otwiera nowe możliwości zastosowania,
  • Skalowalność: Gemini został zaprojektowany tak, aby mógł być skalowany w zależności od potrzeb. Dzięki temu może być wykorzystywany zarówno do prostych zadań, jak i do bardziej złożonych projektów,
  • Efektywność: Gemini jest bardzo efektywnym modelem, co oznacza, że może przetwarzać duże ilości danych w krótkim czasie.

Zastosowania Google Gemini

Możliwości zastosowania Google Gemini są praktycznie nieograniczone. Model ten może być wykorzystywany w wielu dziedzinach, takich jak:

  • Obsługa klienta: Gemini może być wykorzystany do tworzenia chatbotów, które są w stanie prowadzić naturalne rozmowy z klientami i odpowiadać na ich pytania,
  • Edukacja: Gemini może być wykorzystany do tworzenia narzędzi edukacyjnych, takich jak wirtualni tutorzy czy systemy tłumaczeniowe,
  • Kreatywna praca: Gemini może być wykorzystany przez pisarzy, programistów, a nawet artystów do generowania nowych pomysłów i treści,
  • Nauka: Gemini może być wykorzystywany do przyspieszania badań naukowych poprzez analizę dużych ilości danych.

Podsumowanie

Google Gemini to przełomowy model językowy, który otwiera nowe możliwości w dziedzinie sztucznej inteligencji. Dzięki swoim zaawansowanym funkcjom i możliwością zastosowania, Gemini ma potencjał, aby zrewolucjonizować wiele dziedzin naszego życia.

Jak widać taki szkieletowy tekst, który Gemini z siebie wyrzuciło dla nas w ciągu około 1,5 do dwóch sekund stanowi dobry materiał syntetyczny, ale daleko mu jeszcze do tych grup docelowych, których rozumienie złożonego języka naturalnego w przypadku trudniejszych zagadnień jest niższe. Taki tekst trzeba jeszcze uprościć językowo, trudniejsze frazy i sformułowania zastąpić bardziej zrozumiałymi, a jednocześnie opisującymi dane zagadnienie, w naszym przypadku możliwości i zastosowanie Google Gemini.

Celowo zostawiamy cytowany fragment napisany Przez AI od Google, abyście mogli przekonać się, że to rozwiązanie może być naprawdę pożyteczne. Nie napisze za nas w pełni wartościowej pracy domowej, projektu na zaliczenie czy np. kompletnego artykułu, ale stworzy solidne ramy i dostarczy materiałów, aby oddać później użytkownikom czy recenzentom treści wyższej jakości.

Korzystanie z rozwiązań opartych na sztucznej inteligencji zawsze wymaga też weryfikacji treści przed publikacją informacji, które chcemy wykorzystać. Chociaż to świetne rozwiązania, które zgromadziły olbrzymią furę danych, to nadal mogą mylić się, źle rozumieć nasze pytania lub po prostu halucynować, gdy nie posiadają wiedzy na temat zagadnienia o które są odpytywane.

  • Czas dostępu: 10.09.2024, godz. 10:00 UTC

Materiał powstał w ramach projektu  „Niewidomyprogramista.pl – daj szansę niepełnosprawnym na start zawodowy”.

Nowe Horyzonty Dostępności: BlindSquare na Szlaku Trans Canada

Aplikacja BlindSquare, rozwijana przez CNIB Access Labs, jest samo-mówiącą aplikacją, która współpracuje z aplikacjami nawigacyjnymi, aby ogłaszać szczegółowe punkty orientacyjne i skrzyżowania, zapewniając bezpieczne i niezawodne podróżowanie zarówno na zewnątrz, jak i wewnątrz budynków. W ramach projektu w Victoria, aplikacja będzie informować użytkowników o takich elementach jak ławki, kosze na śmieci czy toalety, co znacznie poprawi ich doświadczenia na szlaku.

Aplikacja BlindSquare

Opis Funkcji:
BlindSquare to samo-mówiąca aplikacja nawigacyjna opracowana przez CNIB Access Labs. Współpracuje z innymi aplikacjami nawigacyjnymi, takimi jak Google Maps czy Apple Maps, aby dostarczać użytkownikom szczegółowe informacje o punktach orientacyjnych i skrzyżowaniach.

Jak Włączyć:
1. Pobranie Aplikacji: Pobierz aplikację BlindSquare z App Store lub Google Play.
2. Konfiguracja Aplikacji: Po zainstalowaniu, uruchom aplikację i postępuj zgodnie z instrukcjami na ekranie, aby skonfigurować ustawienia dostępności.
3. Integracja z Aplikacjami Nawigacyjnymi: W aplikacji BlindSquare przejdź do Ustawienia > Integracje i wybierz swoją preferowaną aplikację nawigacyjną (Google Maps, Apple Maps itp.).
4. Rozpoczęcie Nawigacji: Wybierz cel podróży w aplikacji nawigacyjnej, a BlindSquare automatycznie zacznie ogłaszać punkty orientacyjne i skrzyżowania.

Działanie Aplikacji:
BlindSquare wykorzystuje technologię GPS oraz wbudowane algorytmy, aby śledzić lokalizację użytkownika i dostarczać mu informacje o otoczeniu. Ogłasza szczegółowe punkty orientacyjne, takie jak ławki, kosze na śmieci, toalety i inne ważne elementy infrastruktury, co umożliwia bezpieczne i niezawodne podróżowanie zarówno na zewnątrz, jak i wewnątrz budynków.

Projekt w Victoria

Opis Projektu:
W ramach projektu realizowanego w Victoria, aplikacja BlindSquare będzie informować użytkowników o różnych elementach infrastruktury na szlaku Trans Canada, takich jak ławki, kosze na śmieci, toalety i inne.

Jak Włączyć Funkcje Szlaku:
1. Aktualizacja Aplikacji: Upewnij się, że masz zainstalowaną najnowszą wersję aplikacji BlindSquare.
2. Aktywacja Funkcji Szlaku: W aplikacji BlindSquare przejdź do Ustawienia > Szlak Trans Canada i włącz tę funkcję.
3. Rozpoczęcie Nawigacji: Wybierz punkt początkowy i docelowy na szlaku, a aplikacja automatycznie zacznie dostarczać informacje o elementach infrastruktury.

Działanie Funkcji Szlaku:
Aplikacja BlindSquare, korzystając z danych GPS oraz informacji o infrastrukturze szlaku Trans Canada, ogłasza szczegółowe informacje o punktach orientacyjnych i elementach infrastruktury, takich jak ławki, kosze na śmieci i toalety. Dzięki temu użytkownicy mogą bezpiecznie i komfortowo korzystać ze szlaku, mając pełną świadomość otoczenia.

Znaczenie i Wpływ

Aplikacja BlindSquare znacząco poprawia jakość podróżowania osób niewidomych i niedowidzących, dostarczając im szczegółowych informacji o otoczeniu. Dzięki projektowi realizowanemu w Victoria na szlaku Trans Canada, użytkownicy będą mogli cieszyć się bezpiecznym i niezawodnym doświadczeniem podczas spacerów i wędrówek.
CNIB Access Labs kontynuuje swoje zaangażowanie w tworzenie technologii dostępnych dla każdego, co jest kluczowe dla zapewnienia równych szans i pełnego uczestnictwa w społeczeństwie.

Źródło

BlindSquare na Szlaku Trans Canada: https://www.transcanadatrail.ca/blindsquare

  • Czas dostępu: 28.06.2024, godz. 10:00 UTC

Materiał powstał w ramach projektu  „Niewidomyprogramista.pl – daj szansę niepełnosprawnym na start zawodowy”.

Nowe Funkcje Apple dla Osób Niewidomych i Niedowidzących

Apple ogłosiło wprowadzenie szeregu nowych funkcji dostępności w swoich systemach operacyjnych iOS, iPadOS, macOS i innych, które będą dostępne w najbliższym czasie. Te innowacje mają na celu znaczne poprawienie jakości życia osób niewidomych i niedowidzących, oferując im zaawansowane narzędzia do lepszej interakcji z otaczającym światem. Poniżej przedstawiamy szczegółowy opis tych funkcji oraz instrukcje, jak z nich korzystać.

Point and Speak w Aplikacji Lupka

Opis Funkcji:
“Point and Speak” to nowa funkcja w aplikacji Lupka, która umożliwia użytkownikom skierowanie urządzenia na tekst, który następnie jest odczytywany na głos. Funkcja ta będzie szczególnie przydatna w interakcji z fizycznymi obiektami, takimi jak urządzenia domowe, etykiety produktów, menu w restauracjach czy tablice informacyjne.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu iOS lub iPadOS (iOS 17 lub iPadOS 17).
2. Uruchomienie Aplikacji Lupka: Otwórz aplikację Lupka na swoim iPhonie lub iPadzie. Jeśli aplikacja nie jest zainstalowana, można ją pobrać z App Store.
3. Włączenie Funkcji “Point and Speak”: Przejdź do Ustawienia > Dostępność > Lupka > Detekcja Tekstu i włącz funkcję “Point and Speak”.
4. Używanie Funkcji: Skieruj kamerę urządzenia na tekst, który chcesz przeczytać. Aplikacja automatycznie rozpozna tekst i odczyta go na głos.

Jak to Będzie Działać:
Gdy skierujesz kamerę na tekst, aplikacja Lupka wykorzystuje wbudowane algorytmy rozpoznawania tekstu (OCR), aby zidentyfikować litery i słowa. Następnie, korzystając z technologii syntezy mowy, przekształca tekst na mowę, która jest odczytywana przez urządzenie. Funkcja ta działa w czasie rzeczywistym, co pozwala na natychmiastową interakcję z otoczeniem.

VoiceOver z Nowymi Językami i Głosami

Opis Funkcji:
VoiceOver to zaawansowany czytnik ekranu, który umożliwia osobom niewidomym i niedowidzącym nawigację i interakcję z urządzeniami Apple. Nowa aktualizacja wprowadza wsparcie dla ponad 20 dodatkowych języków i lokalizacji, a także nowe głosy zoptymalizowane dla funkcji asystujących.

Jak to Włączyć:
1. Aktualizacja Systemu: Sprawdź, czy masz najnowszą wersję systemu iOS, iPadOS lub macOS.
2. Włączenie VoiceOver: Przejdź do Ustawienia > Dostępność > VoiceOver i włącz tę funkcję.
3. Ustawienie Języka i Głosu: W ustawieniach VoiceOver wybierz Język i Głos, a następnie wybierz preferowany język i głos z listy dostępnych opcji.

Jak to Działa:
VoiceOver umożliwia nawigację po urządzeniu za pomocą gestów dotykowych i komend głosowych. Po włączeniu, VoiceOver odczytuje na głos elementy ekranu, takie jak ikony aplikacji, przyciski i teksty. Użytkownicy mogą również dostosować tempo mowy, wysokość głosu i inne parametry, aby dopasować funkcję do swoich potrzeb. Nowe głosy są zoptymalizowane, aby brzmiały bardziej naturalnie i były łatwiejsze do zrozumienia, co znacznie poprawia komfort użytkowania.

Eye Tracking

Opis Funkcji:
Eye Tracking to innowacyjna funkcja, która pozwala użytkownikom z ograniczeniami ruchowymi na kontrolowanie iPada lub iPhone’a za pomocą ruchu oczu. Funkcja ta wykorzystuje przednią kamerę urządzenia do śledzenia ruchu oczu, umożliwiając nawigację po ekranie bez użycia rąk.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu iOS lub iPadOS.
2. Włączenie Eye Tracking: Przejdź do Ustawienia > Dostępność > Eye Tracking i włącz tę funkcję.
3. Kalibracja: Postępuj zgodnie z instrukcjami na ekranie, aby skalibrować funkcję Eye Tracking do Twojego wzroku.

Jak to Będzie Działać:
Po skalibrowaniu, Eye Tracking pozwala użytkownikom nawigować po ekranie za pomocą ruchu oczu. Aby aktywować element, użytkownik musi spojrzeć na niego przez kilka sekund, co aktywuje funkcję Dwell Control, umożliwiając wykonywanie dodatkowych czynności, takich jak przewijanie, kliknięcia i gesty. Technologia ta jest wspierana przez algorytmy uczenia maszynowego, które zapewniają dokładność i responsywność działania.

Music Haptics

Opis Funkcji:
Music Haptics to nowa funkcja, która pozwala osobom niesłyszącym doświadczyć muzyki poprzez wibracje generowane przez silnik Taptic w iPhone’ie. Funkcja ta przekłada dźwięki muzyki na sekwencje wibracji, które są odczuwalne dla użytkownika.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Sprawdź, czy masz najnowszą wersję systemu iOS.
2. Włączenie Music Haptics: Przejdź do Ustawienia > Dostępność > Dotyk > Music Haptics i włącz tę funkcję.

Jak to Będzie Działać:
Po włączeniu, Music Haptics synchronizuje wibracje z dźwiękami odtwarzanej muzyki, umożliwiając użytkownikom doświadczanie muzyki poprzez dotyk. Wibracje będą zsynchronizowane z rytmem, melodią i innymi elementami muzyki, co pozwala na pełniejsze doświadczenie dźwiękowe. Funkcja ta jest szczególnie przydatna dla osób niesłyszących, które chcą czerpać radość z muzyki w sposób dotykowy.

Znaczenie i Wpływ

Nowe funkcje dostępności wprowadzone przez Apple mają na celu zwiększenie niezależności i komfortu użytkowania dla osób z różnymi niepełnosprawnościami. Dzięki takim innowacjom jak Point and Speak, VoiceOver, Eye Tracking i Music Haptics, użytkownicy będą mogli lepiej interagować ze światem i czerpać większą satysfakcję z codziennego życia.
Apple kontynuuje swoje zaangażowanie w tworzenie technologii dostępnych dla każdego, co jest kluczowe dla zapewnienia równych szans i pełnego uczestnictwa w społeczeństwie.

Źródło

Nowe Funkcje Apple: https://www.apple.com/newsroom/2024/05/new-accessibility-features

  • Czas dostępu: 28.06.2024, godz. 10:00 UTC

Materiał powstał w ramach projektu  „Niewidomyprogramista.pl – daj szansę niepełnosprawnym na start zawodowy”.

Nowe Technologie Wspomagające Przedstawione na Ability Summit 2024

Podczas Ability Summit 2024, Microsoft przedstawił nowe technologie wspomagające, które mają na celu poprawę dostępności dla osób z niepełnosprawnościami. Nowe funkcje dostępności w Windows uruchamiane przez Copilot for Windows, takie jak Live Captions, Narratora oraz inne funkcje dostępności, a także Azure AI for Accessibility, wprowadzają nowe modele generatywnej AI do opisywania obrazów i dokumentów. Poniżej szczegółowy opis tych technologii oraz instrukcje, jak z nich korzystać.

Nowe Funkcje Dostępności w Windows uruchamiane przez Copilot for Windows

Opis Funkcji:
Podczas Ability Summit 2024, Microsoft zaprezentował nowe umiejętności dostępności w systemie Windows, które będą uruchamiane przez Copilot for Windows. Funkcje te obejmują Live Captions, Narratora oraz inne narzędzia, które mają na celu poprawę dostępności systemu dla osób z niepełnosprawnościami.

Jak to Będzie Można Włączyć:
1. Aktualizacja Systemu: Upewnij się, że masz zainstalowaną najnowszą wersję systemu Windows.
2. Włączenie Copilot for Windows: Przejdź do Ustawienia > Dostępność > Copilot for Windows i włącz tę funkcję.
3. Korzystanie z Funkcji: Po włączeniu Copilot for Windows, nowe funkcje dostępności, takie jak Live Captions i Narrator, będą dostępne w systemie.

Jak to Będzie Działać:
Live Captions automatycznie generują napisy na żywo dla wszelkich dźwięków odtwarzanych na urządzeniu, co umożliwia osobom niesłyszącym lub niedosłyszącym śledzenie treści audio. Narrator odczytuje na głos teksty wyświetlane na ekranie, ułatwiając nawigację i interakcję z systemem osobom niewidomym i niedowidzącym.

Azure AI for Accessibility

Opis Funkcji:
Azure AI for Accessibility to inicjatywa Microsoftu, która wprowadza nowe modele generatywnej AI do opisywania obrazów i dokumentów. Celem tych technologii jest poprawa dostępności wizualnej i tekstowej dla osób niewidomych lub niedowidzących.

Jak to Będzie Można Włączyć:
1. Dostęp do Azure AI: Upewnij się, że masz dostęp do usług Azure AI.
2. Konfiguracja Modeli AI: Przejdź do portalu Azure i skonfiguruj modele generatywnej AI do opisywania obrazów i dokumentów.
3. Korzystanie z Funkcji: Po skonfigurowaniu, modele AI będą automatycznie opisywać obrazy i dokumenty, poprawiając dostępność dla osób niewidomych.

Jak to Będzie Działać:
Modele generatywnej AI w Azure AI for Accessibility analizują obrazy i dokumenty, a następnie generują opisy tekstowe, które mogą być odczytywane przez czytniki ekranu. Technologia ta umożliwia osobom niewidomym lub niedowidzącym lepsze zrozumienie i interakcję z treściami wizualnymi i tekstowymi.

Znaczenie i Wpływ

Nowe technologie wspomagające przedstawione przez Microsoft podczas Ability Summit 2024 mają na celu zwiększenie dostępności i niezależności osób z niepełnosprawnościami. Dzięki takim innowacjom jak Copilot for Windows i Azure AI for Accessibility, użytkownicy będą mogli lepiej interagować z technologią i czerpać większą satysfakcję z jej użytkowania.
Microsoft kontynuuje swoje zaangażowanie w tworzenie dostępnych technologii, które mają na celu zapewnienie równych szans i pełnego uczestnictwa w społeczeństwie.

Źródło

Microsoft Ability Summit 2024: https://www.microsoft.com/en-us/accessibility/blog/microsoft-ability-summit-2024

Materiał powstał w ramach projektu  „Niewidomyprogramista.pl – daj szansę niepełnosprawnym na start zawodowy”.

Picture smart w JAWS wchodzi na wyższy poziom, czyli co raz więcej zastosowań sztucznej inteligencji w czytnikach ekranu

Picture smart, czyli opisywanie obrazów wprowadzono w JAWS już w wersji 2019. Ta funkcja pozwala, w swojej podstawowej wersji ogólnie przekonać się o tym, co znajduje się na obrazie lub zdjęciu, które wskazaliśmy picture smart do opisania. Poprzednie jej wersje polegały na wielu przykładach wcześniej dostarczonych zdjęć i uczeniu się.

Boom na sztuczną inteligencję na szczęście nie ominął też czytnika ekranu. W wersji 2024 wprowadzono ulepszone Picture SMART AI, które korzysta ze sztucznej inteligencji od dwóch producentów.

Jak wiadomo i przed czym ostrzegają wszyscy producenci rozwijający modele AI rozwiązania te mogą dopowiadać sobie również rzeczy, które nie są prawdą, a zatem użycie dwóch odrębnych modeli pozwoli w większości sytuacji wykryć taką konfabulację, na jaką może sobie pozwolić w opisie dla Picture smart którykolwiek z modeli AI. Funkcja ta wychodzi obecnie z programu wczesnego wdrożenia w JAWS i niedługo będzie domyślnym źródłem opisu obrazu dla Picture Smart z JAWS. W wypadku potrzeby skorzystania z poprzedniej wersji picture smart, znanej już od kilku lat, do polecenia picture smart trzeba będzie dodać klawisz Control (CTRL).

Już wtedy można było przekonać się, że przydatne jest opisywanie obrazów czy zdjęć, które nie posiadają tekstu alternatywnego, więc możemy się tylko cieszyć, że sztuczna inteligencja podniesie poziom takich opisów zdecydowanie wyżej, co udowadnia najbardziej znany chyba chat GPT i aplikacje bardziej kierowane do niewidomych jak np. Be My Eyes ze swoim Be My AI opartym na modelu sztucznej inteligencji od Open AI.

Należy się tylko cieszyć z takiego rozwoju sytuacji i czekać na nowe wersje JAWS.

Materiał powstał w ramach projektu  „Niewidomyprogramista.pl – daj szansę niepełnosprawnym na start zawodowy”.