3D Touch od Google już działa na Pixelach. Na zwykłym ekranie!

3D Touch od Google już działa na Pixelach. Na zwykłym ekranie!

Najnowsza aktualizacja oprogramowania Pixeli 4 od Google spowodowała, że u części użytkowników pojawiła się dość duża nowość. Pierwszych kilka aplikacji korzysta z możliwości rozpoznawania siły nacisku na ekran. Technologia, której pozbyło się Apple, pojawiła się w Androidzie.

3D Touch – fajne, ale z jedną, dużą wadą

Możliwość rozpoznawania siły nacisku na ekran pojawiła się już ładnych kilka lat temu w telefonach Apple. Wraz z rynkowym debiutem iPhone’a 6S użytkownicy jabłkowych smartfonów otrzymali ciekawą funkcję, dzięki której poszczególne ikonki zachowywały się inaczej w zależności od tego, z jaką siłą zostały naciśnięte. Było to możliwe dzięki specjalnym czujnikom rozmieszczonym na ekranie, służącym właśnie do rejestracji siły nacisku.

Takie rozwiązanie, mimo że niezwykle efektowne, było również niezwykle kosztowne. Jako że po wprowadzeniu dalszych nowości Apple szukało sposobów na obniżenie kosztów produkcji swoich urządzeń, technologia ta została porzucona.

3D Touch od Google już działa na Pixelach. Na zwykłym ekranie!

Google: da się to zrobić, bez żadnych dodatkowych części

Pomysł, którego pozbyło się Apple, szybko podłapało Google, dzięki czemu w najnowszej aktualizacji oprogramowania Pixeli 4 pojawiła się możliwość rozpoznawania siły nacisku na ekran. Co prawda działa ona wyłącznie w kilku miejscach: nakładka systemowa, Zdjęcia i Dysk, jednak z pewnością, z biegiem czasu, stanie się szerzej dostępna. Co istotne, nowa funkcja została udostępniona dla telefonów, w których na liście wyposażenia zabrakło odpowiednich czujników. Jak udało się to zrobić?

3D Touch od Google już działa na Pixelach. Na zwykłym ekranie!

Demonstracja siły sztucznej inteligencji

Wszystko za sprawą wykorzystania mechanizmów uczenia maszynowego. Odpowiednie algorytmy Google przeanalizowały reakcję zwykłych rejestratorów dotyku na lżejsze i mocniejsze naciśnięcia. Po wyłonieniu różnic tak zaprogramowano system, by ten reagował inaczej w momencie wystąpienia symptomów świadczących o tym, że użytkownik nacisnął mocniej.

Poczytaj mi, Google. Asystent głosowy może przeczytać zawartość dowolnej strony – sprawdźcie u siebie

Nowy serwis Tabletowo. Sprawdź oiot.pl

Oznacza to, że mechanizm rozpoznawania dotyku bazuje na pewnym rachunku prawdopodobieństwa, a nie rzeczywistych odczytach siły nacisku, jednak dzięki możliwości uczenia maszynowego i temu, ile próbek udało się przeanalizować, uzyskano dokładność na tak wysokim poziomie, że producent zdecydował się już teraz oddać funkcję w ręce użytkowników.

Jeśli sprawdzi się w Pixelu, być może trafi do innych urządzeń z Androidem.

Źródło: The Verge via Komórkomania