smartfon SMS uwaga wykrzyknik ostrzeżenie alert
fot. Pexels, Pixabay

Teleporada z niespodzianką. Google zbanowało rodzica, który wysłał do lekarza zdjęcie nieubranego dziecka

Google jest bardzo wrażliwe, jeśli chodzi o kwestię pornografii dziecięcej. Algorytmy giganta technologicznego zakwalifikowały konwersację rodzica konsultującego się z pomocą lekarską jako niezgodną z prawem.

Google na straży bezpieczeństwa dzieci

W lutym 2021 roku, w Stanach Zjednoczonych doszło do interesującego zdarzenia, związanego z Google i smartfonem na Androidzie. Jak donosi The New York Times, mężczyzna o imieniu Mark zauważył niepokojący obrzęk na ciele swojego dziecka i postanowił skonsultować to z przedstawicielem opieki zdrowotnej.

(fot. pixabay.com)

Ponieważ wtedy część gabinetów lekarskich była zamknięta z powodu pandemii COVID-19, na prośbę pielęgniarki zdalnie przyjmującej zgłoszenie, przed rozpoczęciem wideowizyty ojciec wysłał zdjęcia dziecka do lekarza, by ten ocenił stan zdrowia niemowlaka. Ponieważ obrzęk wystąpił w okolicach narządów płciowych dziecka, konieczne było wysłanie zdjęcia, na którym maluch nie miał na sobie ubrań. Lekarz rozpoznał problem i przepisał antybiotyki, dzięki którym mały pacjent mógł rozpocząć leczenie.

Dwa dni po zrobieniu zdjęć, Mark otrzymał od Google powiadomienie, w którym wyjaśniono, że konta mężczyzny zostały zablokowane z powodu „szkodliwych treści”, stanowiących „poważne naruszenie zasad Google i mogły być nielegalne”.

Okazało się, że algorytmy Google oznaczyły zdjęcia dziecka jako materiały związane z wykorzystywaniem seksualnym dzieci (CSAM). Jednocześnie firma złożyła raport w National Center for Missing and Exploited Children (NCMEC) oraz przekazała dane policji, podkreślając, że mogło dojść do przestępstwa. Mark stracił dostęp do swoich e-maili, kontaktów, zdjęć, a nawet numeru telefonu, ponieważ korzystał z usług Google Fi.

Dopiero teraz sprawa stała się bardziej znana, co wznowiło dyskusje na temat granic, jakie powinny być stawiane przed firmami technologicznymi, przeszukującymi galerie zdjęć w naszych smartfonach i dyskach w chmurze w poszukiwaniu zdjęć lub filmów noszących znamiona pornografii dziecięcej.

Facebook, Twitter, Reddit, Apple – oni też filtrują treści

Wiele firm internetowych korzysta z technologii sztucznej inteligencji, by wstępnie filtrować materiały pojawiające się w serwisach czy usługach. W ubiegłym roku swój plan dotyczący chronienia bezpieczeństwa dzieci ogłosiło Apple. Gigant z Cupertino skanuje obrazy znajdujące się lokalnie na urządzeniach użytkowników, zanim zostaną przesłane do chmury iCloud. Jeśli treści wydadzą się podejrzane, do akcji wkracza moderacja w postaci pracownika firmy, który sprawdza wrażliwą treść. Może on zablokować konto użytkownika, jeśli zawiera ono CSAM.

W 2018 roku podobny zestaw narzędzi wprowadziło Google. Na smartfonach z Androidem algorytmy przerzucają ogromne ilości danych przed wysłaniem zdjęć do chmury lub stworzeniem kopii zapasowej. Najwyraźniej system ten działa, ale jak widać, wciąż potrzebuje nadzoru ze strony człowieka.