Teleporada z niespodzianką. Google zbanowało rodzica, który wysłał do lekarza zdjęcie nieubranego dziecka

smartfon SMS uwaga wykrzyknik ostrzeżenie alert

fot. Pexels, Pixabay

Google jest bardzo wrażliwe, jeśli chodzi o kwestię pornografii dziecięcej. Algorytmy giganta technologicznego zakwalifikowały konwersację rodzica konsultującego się z pomocą lekarską jako niezgodną z prawem.

Google na straży bezpieczeństwa dzieci

W lutym 2021 roku, w Stanach Zjednoczonych doszło do interesującego zdarzenia, związanego z Google i smartfonem na Androidzie. Jak donosi The New York Times, mężczyzna o imieniu Mark zauważył niepokojący obrzęk na ciele swojego dziecka i postanowił skonsultować to z przedstawicielem opieki zdrowotnej.

(fot. pixabay.com)

Ponieważ wtedy część gabinetów lekarskich była zamknięta z powodu pandemii COVID-19, na prośbę pielęgniarki zdalnie przyjmującej zgłoszenie, przed rozpoczęciem wideowizyty ojciec wysłał zdjęcia dziecka do lekarza, by ten ocenił stan zdrowia niemowlaka. Ponieważ obrzęk wystąpił w okolicach narządów płciowych dziecka, konieczne było wysłanie zdjęcia, na którym maluch nie miał na sobie ubrań. Lekarz rozpoznał problem i przepisał antybiotyki, dzięki którym mały pacjent mógł rozpocząć leczenie.

Dwa dni po zrobieniu zdjęć, Mark otrzymał od Google powiadomienie, w którym wyjaśniono, że konta mężczyzny zostały zablokowane z powodu „szkodliwych treści”, stanowiących „poważne naruszenie zasad Google i mogły być nielegalne”.

Okazało się, że algorytmy Google oznaczyły zdjęcia dziecka jako materiały związane z wykorzystywaniem seksualnym dzieci (CSAM). Jednocześnie firma złożyła raport w National Center for Missing and Exploited Children (NCMEC) oraz przekazała dane policji, podkreślając, że mogło dojść do przestępstwa. Mark stracił dostęp do swoich e-maili, kontaktów, zdjęć, a nawet numeru telefonu, ponieważ korzystał z usług Google Fi.

Dopiero teraz sprawa stała się bardziej znana, co wznowiło dyskusje na temat granic, jakie powinny być stawiane przed firmami technologicznymi, przeszukującymi galerie zdjęć w naszych smartfonach i dyskach w chmurze w poszukiwaniu zdjęć lub filmów noszących znamiona pornografii dziecięcej.

Facebook, Twitter, Reddit, Apple – oni też filtrują treści

Wiele firm internetowych korzysta z technologii sztucznej inteligencji, by wstępnie filtrować materiały pojawiające się w serwisach czy usługach. W ubiegłym roku swój plan dotyczący chronienia bezpieczeństwa dzieci ogłosiło Apple. Gigant z Cupertino skanuje obrazy znajdujące się lokalnie na urządzeniach użytkowników, zanim zostaną przesłane do chmury iCloud. Jeśli treści wydadzą się podejrzane, do akcji wkracza moderacja w postaci pracownika firmy, który sprawdza wrażliwą treść. Może on zablokować konto użytkownika, jeśli zawiera ono CSAM.

W 2018 roku podobny zestaw narzędzi wprowadziło Google. Na smartfonach z Androidem algorytmy przerzucają ogromne ilości danych przed wysłaniem zdjęć do chmury lub stworzeniem kopii zapasowej. Najwyraźniej system ten działa, ale jak widać, wciąż potrzebuje nadzoru ze strony człowieka.

Exit mobile version