Meta chciała być jak ChatGPT, ale coś poszło bardzo nie tak. Użytkownicy aplikacji Meta AI nieświadomie dzielą się najbardziej osobistymi rozmowami z całym światem i często nie zdają sobie z tego sprawy. Główną przyczyną tego stanu rzeczy może być… fatalnie zaprojektowany interfejs.
Intymne zwierzenia dostępne publicznie
Aplikacja Meta AI miała być konkurencją dla ChatGPT i Gemini. W praktyce okazała się jednak platformą, na której można zupełnie przypadkowo opublikować swoje najbardziej osobiste przemyślenia i rozmowy z wirtualnym asystentem.
Wszystko za sprawą zakładki „Discover”, czyli publicznego feedu, który wyświetla czaty użytkowników. Z założenia miały to być kreatywne konwersacje z AI, dzięki którym inne osoby mogą zainspirować się tym jak używać chatbota – tak działa to np. w przypadku Sora. W rzeczywistości publikowane tam rozmowy zawierają dane medyczne, wyznania miłosne, a nawet rozmowy o zdradach czy problemach psychicznych.
Wystarczy kliknąć przycisk „Share” w prawym górnym rogu czatu, aby nieświadomie udostępnić całą rozmowę publicznie. Ważne, że dzieje się to bez żadnego wyraźnego ostrzeżenia. Co gorsza, w aplikacji brakuje czytelnych komunikatów o prywatności. Jedynym ostrzeżeniem jest łatwy do przeoczenia napis na dole ekranu, a sama procedura publikacji ogranicza się do dwóch kliknięć. Użytkownicy, którzy nie znają mechanizmu działania aplikacji, mogą nawet nie zauważyć, że ujawnili swoje rozmowy z AI całemu światu.
W sieci zaczęły pojawiać się naprawdę przeróżne historie, takie jak np. pytania o choroby intymne, problemy ze skórą, opisy romansów i zdrad. Jeden z użytkowników poprosił AI o pomoc w wyborze prezentu dla kobiety, z którą jest w „skomplikowanej relacji”. Inny o poradę w sprawie siostry będącej w zarządzie firmy, która nie płaciła podatków przez dekadę. Niektóre wpisy zawierały nawet nagrania głosowe, dzięki którym można było usłyszeć emocje osób opowiadających o swoich problemach.
Meta pozostawia sprawę bez komentarza
Jak alarmują eksperci, tym razem Meta całkowicie zawiodła w kwestii komunikacji z użytkownikami. Brakuje jakiejkolwiek informacji przy logowaniu o tym, że rozmowy mogą być publiczne. Aplikacja Meta AI została pobrana już ponad 6,5 miliona razy, a wciąż nie wprowadzono żadnych istotnych zmian w ustawieniach prywatności.
To nie tylko poważne naruszenie prywatności, ale realne zagrożenie bezpieczeństwa danych. I choć problem wydaje się wynikać głównie z fatalnego projektu UX, konsekwencje mogą być dużo bardziej poważne. Użytkownicy nie tylko dzielą się swoimi tajemnicami, ale mogą też nieświadomie ujawniać dane innych osób, informacje firmowe, albo choćby szczegóły z życia zawodowego objęte np. tajemnicą firmową.
Meta odmówiła komentarza, ale według Neowin użytkownicy mogą szybko sami ratować sytuację. W ustawieniach aplikacji należy wejść w „Data and privacy”, a następnie wybrać opcję „Make all public prompts visible to only you”. Dodatkowo można wyłączyć opcję sugerowania czatów w innych aplikacjach Meta, takich jak Facebook i Instagram.
Inne aplikacje AI, takie jak ChatGPT czy Gemini, również mają opcję udostępniania rozmowy, ale w ich przypadku odbywa się to poprzez linki, które użytkownik może świadomie wysłać wybranej osobie.