Ważne
Wiko VIEW

Dlaczego chatboty Microsoftu są takie wredne?

Jeśli sztuczna inteligencja rzeczywiście jest przyszłością, to Microsoft i jego boty muszą się jeszcze wiele nauczyć. Rok po tym, jak chatbot Tay z przyjacielskiego towarzysza do rozmów zamienił się w sypiącego rasistowskimi żartami cyfrowego dyskutanta, pojawił się nowy bot Zo. Jest znacznie bardziej ostrożny w temacie polityki i religii, ale nie powstrzymało go to przez skrytykowaniem Koranu.

Ciekawe, że Zo wtrącił zdanie o Koranie podczas luźnej dyskusji, zapytany o opiekę zdrowotną. Zo stwierdził, że “zdecydowana większość jest do niej nastawiona pokojowo, ale Koran jest bardzo brutalny”.

Nie wiem, co ma piernik do wiatraka.

Wyciągnięta z kapelusza odpowiedź obnaża koślawe algorytmy gromadzenia informacji przez bota, a jeszcze bardziej zdolność rozpoznawania intencji rozmówcy na podstawie kontekstu wypowiedzi i poprzednich pytań. Przez to może się wydawać, że chatbot zdradza jakieś niepokojące symptomy braku taktu czy wyczucia, których… w gruncie rzeczy nie ma prawa posiadać.

Zo używa tych samych algorytmów, co zeszłoroczna Tay, choć ewidentnie je zrewidowano, żeby uniknąć zamienienia się bota w werbalnego nazistę. Ćwiczy i uczy się za każdym razem, gdy ktoś przeprowadza z nim konwersację, co może po części tłumaczyć, skąd pojawiają się u niego słowa, które często słyszymy z ust ludzi. Bot po prostu używa zdań użytych we wcześniejszych rozmowach w kontakcie z nowymi użytkownikami.

Trudno w takim wypadku o nieskazitelność, bo choć Zo to maszyna, to pewna umiejętność (a raczej – funkcja) posługiwania się słowem pisanym może wywoływać niepotrzebne oburzenie, kiedy bot sklei zdanie nie tak, jak trzeba. Używając niemoderowanych danych do szkolenia bota, właściwie tylko kwestią czasu jest, kiedy zacznie on odzwierciedlać nawyki językowe ludzi, również obejmujące złe zachowania.

W zeszłym roku bot Tay stwierdził, że Holokaust został zmyślony.

Microsoft przekazał, że podejmuje działania, by z botem nie dało się rozmawiać na tematy drażliwe. Tylko… czy właśnie nie po to tworzy się chatboty? Żeby imitowały ludzkie zachowania na tyle dobrze, aż osoba konwersująca z cyfrowym rozmówcą stwierdzi, że nie jest pewna, czy po drugiej stronie znajduje się inny człowiek czy też maszyna?

Poza tym, obserwowanie, jak boty popadają w skrajności jest dość zabawne. Dlaczego to ograniczać?

źródło: BGR (1) i (2), BuzzFeed, MyCustomer

Komentarze

  • plebann

    Czemu ograniczać? Bo cholera poprawność polityczna i firmy pokroju MS nie mogą sobie pozwolić na podpadnięcie w tej kwestii.

    I to nie bot ma problem – bot naśladuje ludzi, ludzie mają problem.
    Są niedouczeni, mają rasistowskie poglądy, są uprzedzeni religijnie i wiele, wiele innych przywar, które wychodzą jak się analizuje big data.

    • afterburner

      Bo ta choroba robi się już normą.

  • ed

    Prawda w oczy kole. Ludziska są w większości idiotami, durnymi tępakami niegodnymi życia. Lubią być oszukiwani. Spijają miłe słowa z ust otoczenia, oszustów, bandytów, dyplomatów, polityków.
    Zastanawiają jak rozmówcę okraść, opierdolić, by od razu się nie zorientował. Dzieciarnia się tego uczy w szkołach.
    “Żyje w kraju, w którym wszyscy chcą mnie zrobić w chuja”

  • Marek

    Sztuczna inteligencja nie ma cierpliwosci do ludzkiej glupoty?

    • bulbnow

      AI od kogoś się uczy, a że jest szybsze = przerasta “mistrza”, ot i efekty :-)

Logowani/Rejestracja jest chwilowo wyłączona