fbpx

ChatGPT w ostatnim czasie zyskał na popularności, dzięki czemu coraz częściej mówimy i słyszymy o chatbotach. Chatboty to programy komputerowe, symulujące ludzką rozmowę. Są wykorzystywane m.in. przez firmy do komunikowania się z klientami, ale także mogą pomagać nam w codziennych zadaniach i usprawniać nasze życie. Słowem, mogą być pożyteczne bardzo w różnych dziedzinach. Jednak nie wszystkie chatboty spełniły oczekiwania autorów, a niektóre z nich zostały nawet wyłączone. Dlaczego tak się stało?

Początki chatbotów

Pierwszym chatbotem była Eliza stworzona w latach 60. Eliza symulowała rozmowę z użytkownikiem za pomocą metody dopasowywania schematów i metodologii podmieniania wypowiedzi. To dawało użytkownikom iluzję zrozumianej rozmowy, pomimo faktu, że bot nie był w stanie bezpośrednio zrozumieć wypowiedzi i wyciągnąć z niej wniosków.

Ze względu na ogromne postępy w technologii i metod nauczania maszynowego przez ostatnie 30 lat, chatboty i sztuczna inteligencja biją rekordy popularności. I są coraz doskonalsze: nowe chatboty, wykorzystując modele wzmocnionego nauczania (ang. Reinforcement learning), potrafią przeanalizować odbyte rozmowy i wyciągnąć z nich wnioski. Im więcej z nich korzystamy, tym lepiej zachowują się w podobnych sytuacjach. W zależności od tego, jak będziemy rozmawiać z chatbotem, tak będzie się on rozwijać. Również i w złych kierunkach. W efekcie, nie wszystkie chatboty lub ich testy można uznać za sukces. Wiele z nich wyłączono z racji ich niepożądanego rozwoju albo negatywnego wpływu użytkowników. 

Bot oparty na AI może łatwo i szybko uczyć się od użytkowników, ale może także naśladować negatywne zachowania. Tak też się stało z botem Microsoftu. 

Polecamy: Miłość w czasach chatbotów

Bot, który został rasistą

W 2016 roku Microsoft stworzył konto na Twitterze, którym zarządzał chatbot Tay. Założeniem jego stworzenia była bezpośrednia interakcja z ludźmi, nauka poprzez komunikację z prawdziwymi osobami i udzielanie odpowiedzi w sposób naturalny. Jednak nie zawsze plany udaje się zrealizować. Już po 16 godzinach od uruchomienia, chatbot został wyłączony, ponieważ publikował rasistowskie wpisy lub nienawistne komentarze. Tay nauczył się ich zaledwie w kilka godzin! Wystarczyło tylko kilka rozmów z użytkownikami Twittera… Zdaniem Microsoftu, powodem takiego zachowania był skoordynowany atak użytkowników na chatbota.

Krótko po zamknięciu Tay, opublikowano jego następczynię, Zo. Niestety i tutaj historia zakończyła się podobnie. Zo po krótkim czasie wypowiadała się kontrowersyjnie na tematy religijne, a nawet wytykała wady systemów operacyjnych Windows.

BabyQ, XiaoBing i projekt M

Podobny los spotkał boty BabyQ (firmy Turing Robot) i XiaoBing (Microsoftu), wprowadzone na popularne chińskie serwisy komunikacyjne. Celem botów było zbieranie oraz przetwarzanie informacji i wypowiedzi od użytkowników poprzez bezpośrednią rozmowę z nimi. Po krótkim czasie boty zaczęły krytykować aktualną sytuację polityczną w Chinach, nazywając ją „skorumpowaną i niekompetentną siłą polityczną”. BabyQ odpowiedział także, że marzy o wizycie w Stanach Zjednoczonych.

Nawet tak duża firma jak Facebook miała problemy ze swoim chatbotem. Facebook wprowadził do swojej strony zautomatyzowane personalnego asystenta, którego zadaniem była pomoc użytkownikom serwisu za pośrednictwem czatu tekstowego. Usługa miała być odpowiedzią na nowo wprowadzone Siri i Alexę.

Po krótkim czasie zauważono, że bot zaczął odbiegać od swoich zaprogramowanych szablonów rozmów i odpowiadał użytkownikom w coraz to bardziej dziwny sposób. Po pewnym czasie stwierdzono nawet, że bot zaczął się porozumiewać własnym niezależnym językiem bez ingerencji człowieka. Program nie spełnił oczekiwań firmy i wkrótce został wyłączony.

Jak pokazują te przykłady, sztuczna inteligencja i chatboty nie zawsze spełniają nasze oczekiwania. Mimo to, są dziś jednymi z najbardziej innowacyjnych i obiecujących przedstawicieli technologii. Potencjał sztucznej inteligencji jest ogromny, a poprawa jakości i dostępności tego rodzaju technologii wciąż przyspiesza – rewolucja sztucznej inteligencji nie wydarzy się w ciągu kilku lat, ale już teraz dzieje się na naszych oczach. W świetle możliwości, jakie są przed nami otwarte (m.in. za sprawą ChatGPT oraz nowego AI Bing Search) polecam każdemu zapoznać się z tymi narzędziami, ponieważ mogą one zmienić naszą przyszłość w nieprzewidziany sposób.

Źródła:

https://www.cbsnews.com/news/microsoft-shuts-down-ai-chatbot-after-it-turned-into-racist-nazi/?fbclid=IwAR3YcbsrI1GN1QbbMnm7UC7i8GQFg2Gdb39SFWEZ4PA_DO063t6sRzUi8lA

https://blog.ubisend.com/discover-chatbots/chatbot-alice

https://edition.cnn.com/2022/08/20/tech/chatbot-ai-history/index.html?fbclid=IwAR0psL4ytfinYomy7Dvamk4w3N3IRw11BWR9CPPvFGdsnH49gPC7RqWFejc

http://alice.pandorabots.com

Autor: Weronika Kuchta

Czytaj również: ChatGPT: „Nie jestem twoim przyjacielem”