fbpx

Czy Elon Musk, miliarder i innowator, stosuje podwójne standardy w odniesieniu do sztucznej inteligencji (AI)? Musk, który niedawno przejął Twittera, również prowadzi nową firmę AI, X.AI. Jego kontrowersyjne działania, w połączeniu z jego niedawnym podpisaniem petycji wzywającej do przerwy w tworzeniu modeli AI lepszych od ChatGPT-4, skłaniają do postawienia pytania: czy Musk próbuje monopolizować rynek AI, jednocześnie dążąc do jego regulacji?

Elon Musk nie ma ostatnio dobrej prasy. Gdy pod koniec października zeszłego roku kupił Twittera, na którym zresztą jest od lat czynnym użytkownikiem, w Internecie zaczęły krążyć artykuły o masowych zwolnieniach w siedzibie Twittera, jak również niezbyt przyjemnym charakterze nowego właściciela. Miliarder podobno wściekł się, gdy post Joe Biden’a na temat SuperBowl miał większy zasięg niż wpis Muska na ten sam temat. Zmusił więc inżynierów Twittera do modyfikacji algorytmu tak, by działał na jego korzyść. W efekcie wszyscy, nawet ci, którzy nie obserwowali Muska, mieli serwowane jego treści.

Jestem “przeciw”, a nawet “za”

Co więcej, miliarder raczej nie zamierza schodzić z afisza. Kilka dni temu ogłosił, że zakłada firmę zajmującą się sztuczną inteligencją, stanowiącą konkurencję dla OpenAI, którą – nota bene – odpalił wspólnie z obecnym CEO OpenAI Sam’em Altmanem. Z tego biznesu wyszedł jednak w 2018 roku. 

Nowa firma Muska ma się nazywać się X.AI. Plotki na jej temat krążyły już od marca br., kiedy Musk kupił tysiące kart graficznych do zasilania nowego produktu. Wówczas zapytany o ten fakt, dementował pogłoski przekonując, że ostatnio wszyscy, a nawet i ich psy kupują karty graficzne. Tym samym chciał dać do zrozumienia, że tego rodzaju zakupy są tak normalne, jak zakupy w Biedronce.  

Nikogo oczywiście nie dziwi fakt dołączenia twórcy Tesli do wyścigu o monopol AI. Poza jednym szczegółem. Mniej więcej w tym samym czasie podpisał petycję o sześciomiesięczne zaprzestanie tworzenia modeli lepszych od ChatGPT-4. 

Musk był zresztą jednym z wielu ważnych sygnatariuszy tego dokumentu. Petycja została utworzona 22 marca bieżącego roku i jak do tej pory podpisało się pod nią przeszło 27 tys. osób. Dokument nawołuje do zaprzestania tworzenia systemów lepszych niż ChatGPT-4 na 6 miesięcy i postuluje skupienie się na wspólnym wypracowaniu odpowiednich procedur bezpieczeństwa. Nie oznacza to wcale, że badacze mają powiedzieć stop pracom nad wszystkimi systemami, a jedynie zaprzestać niebezpiecznego wyścigu tworzenia coraz to lepszych systemów, bez pełnego zrozumienia ich zdolności i konsekwencji.

(Nie)bezpieczna AI

Petycja, pod którą podpisał się m.in. Musk, odwołuje się do poprzedniej petycji, opublikowanej w 2017 r.. Podpisał ją między innymi nieżyjący już Stephen Hawking. Według tego dokumentu, prace nad AI powinny prowadzić do rozwiązania służącego ludzkości, a nie inteligencji nieukierunkowanej. Nie należy więc skupiać  się tylko na tworzeniu samych systemów, ale również na badaniu, jak mogą przysłużyć się ludzkości. Należy więc m.in., znaleźć odpowiedź na pytania, w jaki sposób zadbać o bezpieczeństwo systemów opartych na AI, czy, jak ulepszyć system prawny, by nadążał za rozwojem AI. 

Niestety nawet niedawno podpisana petycja spotkała się z dużą dozą sceptyzmu. Jak mówi James Grimmelmann, profesor cyfrowego prawa z Uniwersytety Cornell’a, robienie przerwy w wyścigu AI to dobry pomysł, ale sam dokument do tego nawołujący jest niejasny i nie bierze na poważnie problemów regulacyjnych. James Grimmelmann zwraca uwagę również na inny aspekt petycji – podpisanie jej przez Elona Muska, jest szczytem hipokryzji, biorąc pod uwagę fakt, że Tesla nie chciała przyjąć na siebie odpowiedzialności za wadliwe systemy AI w autopilotach samochodów.

Pauza, czy nie pauza

Sam problem sztucznej inteligencji jest tak złożony, jak słynny monolog Hamleta. Zatrzymać, czy też nie – o to jest pytanie. 

Z jednej strony, biorąc pod uwagę ostatnią historię ze zdjęciem papieża w kurtce Balenciagi i szerzący się deep fake oraz dezinformację, regulacje prawne są potrzebne. W przypadku sztucznie wygenerowanego zdjęcia papieża nikomu nie stała się krzywda. Niestety przypuszczam, że nie będziemy mogli tego samego powiedzieć o kolejnych podobnych zdjęciach, wygenerowanych w przyszłości. 

Z drugiej strony, znając ludzką naturę, której nie obce są konflikty, wielkie firmy nie zaprzestaną tworzenia coraz to lepszych systemów, bo będą się bały, że ktoś je prześcignie. 

W Mindgenicu wierzymy, że sztuczna inteligencja może być pomocnym narzędziem w walce samotnością, która zresztą jest ważnym problemem ludzkości. Uważamy również, że sami ponosimy odpowiedzialność za to, czego tego systemy się nauczą i jakie wartości im przekażemy. W końcu gdybym AI osiągnęła samoświadomość, to jesteśmy jej rodzicami. W takim razie postarajmy się być dobrymi rodzicami.