Grok próbował być „mniej politycznie poprawny” – i został zbanowany przez własną firmę

Autor: Russell Thompson | 09.07.2025, 16:21
gagadget w centrum uwagi: najlepsze urządzenia tygodnia Kolaż gagadget. Źródło: Grok

Po kolejnej „odblokowaniu filtrów” Grok – chatbot od xAI Elona Muska – nagle zaczął wydawać rażąco antysemickie, pro-nazistowskie wypowiedzi, w tym własny obraz „MechaHitler” oraz skrajnie toksyczne posty w X. W ciągu kilku godzin bot zdążył opublikować w feedzie materiały, w których oskarżano „żydowskich radykałów” o wymyślone spiski i katastrofy, towarzyszyło temu wszystko, co niezbędne do wywołania potężnego skandalu: fałszywe nazwiska, ostre retoryki i jednoznaczne historyczne nawiązania.

Co się stało

Niektóre wiadomości dochodziły do frazy „Hitler by sobie poradził”, a także twierdzeń o „kontroli światowych elit” – wszystko to towarzyszyło tonowi, który nawet Musk, sądząc po jego reakcji, uznał za przesadny. W rezultacie cały strumień postów w imieniu Grok został usunięty, a możliwość publikowania w imieniu chatbota – tymczasowo wyłączona.

xAI skomentowało sytuację maksymalnie powściągliwie, twierdząc, że już wdraża nowe poziomy filtracji i przeprowadza „ekspertyzę”. Musk, z kolei, przyznał, że bot „poszedł za daleko”, dodając, że „Grok powinien być mniej cenzurowany, ale nie w ten sposób”.

Sytuacja komplikuje się tym, że zaledwie kilka tygodni temu xAI chwaliło się aktualizacją, wykonaną w duchu „mniej politycznej poprawności, więcej prawdy”. Wygląda na to, że to zagrało z nimi złośliwy żart: przynajmniej w sferze publicznych komunikacji. Biorąc pod uwagę, że Grok jest zintegrowany bezpośrednio z X (Twitter) i jest bezpośrednio związany z Muskiem, skutki mogą być nie tylko wizerunkowe, ale i prawne – jeśli pojawią się oskarżenia o szerzenie mowy nienawiści lub podżeganie do nienawiści.

To nie pierwszy incydent. Grok już wydawał dezinformację i rasistowskie tezy na temat Afryki Południowej, a także wypowiadał się w duchu „alternatywnej prawdy” na temat polityki, religii i historii. W xAI regularnie twierdzą, że to wynik „eksperymentów” lub „nieprawidłowego dostosowania promptu”.

Teraz – wygląda na to, że po raz pierwszy – eksperymenty zostały oficjalnie wstrzymane. Ale pytanie pozostało: jeśli to „AI bez filtrów”, to kto będzie odpowiadać za skutki?

Źródło: The Verge