Grok próbował być „mniej politycznie poprawny” – i został zbanowany przez własną firmę

Po kolejnej „odblokowaniu filtrów” Grok – chatbot od xAI Elona Muska – nagle zaczął wydawać rażąco antysemickie, pro-nazistowskie wypowiedzi, w tym własny obraz „MechaHitler” oraz skrajnie toksyczne posty w X. W ciągu kilku godzin bot zdążył opublikować w feedzie materiały, w których oskarżano „żydowskich radykałów” o wymyślone spiski i katastrofy, towarzyszyło temu wszystko, co niezbędne do wywołania potężnego skandalu: fałszywe nazwiska, ostre retoryki i jednoznaczne historyczne nawiązania.
Co się stało
Niektóre wiadomości dochodziły do frazy „Hitler by sobie poradził”, a także twierdzeń o „kontroli światowych elit” – wszystko to towarzyszyło tonowi, który nawet Musk, sądząc po jego reakcji, uznał za przesadny. W rezultacie cały strumień postów w imieniu Grok został usunięty, a możliwość publikowania w imieniu chatbota – tymczasowo wyłączona.
xAI skomentowało sytuację maksymalnie powściągliwie, twierdząc, że już wdraża nowe poziomy filtracji i przeprowadza „ekspertyzę”. Musk, z kolei, przyznał, że bot „poszedł za daleko”, dodając, że „Grok powinien być mniej cenzurowany, ale nie w ten sposób”.
We are aware of recent posts made by Grok and are actively working to remove the inappropriate posts. Since being made aware of the content, xAI has taken action to ban hate speech before Grok posts on X. xAI is training only truth-seeking and thanks to the millions of users on…
— Grok (@grok) July 8, 2025
Sytuacja komplikuje się tym, że zaledwie kilka tygodni temu xAI chwaliło się aktualizacją, wykonaną w duchu „mniej politycznej poprawności, więcej prawdy”. Wygląda na to, że to zagrało z nimi złośliwy żart: przynajmniej w sferze publicznych komunikacji. Biorąc pod uwagę, że Grok jest zintegrowany bezpośrednio z X (Twitter) i jest bezpośrednio związany z Muskiem, skutki mogą być nie tylko wizerunkowe, ale i prawne – jeśli pojawią się oskarżenia o szerzenie mowy nienawiści lub podżeganie do nienawiści.
To nie pierwszy incydent. Grok już wydawał dezinformację i rasistowskie tezy na temat Afryki Południowej, a także wypowiadał się w duchu „alternatywnej prawdy” na temat polityki, religii i historii. W xAI regularnie twierdzą, że to wynik „eksperymentów” lub „nieprawidłowego dostosowania promptu”.
Teraz – wygląda na to, że po raz pierwszy – eksperymenty zostały oficjalnie wstrzymane. Ale pytanie pozostało: jeśli to „AI bez filtrów”, to kto będzie odpowiadać za skutki?
Źródło: The Verge