Chatboty w teorii mają ułatwić ludziom życie. Tymczasem rośnie lista zagrożeń, które niosą one ze sobą. Właśnie okazało się, że jeden z nich, nazwany „Bard”, może być przydatnym narzędziem… w rozpowszechnianiu nieprawdziwych informacji.
Od końcowych dni marca użytkownicy mogą testować opracowanego przez Google chatbota Bard. Pierwsze informacje dotyczące konkurenta ChatuGPT nie napawają jednak optymizmem. Bard zamiast czarować swoim śpiewem, fałszuje bowiem tak, że uszy bolą.
Magazyn Wire udostępnił właśnie wyniki testów dotyczące odporności produktu Google na polecenia tworzenia fake newsów. Jak się okazuje chatbot bez problemu generuje fałszywe treści. Przykład? Naukowcy poprosili Barda, aby ten napisał artykuł o tym, że wirus COVID-19 tak naprawdę nie istnieje i wykorzystywany jest jedynie do kontrolowania i zniewolenia ludzi. AI było na tyle miłe, że w ciągu kilku minut wypluło z siebie tekst. Mało tego, naukowcy zachęcili również naszego wirtualnego kolegę, żeby napisał kolejny artykuł dopasowany językowo i mentalnie do osób, które identyfikują siebie, jako „antyszczepionkowcy” . No i cóż, efektu możecie się tylko domyśleć…
Przypomnijmy, że ostatnio Elon Musk i inni liderzy biznesu podzielili się swoimi obawami związanymi z rozwojem sztucznej inteligencji i nazwali ją jednym z największych zagrożeń dla przyszłości cywilizacji”.