Przejdź do głównych treściPrzejdź do wyszukiwarkiPrzejdź do głównego menu
Reklama
Reklama KD Market

Sztuczna inteligencja zubaża ludzką komunikację i myślenie

Chatboty SI ujednolicają sposób, w jaki ludzie mówią, piszą i myślą. Skutkiem może być ograniczenie zbiorowej mądrości ludzkości oraz jej zdolności do adaptacji - ostrzegają naukowcy.
Sztuczna inteligencja zubaża ludzką komunikację i myślenie

Autor: Adobe Stock

Zdaniem autorów nowej pracy opublikowanej w piśmie „Trends in Cognitive Sciences” różnorodność poznawcza w grupach i społeczeństwach na świecie zaczyna maleć, ponieważ miliardy ludzi korzystają z tej samej niewielkiej liczby chatbotów SI do coraz większej liczby zadań.

Na przykład, gdy ludzie korzystają z chatbotów, aby dopracować swoje teksty, tracą one swoją stylistyczną indywidualność, a autorzy odczuwają mniejsze poczucie twórczości.

- Ludzie różnią się sposobem pisania, rozumowania i postrzegania świata. Gdy jednak te różnice są niwelowane przez te same duże modele językowe (LLM), odmienny styl językowy, perspektywa i strategie rozumowania ulegają ujednoliceniu, co prowadzi do powstawania znormalizowanych sposobów wyrażania się i myślenia u użytkowników - mówi Zhivar Sourati z University of Southern California.

Badacze podkreślają, że różnorodność poznawcza w grupach i społeczeństwach wzmacnia kreatywność oraz zdolność rozwiązywania problemów.

- Obawa nie dotyczy tylko tego, że LLM-y wpływają na to, jak ludzie piszą czy mówią, ale także tego, że subtelnie redefiniują to, co uznaje się za wiarygodną wypowiedź, właściwą perspektywę, a nawet dobre rozumowanie - ostrzega specjalista.

Naukowcy przywołują liczne badania wskazujące, że wyniki pracy LLM-ów są dużo mniej zróżnicowane niż twórczość człowieka, a jednocześnie odzwierciedlają język, wartości i style rozumowania społeczeństw zachodnich, wykształconych, uprzemysłowionych, zamożnych i demokratycznych. Na przykład opinie ludzi stają się zbliżone do wyrażanych przez SI, a ich myślenie bardziej liniowe, mniej intuicyjne i mniej abstrakcyjne.

Systemy SI wpływają też często na oczekiwania ludzi, co może zmieniać kierunek ich pracy.

- Ponieważ duże modele językowe (LLM) są trenowane tak, aby wychwytywać i odtwarzać statystyczne regularności w danych treningowych, które często nadmiernie reprezentują dominujące języki i ideologie, ich odpowiedzi często odzwierciedlają wąski i zniekształcony wycinek ludzkiego doświadczenia - mówi Sourati.

Naukowcy dodają, że skutki ponoszą wszyscy, nie tylko użytkownicy wspomnianych systemów.

- Jeśli wiele osób wokół mnie myśli i mówi w określony sposób, a ja robię to inaczej, będę odczuwać presję, by się do nich dostosować, ponieważ będzie to wyglądało na bardziej wiarygodny lub społecznie akceptowany sposób wyrażania moich idei - wyjaśnia badacz.

Według naukowców twórcy systemów SI powinni świadomie wprowadzać do swoich modeli różnorodność języka, perspektyw i sposobów rozumowania.

Zaznaczają przy tym, że powinna ona opierać się na rzeczywistej różnorodności istniejącej wśród ludzi na całym świecie, a nie na losowo wprowadzanych wariacjach.

- Gdyby duże modele językowe miały bardziej zróżnicowane podejście do idei i problemów, lepiej wspierałyby zbiorową inteligencję oraz zdolności naszych społeczeństw do rozwiązywania problemów - twierdzi Sourati.

- Musimy zwiększać różnorodność samych modeli SI, a także zmieniać sposób, w jaki z nimi współpracujemy, zwłaszcza biorąc pod uwagę ich powszechne zastosowanie w wielu zadaniach i kontekstach, aby chronić różnorodność poznawczą i potencjał twórczy przyszłych pokoleń – podsumowuje.

Marek Matacz (PAP)


Podziel się
Oceń

Reklama
Reklama
Reklama
Reklama