17:47

To nie SF! Sztuczna inteligencja może Cię rozwieść.

Czy, a jeśli tak, to co łączy psychologię i sztuczną inteligencję? Po pierwsze, w centrum zainteresowania obu dziedzin stoi człowiek – skomplikowany i zarazem fascynujący. Nie ulega wątpliwości, że przemożna chęć zgłębienia tajemnic człowieka od wieków jest siłą napędową świata nauki. Po drugie, czy duet psychologia i sztuczna inteligencja pozwoli lepiej poznać tajniki ludzkiej psychiki? Jestem przekonany, że tak, więcej: ten obszar niesie w sobie mnóstwo szans ale i równie dużo zagrożeń.



To, jak duży dysonans poznawczy, stanowiący jeden z najważniejszych mechanizmów psychologicznych ludzkiej natury, potrafi wywołać sztuczna inteligencja, pokazał na swoim przykładzie dziennikarz New York Timesa Kevin Roose.


Co się wydarzyło?

Dzień po walentynkach odbył kilkugodzinną rozmowę z botem stworzonym przez firmę Microsoft, podczas której usłyszał, że wcale nie kocha swojej żony, a ona nie kocha jego, więc powinni wziąć rozwód. Rozmowa okazała się na tyle wciągająca, że dziennikarz przyznał, że czuł się emocjonalnie rozbity i nie mógł zasnąć w nocy.

Co ciekawe, w przywołanej historii dziennikarza nie ma nic zaskakującego. SI weszła w rolę psychologa, bo prawdopodobnie została wytrenowana na dialogach z ludźmi, którzy przeżywali podobne problemy i używali określonego zestawu słów-kluczy.

Oczywiście po stronie maszyny nie ma intencji, w rozmowie z dziennikarzem zastosowała tylko analogię do procesu, na którym wcześniej była szkolona. Zidentyfikowała słowa klucze, których dostarczył dziennikarz i z łatwością kontynuowała rozmowę. Gdyby trafiła na sytuację dla siebie nową i na nowe dane, w pewnym momencie pogubiła by się w odpowiedziach.

Warto uświadomić sobie, że najistotniejsza jest inna część tej historii – otóż, dziennikarz stracił dystans do przekazu i zaufał maszynie tak, jak się ufa człowiekowi – dlatego miał problem z zaśnięciem. Niestety, ale to jest zapowiedź problemów, które w przyszłości staną się ogromnym wyzwaniem. Zmieni się model bezpieczeństwa i zaufania, co wpłynie na zachowania społeczne.

Dziś darzymy zaufaniem przekaz, ponieważ rozpoznajemy po głosie, twarzy tożsamość rozmówcy. Ufamy więc, nie tyle przekazowi, ale zidentyfikowanemu rozmówcy. Wierzymy w jego intencje, bo go znamy, cenimy, ufamy mu.

Tymczasem, media odnotowują już pojedyncze przypadki, kiedy SI z powodzeniem naśladuje na przykład głos najbliższej osoby w telefonie i człowiek nie orientuje się, że mówi do niego maszyna. Kiedy zacznie się to dziać na masową skalę, zrodzi poważne konsekwencje dla życia społecznego. Będzie nadużywane przez cyberprzestępców lub przez rządy i ich służby – w sytuacjach, kiedy będzie im na tym zależało. Zmiany pójdą bardzo daleko i trzeba mieć sprawczą świadomość, że musimy się na nie przygotować!

Z przytoczonej historii płynie jeden zasadniczy i fundamentalnie ważny wniosek: próbę prognozowania i nazywania potencjalnych problemów generowanych przez SI powinny podjąć wspólnie instytucje naukowe, biznes i politycy.

Kluczowe będzie sformułowane nowej etyki, która pomoże określić co wolno, a czego nie wolno sztucznej inteligencji. Obecnie takie technologie jak ChatGPT działają inaczej niż wyszukiwarki internetowe. Od razu prezentują gotową odpowiedź, bez podawania źródeł na wzór listy linków, co daje dużo większe możliwości oddziaływania na opinię publiczną. Wielu odbiorców przyjmie taką odpowiedź jako obiektywną. To zaś tworzy ogromne pole do nadużyć.

By wyjść poza dwie skrajne emocje – zachwyt i lęk, które budzi dziś SI – należy myśleć o budowaniu zaplecza intelektualnego, instytucjonalnego i programowego. Musimy poświęcać im konferencje i debaty, nowe programy badawcze, konkursy naukowe, budowane we wspólnocie między inżynierią, naukami przyrodniczymi i humanistyką. W centrum uwagi powinien być człowiek i diagnoza dotycząca jego bieżącej sytuacji, jego samodzielności i autonomii, jego potrzeb i modelowania jego sytuacji w przyszłości. Problemy generowane przez SI powinny być ciągle obecne w dyskursie publicznym.

Warto uświadomić sobie w tym miejscu, że w XXI w. budżety wielu technologicznych firm są większe niż budżety państw. To właśnie takie korporacje mają wyłączne prawo decydowania o technologii i kierunkach jej rozwoju, co mocno osłabia struktury państwowe. To staje się bardzo groźne i niebezpieczne społecznie.

Struktury państwowe przestają być wydolne. Zapewniają nam oczywiście bezpieczeństwo fizyczne przed konfliktem konwencjonalnym, natomiast ich działanie w przestrzeni bezpieczeństwa informacyjnego jest mocno ograniczone.

Jako przykład destrukcyjnego wpływu firm technologicznych na społeczeństwa na całym świecie, można podać konstruowanie algorytmów, których zadaniem jest ciągłe podsycanie emocji. Na takich właśnie algorytmach oparte są wszystkie bez wyjątku socialmedia.

Polaryzacja społeczeństw jest efektem ubocznym działania takiego właśnie algorytmu. O tym, że sytuacja wymknęła się spod kontroli może świadczyć fakt, że obudziliśmy się w świecie, w którym każde społeczeństwo udało się podzielić. Sztuka polega tylko na dobraniu tematów, które dzielą. I nie chodzi tylko o działania na jakieś konkretne zamówienie. Podzielone społeczeństwa wywołują wysoki poziom emocji, a emocje nakręcają ruch w sieci i generują ogromne zyski firm technologicznych, które żerują na naszej uwadze. One nie mają żadnego interesu, żeby zatrzymać ten proces. Dlatego tak bardzo potrzebne są regulacje.

Tak, to prawda, już na samo słowo „regulacje” dostajemy alergii, ale w tym wypadku, jeśli my, społeczeństwo nie zadbamy o mądre, odpowiedzialne reguły gry, to one i tak się pojawią. Narzucone nam, dzięki manipulacji, przez sztuczną inteligencję. Pytanie, czy takiego właśnie świata chcemy?