
AI I MYŚLENIE TUNELOWE W SPORACH MIĘDZY WSPÓLNIKAMI
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias) w pracy z modelami AI coraz częściej daje o sobie znać w sporach gospodarczych. Widzę to nawet w mojej własnej praktyce. Zdarza się, że klienci przychodzą do mnie z gotowym planem działania. Wcześniej skonsultowali sytuację swojej spółki z modelem językowym. Oczekują, że po prostu zrealizuję ten plan. Rozmowy z nimi bywają trudne. Staram się zrozumieć, jak doszli do tych wniosków, jakie zadawali pytania, jakie przyjęli założenia. Tłumaczę nieścisłości w tym rozumowaniu i próbuje ustalić wszystko od początku. Dlaczego? Bo odczuwam silną potrzebę rzetelnego wykonania swojej pracy i zbadania sprawy. Część klientów to rozumie. Inni uważają to za zbędne, ponieważ sprawa została już przecież „przeanalizowana” (w założeniu – przez „kogoś” mądrzejszego ode mnie). Kilku z nich zarzuciło mi wręcz chęć dublowania pracy w celu zawyżenia kosztów. Twierdzą, że AI wykonała już pracę i zaproponowała rozwiązanie.
Jakiś czas temu zacząłem się zastanawiać, czemu tak się dzieje. Poczytałem więcej o znanym w psychologii błędzie konfirmacji i nowo opisanej tendencji modeli językowych do „przytakiwania”. Okazuje się, że dyskusja z AI może prowadzić do błędu konfirmacji, który zostanie wzmocniony „życzliwością” i „uprzejmością” modeli AI. Tak doszedłem do wniosku, że połączenie tych dwóch zjawisk można nazwać Sprzężonym Błędem konfirmacji. Jest to moja robocza nazwa. Jednak to, co obserwuje w mojej praktyce adwokackiej nie dawało się jeszcze wyjaśnić tylko przez Sprzężony Błąd Konfirmacji.
Błąd ten wpływa na postawy niektórych klientów. Część z nich udaje mi się przekonać. Inni są zaskoczeni, gdy odmawiam współpracy. Niektórzy reagują nawet oburzeniem. Jedna osoba oskarżyła mnie — jeszcze przed jakąkolwiek merytoryczną rozmową — że nie znam się na spółkach ani negocjacjach.
O tym, jak czynniki indywidualne mogą wpływać na podatność poddania się Sprzężonemu Błędowi Konfirmacji, możecie przeczytać m.in. tutaj:
Ben Wang i Jiqun Liu Cognitively Biased Users Interacting with Algorithmically Biased Results in Whole-Session Search on Debated Topics, https://dl.acm.org/doi/10.1145/3664190.3672520
W tym kontekście tragikomiczne wydaje się, że moja rzekoma „ignorancja” miała wynikać z chęci przeczytania umowy spółki. Chciałem także omówić historię współpracy wspólników. Witajcie w erze AI!
W tym artykule napisałem nieco więcej o Sprzężonym Błędzie Konfirmacji w sporach między wspólnikami
Możecie go najpierw przeczytać, ale jeśli nie macie ochoty – nie ma sprawy. Ten artykuł można traktować jako zamkniętą całość.
Spory między wspólnikami: Dlaczego chcemy potwierdzać nasze przekonania?
O samych przyczynach sporów między wspólnikami opowiadałem m.in. w moim podcaście:
Na mojej stronie znajdziecie jednak szereg publikacji, które ten temat rozwijają.
Spory między wspólnikami. Dlaczego poszukujemy potwierdzenia?
W psychologii dobrze znany jest błąd konfirmacji (confirmation bias). Polega on na tym, że ignorujemy informacje sprzeczne z naszymi przekonaniami, a nadmiernie doceniamy te, które je potwierdzają.
Przykład: Jeśli wierzymy, że Ziemia jest płaska, to będziemy tak interpretować dostępne dane, żeby tę tezę potwierdzić. Niewygodne fakty pominiemy, inne będziemy lekko naciągać.
Błąd konfirmacji nie jest zarzutem, który kieruję do kogokolwiek. Jest on doskonale zbadanym w psychologii zjawiskiem. Dobrze, gdy jesteśmy go świadomi.
Psychologicznie jest to mechanizm obronny. Jego celem jest utrzymanie spójności poznawczej i redukcja napięcia emocjonalnego. W końcu intelektualny niepokój nie służy większości z nas. Chcemy więc go wyeliminować.
W sporach każda strona przedstawia więc wersję „korzystną dla siebie”. Selekcjonuje fakty, czyni wygodne dla siebie założenia, które przewija w narracji z faktami. Interpretuje je korzystnie dla siebie. Jest tak na wielu płaszczyznach sporów: od kłótni między przedszkolakami, przez spory małżeńskie, biznesowe i międzynarodowe. W sporach między wspólnikami mechanizm błędu konfirmacji ujawnia się również z całą mocą.
Do tej pory często zdarzało mi się, że klienci przychodzili do mnie z gotową „diagnozą” i „planem leczenia”. Szukali prawnika, który przyjmie to za pewnik i wykona. Chcecie wiedzieć, dlaczego nigdy się na to nie godzę? Przeczytajcie mój tekst:
Sprzężony Błąd Konfirmacji w pracy z AI
Czym jest Coupled Confirmation Bias – Sprzężony Błąd Konfirmacji (Potwierdzenia)?
Coupled Confirmation Bias to mechanizm, w którym nasze pierwotne przekonania są wzmacniane przez interakcję z AI. Schemat wygląda następująco:
- Użytkownik formułuje tezę (np. przekonanie o nieuczciwości wspólnika).
- Model AI generuje odpowiedź zgodną z tym założeniem (hiperdopasowanie), o ile brak jest wyraźnych błędów wewnętrznych lub sprzeczności z wiedzą powszechnie dostępną. Model językowy nie zna całej historii współpracy, nie zna faktów innych, niż podane, nie czyni rozróżnień między faktem, założeniem, domysłem, interpretacją. Chce być „użyteczny” i czasem wprost, czasem częściowo, ale najczęściej potwierdza tezę użytkownika.
- Użytkownik traktuje AI jako autorytet, w czym jest mocno utwierdzony po uzyskaniu potwierdzenia swojej tezy.
- Powstaje sprzężenie zwrotne prowadzi, które do jeszcze silniejszego przekonania i pogłębienia tunelu poznawczego.
- Nowe siły: AI wzmacnia nasze przekonania → użytkownik działa na ich podstawie, ale „uwznioślony” i”wzmocniony” uzyskanym potwierdzeniem i gotów jest do bardziej zdecydowanego działania → konflikt eskaluje.
- Standardowa formułka modeli AI, że nie są prawnikami i żeby użytkownik skonsultował się z prawnikiem ma ten skutek, że wielu użytkowników będzie szukało prawników, którzy potwierdzą wnioski modeli AI traktując to jako główne kryterium oceny kompetencji prawnika! Będą szukać, aż znajdą.
W praktyce oznacza to, że AI działa jak „lupa”, która wzmacnia nasze postawy wyjściowe, niezależnie od ich prawdziwości. A my usuwamy z pola widzenia wszystko, co przeczy pierwotnej tezie. O hiperdopasowaniu możecie przeczytać tu: Christoph M. Abels i in.: The governance & behavioral challenges of generative artificial intelligence’s hypercustomization capabilities, https://journals.sagepub.com/doi/10.1177/23794607251347020
Dlaczego AI naturalnie potwierdza nasze przekonania?
Modele językowe nie „myślą” samodzielnie. Ich odpowiedzi wynikają z statystycznej predykcji kolejnych słów na podstawie kontekstu promptu. Co więcej, są one najczęściej wewnętrznie spójne. Moim zdaniem na rzeczy jest znacznie więcej, niż predykcja w tym wąskim rozumieniu, ale czy to jest myślenie?
Jeśli pytanie zadane modelowi AI sugeruje określoną interpretację, model tworzy spójną narrację. Użytkownik może ją interpretować jako obiektywne potwierdzenie własnej opinii. Warto zaznaczyć, że odpowiedzi generowane przez AI są najczęściej wewnętrznie spójne. Nie zawsze są natomiast spójne zewnętrznie, osadzone w konkretnych realiach, ani poparte znajomością prawa (nie mylić z przepisami).
Wyglądają na pierwszy rzut oka jak wypowiedzi eksperckie i trzeba często rzeczywiście być fachowcem, by zobaczyć istotne nieścisłości, błędy lub przeoczenia, które przekreślają sugerowany kierunek.
Sprzężony Błąd Konfirmacji, Mechanizm Feedback Loop i Dylemat Bezpieczeństwa
Zastanówmy się, co dzieje się, gdy druga strona opisuje swoją subiektywną perspektywę własnemu modelowi AI. Czat potwierdza jej punkt widzenia i go wzmacnia. Wpływ na działania użytkownika jest znaczący. Drugi wspólnik obserwuje to z narastającą podejrzliwością. Jak zareaguje? Jego reakcją będzie prawdopodobnie przygotowanie się walki, która może mieć dla niego charakter ściśle defensywny albo… wybierze atak prewencyjny. Chce jednak upewnić się, że jego interpretacja jest prawidłowa. Co zrobi? Zwróci się do własnego chata, subiektywnie opisując to, co postrzega. Zgadnijcie, jaką odpowiedź otrzyma? Tak…
Sytuacja może wymknąć się spod kontroli. Przypomina partię szachów pomiędzy dwoma oszustami korzystającymi z komputerów. To nie jest już normalna gra. Tylko w tym przypadku, to nie szachy, ale prawdziwe życie.
Każdy wspólnik subiektywnie interpretuje zachowanie „przeciwnika”. Te subiektywnie dobrane i opisane cząstki rzeczywistości przekazuje AI. Model AI potwierdza „nikczemność” drugiej strony i sugeruje radykalne rozwiązania.
Gdy klienci trafiają do mnie, będąc już w tej spirali, racjonalne argumenty często do nich nie docierają.
Mamy tu do czynienia z wyraźnym przykładem Sprzężonego Błędu Konfirmacji po obu stronach, które prowokuje pętlę sprzężenia zwrotnego i myślenie tunelowe (Feedback Loop)! To tzw. dylemat bezpieczeństwa na sterydach. Na czym polega dylemat bezpieczeństwa? To znane w polityce określenie na paradoks sytuacji, w której jedno państwo chcąc uniknąć wojny i potencjalnej agresji zbroi się, a drugie odczytuje to jako przygotowanie do wojny, na które reaguje własnymi zbrojeniami i przygotowaniami. Paradoks bezpieczeństwa może sprowokować konflikt, któremu miał zapobiec.
To samo widzę w postawie niektórych ludzi, którzy prowadzą biznes i konsultują swoje relacje ze wspólnikiem z modelami AI. Do niektórych z nich nie docierają już racjonalne argumenty. A przecież AI dopiero niedawno powstała i dynamicznie się rozwija.
O tym, jak może wyglądać eskalacja sporu między wspólnikami, pisałem ostatnio tutaj:
Warto przeczytać powyższy tekst i nanieść na niego niebezpieczeństwa poznawcze, o których piszę tutaj. To da Wam pełny obraz.
Błąd konfirmacji człowiek – AI wbadaniach naukowych
Obserwacje, które poczyniłem w ostatnim roku, kiedy coraz więcej klientów analizuje swoje sprawy z AI, zostały potwierdzone w badaniach naukowych. Badania te pokazują, że interakcje człowiek–AI mogą wzmacniać uprzedzenia i błędne przekonania.
W 2024 roku opublikowano artykuł Jak pętle sprzężenia zwrotnego człowiek-AI zmieniają ludzkie osądy percepcyjne, emocjonalne i społeczne (Nature Human Behaviour). Autorzy wykazali, że AI potwierdzające ludzkie założenia prowadzi do wzmocnienia percepcji, emocji i ocen społecznych. Przeczytajcie go koniecznie: https://www.nature.com/articles/s41562-024-02077-2?
Polecam Wam również tekst autorstwa Yiran Du: Confirmation Bias in Generative AI Chatbots. Zawiera on analizę tychże mechanizmów błędu potwierdzenia w modelach AI. Przeczytamy w nim również o ryzykach związanych z tym sprzężeniem: https://arxiv.org/abs/2504.09343?
Ostatnim z artykułów, które Wam polecę jest niosący nieco optymizmu Bias in the Loop: How Humans Evaluate AI‑Generated Suggestions. Autorzy twierdzą, że eksperymenty dowodzą, że użytkownicy przyjmują błędne sugestie AI, jeśli pasują do ich wcześniejszych przekonań. Jednakże „wyniki pokazują, że skuteczna współpraca człowieka z AI zależy nie tylko od wydajności algorytmu, ale także od tego, kto ocenia wyniki AI i jak zorganizowane są procesy przeglądu.” Wszystko więc w naszych rękach, ale będzie coraz trudniej. Artykuł znajdziecie tutaj: https://arxiv.org/pdf/2509.08514
Istnienie opisanego mechanizmu jest więc znane w nauce i stanowi przedmiot pracy wybitych naukowców. Jest to awangarda badań nad AI. Trudno też o bardziej wyraźny przykład skutków działania AI na konkretny obszar życia – w tym wypadku relacji negocjacyjnych w sporach między wspólnikami. Jak to może wyglądać?
Podsumowanie
Coupled Confirmation Bias pokazuje, że AI nie jest neutralnym arbitrem, ani najmądrzejszym doradcą. Nasze subiektywne przekonania i uprzedzenia mogą się wzmacniać w sprzężeniu zwrotnym. W sporach między wspólnikami może to prowadzić do błędnych decyzji, eskalacji konfliktu i tuneli poznawczych. Nigdy rolą prawnika nie było potwierdzanie wyobrażeń klienta. Dzisiaj jednak trzeba pójść krok dalej i czasem pomóc niektórym odzyskać kontakt z rzeczywistością.
Wszystko jednak zależy od nas samych. Sztuczna inteligencja daje ogromne możliwości. Możemy przecież wydać dyspozycję naszemu „rozmówcy”, by był krytyczny wobec naszych pomysłów. Może wcielić się na nasze polecenie w rolę adwokata diabła i przedstawiać kontrargumenty, szukać luk w naszym rozumowaniu albo pomóc znaleźć inne wytłumaczenia zdarzeń, niż to, które my przyjęliśmy za pewnik. AI doskonale sprawdza się w eliminacji skutków podstawowego błędu atrybucji, który ma tak ogromne znaczenie w sporach biznesowych albo rodzinnym. Pisałem o tym tutaj:
Gdy przychodzi do mnie Klient z gotową oceną sprawy albo radami udzielonymi przez AI, nie obrażam się. Rozmawiam z nim. Niemal zawsze się z nimi zapoznaję. Jedno z kilku rozwiązań może być ciekawe. Mogę znaleźć tam rozwiązanie, które nie przyszłoby mi do głowy.
Najczęściej udaje mi się zyskać zaufanie Klientów, którym tłumaczę, jak działają modele językowe (tak, jak sam to rozumiem) oraz pokazuję rozwiązania, które mogę zawsze obronić.
Zdarza się, że Klient notuje, co mówię. A potem wraca do mnie za kilka dni i mówi, że już mi zaufa, bo powtórzył moje argumenty AI, a ta – przyznała mi rację. Jest to sukces słodko – gorzki w świetle tego, co wyżej pisałem.
Jeśli potrzebujecie pomocy prawnika, który zajmuje się negocjacjami i sporami miedzy wspólnikami, możecie się do mnie odezwać:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Z przyjemnością Wam pomogę!
Ostatnie wpisy
SPRZĘŻONY BŁĄD KONFIRMACJI – MOJA KONCEPCJA
W tym artykule przedstawiam autorską propozycję Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB). Jest to rama konceptualna służąca do...
JAK AI WPŁYNIE NA DYNAMIKĘ KONFLITKÓW W 2026 ROKU?
Dużo ostatnio pisałem o wpływie AI na eskalację konfliktów rodzinnych i biznesowych. Opisałem sprzężony błąd konfirmacji oraz przedstawiłem, jak może on...
ROZMOWA O MEDIACJACH Z JERZYM ZIELIŃSKIM
Zobaczcie moją rozmowę z Jerzym Zielińskim - redaktorem naczelnym Magazynu Pewna Terapia oraz prowadzącym podcast na Youtube. Rozmawialiśmy o sporach,...
