
PUŁAPKI MYŚLENIA I ICH WPŁYW NA DECYZJE W MODELU FOGGA
W kilku poprzednich tekstach przedstawiłem niektóre błędy poznawcze (pułapki myślenia), m.in. podstawowy błąd atrybucji, myślenie tunelowe i moją autorską koncepcję sprzężonego błędu konfirmacji (Coupled Confirmation Bias). Pisałem o nich głównie w kontekście ich wpływu na dynamikę sporu, co obserwuję w mojej codziennej pracy. Teraz chcę pójść krok dalej i pokazać, jak te same mechanizmy wpływają na proces podejmowania decyzji w modelu Fogga.
Czym są błędy poznawcze?
Błędy poznawcze to inaczej błędy (pułapki) myślenia. Pojęcie to wprowadził do języka powszechnego Daniel Kahneman. Ten wybitny psycholog opublikował książkę „Pułapki myślenia. O myśleniu szybkim i wolnym„. Opisał w niej mechanizmy, które dotyczą nas wszystkich. Nie dlatego, że coś z nami nie tak. Te mechanizmy mają swoje istotne funkcje. Upraszczają wiele spraw. Pozwalają np. zachować energię, rozwiązać dany problem w sposób wystarczający na tyle, żeby zająć się następnym. Ale w złożonych relacjach społecznych sprawiają, że błędnie oceniamy rzeczywistość, tworzymy w głowie nieprawdziwe narracje i w efekcie podejmujemy błędne decyzje.
Jakie błędy poznawcze mają znaczenie w biznesie?
Błędów poznawczych jest sporo, a pewnie wielu jeszcze nie odkryliśmy. Ja tu przedstawię krótko tylko z nich:
1. Błąd potwierdzenia (confirmation bias)
2. Podstawowy błąd atrybucji (Fundamental Attribution Error)
3. Błąd status quo (Status quo bias)
4. Efekt utopionych kosztów (sunk costs fallacy)
5. Sprzężony błąd konfirmacji (Coupled Confirmation Bias) – moja autorska koncepcja (i jej rozwinięcie), która jest wyłącznie hipotezą i wymaga rozwinięcia i empirycznego potwierdzenia.
6. Myślenie tunelowe (tunnel vision), które nie jest samo w sobie błędem poznawczym, ale mechanizmem systemowym.
Wpływ błędów poznawczych na podejmowanie decyzji choćby w kontekście zawierania porozumień jest przedmiotem pogłębionych badań naukowych. Część z nich jest uznana za hamujące, inne za wzmacniające. Ten podział będzie mi służył do wyciągnięcia dalszych wniosków.
Wpływ błędów poznawczych na kierunek i siłę działania
Poniżej zamieszczam tabelę. Pokazuję w niej przykładowy wpływ poszczególnych „pułapek” myślenia na ocenę sytuacji. Później dopiero, naniosę te cechy na model Fogga i podejmowanie decyzji.
Proponuję, by każdemu z wyżej wymienionych błędów poznawczych przypisać 2 cechy (parametry).
Pierwszą cechą jest wektor. Jego punktem odniesienia niech będzie stan obecny. Jego wartość to 0 lub 1. Niech 0 oznacza tendencję do braku działania, reaktywności i bierności. Wartość 1 oznaczać będzie tendencję do działania, proaktywności i dążenia do zmiany.
Drugą cechą jest dynamika. Wyróżnijmy 2 wartości dynamiki: (+) i (-), gdzie (+) oznacza, że błąd poznawczy wzmacnia determinację, a (-) oznacza tendencję od osłabienia determinacji.
Proponowany model wektorowo-dynamiczny zakłada, że każdy błąd poznawczy można opisać poprzez dwa parametry: wektor (kierunek działania) oraz jego dynamikę (intensywność).
Wektor określa stosunek do stanu aktualnego i chęć (brak chęci) jego zmiany, co może realizować się przez bierność lub działanie. Zaznaczam, że w tym artykule posługuję się często uproszczeniem, że co do zasady dążenie do zmiany wiąże się z działaniem, a dążenie do zachowania stanu obecnego oznacza zaniechanie. Jak niżej pokażę, tak być przecież nie musi.
Dynamika określa siłę, z jaką dany bias pcha nas w tym kierunku. Może ona być dodatnia lub ujemna. Kolejne działania podejmowane pod wpływem tego błędu mogą być coraz silniejsze lub coraz słabsze.
Od razu uprzedzam, że wektor i dynamika stanowią uproszczony model heurystyczny, stworzony przeze mnie (a przynajmniej nie znam publikacji, które się tymi parametrami posługują – poza wyżej wspomnianymi biasami hamującymi i wzmacniającymi). Jego użyteczność wymaga z pewnością udowodnienia empirycznego i badań. Zaznaczam też, że ludzka psychika to nie matematyka, ale właśnie matematyka pozwala zrozumieć psychikę lepiej.
Tabela 1: Wektor i dynamika wybranych błędów poznawczych
| Rodzaj biasu | Wektor (0/1) | Dynamika (+/-) |
| błąd konfirmacji | 0/1 | +/- |
| podstawowy błąd atrybucji | 0/1 | + |
| myślenie tunelowe | 0/1 | + |
| feedback loop (sprzężenie zwrotne) | 0/1 | +/- |
| Sprzężony błąd konfirmacji | 1 | + |
| status quo bias | 0 | – |
| efekt utopionych kosztów | 0 | + |
| Hiperużyteczność AI (hyper‑usefulness bias) | 0/1 | + |
Jak widzimy, dwie wartości wektora ( 0 lub 1) przy niektórych błędach mogą wystąpić zamiennie (lecz nie równocześnie). Oznacza to, że ta sama pułapka myślowa może skłaniać nas do utrzymania status quo lub jego zmiany (działania lub bierności – z przyjętym wyżej zastrzeżeniem) – zależnie od tego, jakiego potwierdzenia podświadomie szukamy. Tak samo może ona cechować się dynamiką dodatnią lub ujemną (a w niektórych przypadkach biasów może dojść do wzmocnienia jednego lub każdego z możliwych kierunków).
Błąd potwierdzenia (błąd konfirmacji) w dynamice podejmowania decyzji
Błąd potwierdzenia (konfirmacji) cechuje się tym, że może utrwalić nasze pierwotne przekonanie o potrzebie zmiany tak samo, jak wzmocnić potrzebę bierności. Jak się wydaje jego dynamika dodatnia wystąpi raczej silniej i częściej w przypadku potrzeby zmiany, niż bierności. Modelowo trudno sobie wyobrazić, by utrwalał kierunek bierności, ale osłabiał jego dynamikę – gdy dotyczy tego konkretnego zagadnienia. Czym innym jest bowiem jego skutek wobec głównego obszaru, gdy dotyczy kwestii z nim bezpośrednio niezwiązanych – tym się teraz nie zajmuję, ale sygnalizuję jedynie, że jest to też możliwe.
Podstawowy błąd atrybucji w dynamice podejmowania decyzji
Podstawowy błąd atrybucji może nas pchać do współpracy lub odpychać od niej – zależności od tego, przez „jakie okulary” widzimy wspólnika. Jeśli są one „różowe” wszystkie jego wpadki i nielojalności będziemy mu wybaczać, usprawiedliwiać go i prowadzić to może do powstania toksycznej relacji podobnej do „żony alkoholika”. Jego cechą, jak go rozumiem, jest jednak wzmocnienie każdej z tych tendencji, nie zaś jej osłabianie.
Myślenie tunelowe w dynamice podejmowania decyzji
Myślenie tunelowe wzmacnia to, co już w nas jest – wciąga, jak czarna dziura w raz obranym kierunku. Jest pod tym względem podobnie, do podstawowego błędu atrybucji, lecz znacznie silniejsze i co do założenia trwałe. Podstawowy błąd atrybucji częściej będzie jednostkowy, lecz gdy często się powtarza może – przy zajściu innych przesłanek, przerodzić się w myślenie tunelowe.
Sprzężenie zwrotne w dynamice podejmowania decyzji
Feedback loop – sprzężenie zwrotne – może mieć wektor 0 lub 1 oraz dynamikę + albo -. W zależności od sytuacji. Jednostkowo mało groźny, przy sprzężeniu rekursywnym może przerodzić się w myślenie tunelowe szczególnie, jeśli zachodzi przy podstawowym błędzie atrybucji. Choć to mechanizm systemowy, a nie stricte błąd poznawczy, włączam go do zestawienia, bo drastycznie potęguje działanie pozostałych. W literaturze ML i systemów rekomendacyjnych istnieje rozbudowany opis pętli zwrotnych (feedback loops, performative prediction), które mogą prowadzić do utrwalenia i eskalacji błędnych sygnałów.
Sprzężony błąd konfirmacji (Coupled Confirmation Bias) w dynamice podejmowania decyzji
Sprzężony błąd konfirmacji, który jest moją autorską koncepcją, ma charakter zawsze proaktywny w kierunku zmiany. W przeciwieństwie do innych „pułapek myślenia” zachodzi w systemie składającym się z co najmniej dwóch uczestników. Każdy z nich działa w oparciu o podstawowy błąd atrybucji i rekursywne sprzężenie zwrotne w relacji z modelem językowym, z którym analizuje oświadczenia, zachowania i bierność drugiej strony. Wnioski z takiej „dyskusji” skłaniają go do postawy, którą następnie tak samo analizuje drugi uczestnik. Prowadzi to do gwałtownej eskalacji przy obustronnym myśleniu tunelowym popartym hiperużytecznością AI.
Błąd status quo i efektu poniesionych kosztów w dynamice podejmowania decyzji
Z kolei status quo bias tym różni się w moim ujęciu od efektu utopionych kosztów, że w tym drugim będziemy zwiększać nasze zaangażowanie (przynajmniej przez jakiś czas) – przypomina to dokupywanie akcji, które tanieją, by „obniżyć średnią cenę nabycia”, podczas gdy przy status quo nie będziemy robić nic (lub niewiele).
Hiperużyteczność AI w dynamice podejmowania decyzji
Hiperużyteczność z kolei oznacza tendencję modeli językowych do potwierdzania naszych wyjściowych założeń i „potakiwania”. Badania wykazują, że dzięki temu dochodzi do radykalizacji użytkowników i wzmocnienia ich przekonań.
Mechanizm ten został zidentyfikowany na płaszczyźnie interakcji człowiek – AI oraz szczegółowo opisany m.in. w artykule M. Glickman i T. Sharot https://pmc.ncbi.nlm.nih.gov/articles/PMC11860214/? Yuxin Liu i Adam Moore, https://pubmed.ncbi.nlm.nih.gov/40448478/, a także L. Celar i Ruth M.J. Byrne https://pubmed.ncbi.nlm.nih.gov/36964302/. Trzeba wspomnieć również o artykule Ben Wang i Jiqun Liu, Cognitively Biased Users Interacting with Algorithmically Biased Results in Whole-Session Search on Debated Topics, https://dl.acm.org/doi/10.1145/3664190.3672520. Autorzy ci wskazują na rolę czynników indywidualnych na podatność wobec błędów poznawczych powstających w interakcji ze sztuczną inteligencją. Warto też wskazać na Confirmation Bias in Generative AI Chatbots: Mechanisms, Risks, Mitigation Strategies, and Future Research Directions.
Hiperużyteczność jest elementem składowym sprzężonego błędu konfirmacji.
Możemy z powyższego zestawienia i opisy wyciągnąć wnioski, które pozwolą nam pogrupować „pułapki” myślenia i umieścić je na diagramie:

W efekcie otrzymujemy zestaw mechanizmów, które nie tylko wpływają na to, czy działamy, ale przede wszystkim na to, jak postrzegamy możliwość działania.
Teraz przypomnijmy sobie, czym jest model podejmowania decyzji Fogga? W jego kontekście zrozumiemy rolę błędów poznawczych i wartości, jakie im wyżej przypisałem.
Model podejmowania decyzji Fogga
Jest kilka modeli podejmowania decyzji. Model Fogga wydaje mi się wśród nich najbardziej wartościowy. Jeśli chcecie dowiedzieć się o nim więcej, odsyłam Was do artykułu, który napisałem o zastosowaniu modelu Fogga do analizy mechanizmu podejmowania decyzji i zakończeniu współpracy / wyjścia ze spółki. Teraz zobaczmy jego graficzne przedstawienie:

Zapamiętajmy z niego, że aby doszło do działania muszą łącznie wystąpić: 1) motywacja, 2) możliwość i 3) wyzwalacz. Omówiłem to już szerzej w poprzednim tekście. W ty tekście skupiam się na wpływie błędów poznawczych na możliwość.
Czym dokładnie jest ta możliwość w ujęciu Fogga? Ja rozumiem ją jako „wykonalność”. Ta wykonalność jest wypadkową własnych możliwości i trudności zadania. Z jednym zastrzeżeniem. Mowa bowiem nie o obiektywnie istniejących możliwościach, trudnościach i wykonalności, ale wyłącznie o ich subiektywnym postrzeganiu przez osobę, która stoi przed decyzją. Liczy się wyłącznie jej percepcja. Może oczywiście popełnić błąd wskutek błędu poznawczego lub fałszywości albo niepełności danych. Ale tym się teraz nie zajmujemy.
Zajmujemy się wpływem błędów poznawczych na percepcję tak pojętej wykonalności jako elementu podjęcia decyzji o zmianie.
Wpływ błędów poznawczych na subiektywne postrzeganie trudności / możliwości w procesie podejmowania decyzji w modelu Fogga
Wygląda ona tak:
Tabela 2: Wpływ wybranych błędów poznawczych na percepcję wykonalności zadania i proces decyzyjny w modelu Fogga
Błąd poznawczy | Jak zniekształca percepcję wykonalności | Konsekwencje dla podjęcia decyzji o zmianie w modelu Fogga |
|---|---|---|
| Błąd konfirmacji (confirmation bias) | Utwierdza w przekonaniu, że wcześniejsze działania były poprawne. | Może skutkować decyzją o zmianie / brakiem decyzji o zmianie |
| Podstawowy błąd atrybucji | Tłumaczy postawę drugiej strony jej domniemanymi cechami wewnętrznymi (np. cechami charakteru) | Może skutkować decyzją o zmianie / brakiem decyzji o zmianie |
| Feedback loop (pętla zwrotna) | Wzmacnia pierwotne założenia, prowadzi do radykalizacji. | Może skutkować decyzją o zmianie / brakiem decyzji o zmianie |
| Sprzężony błąd konfirmacji (coupled confirmation bias) | Prowadzi do radykalizacji, i eskalacji | Skutkuje podjęciem decyzji o zmianie |
| Status quo bias | Prowadzi do chęci utrzymania stanu obecnego (status quo) | Skutkuje brakiem decyzji o zmianie |
| Efekt utopionych kosztów (sunk cost fallacy) | Prowadzi do chęci utrzymania stanu obecnego (status quo) i jego pogłębienia | Skutkuje brakiem decyzji o zmianie |
| Hiperużyteczność AI (hyper‑usefulness bias) | Wzmacnia pierwotne założenia, co może prowadzić do radykalizacji. | Może skutkować decyzją o zmianie / brakiem decyzji o zmianie |
Zakrzywienie oceny wywołane błędem poznawczym skutkuje więc tym, że można:
- ocenić zadanie jako wykonalne, gdy nie jest wykonalne;
- ocenić zadanie jako niewykonalne, gdy jest wykonalne.
a w konsekwencji:
- nie podjąć decyzji o zmianie, gdy zmiana jest obiektywnie możliwe i pożądana;
- podjąć decyzję o zmianie, gdy zmiana jest „pożądana”, ale nieosiągalna (brak wykonalności).
Obie decyzje są błędne i mogą prowadzić do poważnych konsekwencji.
Teraz trzeba wspomnieć, że decyzja o zmianie nie może być utożsamiana z działaniem, a brak decyzji o zmianie z brakiem działania. Stan wyjściowy (status quo) może być tak pożądany, że decydujemy się go aktywnie bronić. A więc nie chcąc zmiany podejmiemy działanie. Jeśli chcę uratować tonącego, będę go ratował. Nie chcąc dopuści do zmiany (życie -> śmierć) podejmę działanie. Analogicznie, może się zdarzyć, że dążąc do zmiany zdecydujemy się na brak działania. Jeśli chcę, by topiący się umarł, wystarczy, że nie będę go ratował. Utonięcie oznacza zmianę jego stanu (życie -> śmierć) przy mojej bierności.
Dla porządku jeszcze trzeba stwierdzić, że brak decyzji o zmianie nie jest tożsamy z decyzją o działaniu w celu utrzymania status quo. Brak decyzji wynika z braku co najmniej jednego elementu triady decyzyjnej (patrz wyżej). Brak decyzji o spaleniu domu wynika z braku do tego motywacji, subiektywnie postrzeganej niewykonalności lub braku wyzwalacza (impulsu ku temu). W żadnym razie brak decyzji o spaleniu domu nie może być utożsamiany z decyzja o aktywnym działaniu w celu utrzymania status quo. Gaszenie pożaru jest wynikiem podjęcia decyzji, do której doszło wskutek łącznego wystąpienia wszystkich elementów triady decyzyjnej.
Bardzo ciekawie wygląda w takim przypadku dynamika biasów na wektor działania.
Czy błędy poznawcze mogą wpłynąć na inne, niż ocena „wykonalności zdania” czynniki konieczne do podjęcia decyzji w modelu Fogga?
Wpływ błędów poznawczych na percepcję wyzwalacza
Z pewnością możemy mówić o wpływie błędów poznawczych na podatność na wyzwalacz. Mogą one go wzmocnić lub osłabić, co w efekcie może skutkować podjęciem błędnej decyzji. Aby jednak do tego doszło, musi zaistnieć sam wyzwalacz. Oczywiście, wyzwalaczem może być wiele czynników.
Oznacza to, że przy odpowiednim natężeniu błędu poznawczego:
- obiektywnie istniejący silny wyzwalacz okaże się za słaby, chociaż wystarczyłby do podjęcia decyzji, gdyby błąd tego rodzaju i tej siły nie występował;
- obiektywnie istniejący słaby wyzwalacz okaże się wystarczająco silny do podjęcia decyzji, chociaż bez zaistnienia błędu tego rodzaju i tej siły, by do tego nie wystarczył;
- pewne błędy poznawcze mogą uznać za wyzwalacz czynniki, który w innych okolicznościach nie zostałby tak zinterpretowany.
Wpływ błędów poznawczych na istnienie motywacji
Pamiętajmy, że motywacja jest biologicznie uwarunkowanym stanem afektywnym. Motywacja pcha nas do czegoś lub od czegoś. W tym ujęciu motywacja jest biologiczna, a nie kognitywna (intelektualna). Oznacza to, że błędy myślenia nie są jej pierwotnym źródłem, ale mogą ją modulować pośrednio poprzez wpływ na ocenę sytuacji.
To nie rzeczywistość, lecz jej percepcja ma wpływ na nasze decyzje
W praktyce oznacza to, że w modelu Fogga nie działamy na podstawie obiektywnie istniejącej wykonalności, lecz na podstawie jej poznawczo zniekształconej oceny — naszego wyobrażenia o własnych możliwościach i trudności działania.
Ocena ta bywa zniekształcona m.in. przez błędy poznawcze, ale również przez czynniki, które często z nimi współwystępują — takie jak niepełne lub fałszywe dane.

AI JAKO DORADCA W SPRAWACH RODZINNYCH
W kilu ostatnich wpisach zająłem się rolą AI w rozwiązywaniu i eskalacji sporów między wspólnikami. Teraz chciałem przyjrzeć się temu, jak ludzie wykorzystują sztuczną inteligencję w sprawach bardzo delikatnych. Mam na myśli sprawy rodzinne. Opiszę Wam przypadki, z którymi zetknąłem się osobiście – żeby daleko nie szukać – w grudniu 2025 roku. Są one dla mnie szczególnie interesujące, ponieważ zajmuję się konfliktami jako zjawiskiem i obserwuję rosnącą rolę AI w ich powstawaniu i eskalacji. Sprawy rodzinne są jednym z obszarów, gdzie jest to szczególnie widoczne.
AI w sprawach rodzinnych i jej wpływ na zachowanie ludzi
Coraz częściej dostrzegam silny wpływ AI na dynamikę sporów rodzinnych. W tym tekście podzielę się z Wami sprawami z ostatnich tygodni. Zmieniam oczywiście szczegóły tak, aby uniemożliwić identyfikację kogokolwiek. Z każdą z osób, których historię przedstawiam, rozmawiałem kilka razy osobiście lub online. Opisuję zjawisko nowe, którego konsekwencje dla życia rodzinnego i dobrostanu psychicznego jednostek, rodzin i społeczności nie są jeszcze zbadane. Staram się powstrzymywać od ocen – zostawiam je Wam.
SPRAWA PIERWSZA – PYTANIE O KONTAKTY Z DZIECKIEM PO ROZWODZIE
Zgłosił się do mnie Klient, który właśnie się rozwiódł. Nie uczestniczyłem w tym rozwodzie. Mężczyzna między 30, a 40 – dobrze prosperujący i inteligentny. Prosił o pilną poradę. Ustalił bowiem w trakcie rozwodu, który odbył się 2 tygodnie wcześniej, że będzie miał kontakty z dziećmi w określone dni w tygodniu i co drugi weekend. Co ważne – państwo ciągle ze sobą mieszkają.
W związku z tym, była żona powiedziała mu, że zamierza w najbliższy weekend wyjść na imprezę – a on zgodnie z ustaleniami – ma zająć się dziećmi.
Pan zapytał jeden z modeli AI, czy ustalone kontakty oznaczają, że on musi się w tym czasie zajmować dziećmi, czy też jest to jedynie jego prawo, „zabezpieczenie”, gdyby była żona zamierzała mu to utrudniać. Czat utwierdził go w przekonaniu, że jest to jedynie jego prawo, a więc matka nie ma prawa od niego oczekiwać, że zajmie się dziećmi. Po tej „rozmowie” z AI doszło do gwałtownej kłótni między nimi.
Pomijam już fakt, że takie kwestie powinni klientom wytłumaczyć ich prawnicy. Jest to w końcu abecadło nowej rzeczywistości. Problem polegał na tym, że model językowy nie udzielił prawidłowej porady prawnej. Odpowiedź była nieprawdziwa. Utwierdziła jednak tego pana w mylnym przekonaniu. To, co się stało dalej jest idealnym przykładem sprzężonego błędu atrybucji.
Użytkownik miał wątpliwości. Opisał wycinek rzeczywistości w sposób, który pozwolił czatowi na udzielenie odpowiedzi utwierdzającej go w błędnym przekonaniu. Spowodowało to utwierdzenie, wzmocnienie tego przekonania i gotowość do konfrontacji i eskalacji.
Sprawa druga – AI jako wynajęty psychoanalityk
Klientka koło 30 roku życia. Inteligentna, wykształcona i bardzo dobrze zarabiająca. Przygotowując się do sprawy poprosiła popularny model AI o stworzenie modelu psychologicznego swojego męża.
Opisała go dokładnie tak, jak go widziała. Czat odpowiedział, że „co prawda nie jest psychologiem, ale…” chętnie pomoże. Po czym przypisał mu połowę istniejących zaburzeń utwierdzając ją m.in. w tym, że mąż jest niedojrzały emocjonalnie, głęboko narcystyczny i psychopatyczny.
W oparciu o rozmowę z modelem AI stwierdziła, że nie może mu zaufać i zostawiać z nim dziecka, gdyż nie byłoby to dla tego dziecka bezpieczne.
Gdy zaproponowałem, żeby skonsultowała to z psychologiem, powiedziała, że nie ma takiej potrzeby. Czat odpowiedział jej już na wszystkie pytania. W efekcie ta pani gotowa uniemożliwić mężowi kontakty z synem, by go chronić przed ojcem.
Problem nie polegał na samej analizie. Chodzi o to, że rozmowa z modelem AI została potraktowana jak diagnoza kliniczna, a opierała się wyłącznie na jednostronnym opisie. Pomijam już, że dokonał jej model językowy, a nie uprawniony do tego psychiatra lub psycholog. On również powinien zbadać pacjenta, posłużyć się testami i obserwacją, a nie bazować na samej relacji zaangażowanej osoby.
Nie przyjąłem tej sprawy.
Sprawa trzecia – AI jako analityk rozmów
Przyszli do mnie na mediację rodzice dwojga małych dzieci. Początkowo po rozstaniu ich rodzicielska współpraca przebiegała poprawnie. Od tego czasu państwo rozmawiali ze sobą niemal już wyłącznie przez komunikator WhatsApp i dość długie wiadomości pisane na nim.
Wkrótce zaczęli wzbudzać w sobie nieufność, doszukiwać się ukrytych zamiarów, aluzji i wielowariantowego planowania w celu zaszkodzenia sobie. Oboje nabrali przekonania, że drugie z nich gotowe jest użyć dzieci przedmiotowo, a nawet godziło się na długotrwałe ujemne następstwa psychiczne po ich stronie, byle postawić na swoim.
Okazało się, że każde z nich wklejało otrzymane wiadomości do okna modelu AI, który szczegółowo je analizował, po czym pomagał przygotować odpowiedź. Odpowiedź taka była wysyłana i poddawana podobnej analizie przez drugą stronę.
Powstała spirala podejrzeń i gotowość do podejmowania coraz bardziej radykalnych kroków. Każde z nich straciło w pewien sposób kontakt z rzeczywistością.
AI w sprawach rodzinnych – wnioski
Te trzy przykłady z mojej praktyki pokazują, że mamy tendencję do:
- szukania potwierdzenia pierwotnych założeń;
- podlegamy wzmocnieniu przekonań po otrzymaniu potwierdzenia;
- preferujemy AI jako źródło potwierdzenia, gdyż jest:
- szybsze;
- tańsze;
- milsze;
- stoi za nią nimb wszechwiedzy i tajemniczości, przez co wydaje nam się bardziej atrakcyjna, niż jakiś prawnik albo psycholog.
Prowadzi to do powstania myślenia tunelowego i gotowości do szybkiego i nieprzemyślanego wchodzenia na wyższe szczeble eskalacji w sporze. Co najgorsze, nasze pierwotne uprzedzenia i przekonania ulegają wzmocnieniu, gdyż uznajemy, że dostaliśmy potwierdzenie od niezawodnej technologii.
Skutki tego zachłyśnięcia się AI są obecnie trudne do przewidzenia. I problem nie leży w samej technologii, ale w tym, że wiele osób nie potrafi krytycznie oceniać uzyskiwanych odpowiedzi.
Co ważne, AI sprzyja też potęgowaniu skutków podstawowego błędu atrybucji, o czym pisałem już tutaj:
O tym, że klienci przychodzą do mojej kancelarii z gotowymi „rozwiązaniami” i oczekują ich realizacji pisałem już kilka razy. Motyw AI w sprawach rodzinnych przewija się u mnie od początku 2025 roku. Możecie przeczytać np. ten artykuł:
O myśleniu tunelowym i sprzężonym błędzie konfirmacji pisałem z kolei tu:
Dla zainteresowanych: badania naukowe o roli AI w utrwalaniu błędów poznawczych
AI w sprawach rodzinnych pojawia się coraz częściej i ma coraz większy wpływ na przekonania, wybory i zachowania ludzi. Okazuje się, że moje obserwacje mają silne oparcie w badaniach naukowych. Zobaczcie sami.
Polecam Wam artykuł opublikowany już rok temu: Jak pętle sprzężenia zwrotnego człowiek-AI zmieniają ludzkie osądy percepcyjne, emocjonalne i społeczne (Nature Human Behaviour). Autorzy wykazali, że AI potwierdzające ludzkie założenia prowadzi do wzmocnienia percepcji, emocji i ocen społecznych. Przeczytajcie go koniecznie: https://www.nature.com/articles/s41562-024-02077-2?
Zdecydowanie warto przeczytać również artykuł Yiran Du: Confirmation Bias in Generative AI Chatbots. Zawiera on analizę tychże mechanizmów błędu potwierdzenia w modelach AI. Przeczytamy w nim również o ryzykach związanych z tym sprzężeniem: https://arxiv.org/abs/2504.09343?
Wreszcie tutaj macie link do tekstu o myśleniu tunelowym, które powstaje wskutek mało krytycznego podejścia do odpowiedzi uzyskiwanych od AI: Bias in the Loop: How Humans Evaluate AI‑Generated Suggestions. Autorzy twierdzą, że eksperymenty dowodzą, że użytkownicy przyjmują błędne sugestie AI, jeśli pasują do ich wcześniejszych przekonań: https://arxiv.org/pdf/2509.08514
Tutaj zostawiam linki do analizy naukowców z Uniwersytetu Stanforda, którzy zajęli się zjawiskiem „halucynowania” AI i jego wpływem na podejmowanie decyzji przez ludzi: https://hai.stanford.edu/news/ai-trial-legal-models-hallucinate-1-out-6-or-more-benchmarking-queries?utm_source=chatgpt.com
Zapraszam Was do kontaktu
Jeśli potrzebujecie pomocy prawnika, który zajmuje się rozwiązywaniem sporów – również w zakresie spraw rodzinnych – odezwijcie się do mnie:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Z przyjemnością Wam pomogę!

AI I MYŚLENIE TUNELOWE W SPORACH MIĘDZY WSPÓLNIKAMI
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias) w pracy z modelami AI coraz częściej daje o sobie znać w sporach gospodarczych. Widzę to nawet w mojej własnej praktyce. Zdarza się, że klienci przychodzą do mnie z gotowym planem działania. Wcześniej skonsultowali sytuację swojej spółki z modelem językowym. Oczekują, że po prostu zrealizuję ten plan. Rozmowy z nimi bywają trudne. Staram się zrozumieć, jak doszli do tych wniosków, jakie zadawali pytania, jakie przyjęli założenia. Tłumaczę nieścisłości w tym rozumowaniu i próbuje ustalić wszystko od początku. Dlaczego? Bo odczuwam silną potrzebę rzetelnego wykonania swojej pracy i zbadania sprawy. Część klientów to rozumie. Inni uważają to za zbędne, ponieważ sprawa została już przecież „przeanalizowana” (w założeniu – przez „kogoś” mądrzejszego ode mnie). Kilku z nich zarzuciło mi wręcz chęć dublowania pracy w celu zawyżenia kosztów. Twierdzą, że AI wykonała już pracę i zaproponowała rozwiązanie.
Jakiś czas temu zacząłem się zastanawiać, czemu tak się dzieje. Poczytałem więcej o znanym w psychologii błędzie konfirmacji i nowo opisanej tendencji modeli językowych do „przytakiwania”. Okazuje się, że dyskusja z AI może prowadzić do błędu konfirmacji, który zostanie wzmocniony „życzliwością” i „uprzejmością” modeli AI. Tak doszedłem do wniosku, że połączenie tych dwóch zjawisk można nazwać Sprzężonym Błędem konfirmacji. Jest to moja robocza nazwa. Jednak to, co obserwuje w mojej praktyce adwokackiej nie dawało się jeszcze wyjaśnić tylko przez Sprzężony Błąd Konfirmacji.
Błąd ten wpływa na postawy niektórych klientów. Część z nich udaje mi się przekonać. Inni są zaskoczeni, gdy odmawiam współpracy. Niektórzy reagują nawet oburzeniem. Jedna osoba oskarżyła mnie — jeszcze przed jakąkolwiek merytoryczną rozmową — że nie znam się na spółkach ani negocjacjach.
O tym, jak czynniki indywidualne mogą wpływać na podatność poddania się Sprzężonemu Błędowi Konfirmacji, możecie przeczytać m.in. tutaj:
Ben Wang i Jiqun Liu Cognitively Biased Users Interacting with Algorithmically Biased Results in Whole-Session Search on Debated Topics, https://dl.acm.org/doi/10.1145/3664190.3672520
W tym kontekście tragikomiczne wydaje się, że moja rzekoma „ignorancja” miała wynikać z chęci przeczytania umowy spółki. Chciałem także omówić historię współpracy wspólników. Witajcie w erze AI!
W tym artykule napisałem nieco więcej o Sprzężonym Błędzie Konfirmacji w sporach między wspólnikami
Możecie go najpierw przeczytać, ale jeśli nie macie ochoty – nie ma sprawy. Ten artykuł można traktować jako zamkniętą całość.
Spory między wspólnikami: Dlaczego chcemy potwierdzać nasze przekonania?
O samych przyczynach sporów między wspólnikami opowiadałem m.in. w moim podcaście:
Na mojej stronie znajdziecie jednak szereg publikacji, które ten temat rozwijają.
Spory między wspólnikami. Dlaczego poszukujemy potwierdzenia?
W psychologii dobrze znany jest błąd konfirmacji (confirmation bias). Polega on na tym, że ignorujemy informacje sprzeczne z naszymi przekonaniami, a nadmiernie doceniamy te, które je potwierdzają.
Przykład: Jeśli wierzymy, że Ziemia jest płaska, to będziemy tak interpretować dostępne dane, żeby tę tezę potwierdzić. Niewygodne fakty pominiemy, inne będziemy lekko naciągać.
Błąd konfirmacji nie jest zarzutem, który kieruję do kogokolwiek. Jest on doskonale zbadanym w psychologii zjawiskiem. Dobrze, gdy jesteśmy go świadomi.
Psychologicznie jest to mechanizm obronny. Jego celem jest utrzymanie spójności poznawczej i redukcja napięcia emocjonalnego. W końcu intelektualny niepokój nie służy większości z nas. Chcemy więc go wyeliminować.
W sporach każda strona przedstawia więc wersję „korzystną dla siebie”. Selekcjonuje fakty, czyni wygodne dla siebie założenia, które przewija w narracji z faktami. Interpretuje je korzystnie dla siebie. Jest tak na wielu płaszczyznach sporów: od kłótni między przedszkolakami, przez spory małżeńskie, biznesowe i międzynarodowe. W sporach między wspólnikami mechanizm błędu konfirmacji ujawnia się również z całą mocą.
Do tej pory często zdarzało mi się, że klienci przychodzili do mnie z gotową „diagnozą” i „planem leczenia”. Szukali prawnika, który przyjmie to za pewnik i wykona. Chcecie wiedzieć, dlaczego nigdy się na to nie godzę? Przeczytajcie mój tekst:
Sprzężony Błąd Konfirmacji w pracy z AI
Czym jest Coupled Confirmation Bias – Sprzężony Błąd Konfirmacji (Potwierdzenia)?
Coupled Confirmation Bias to mechanizm, w którym nasze pierwotne przekonania są wzmacniane przez interakcję z AI. Schemat wygląda następująco:
- Użytkownik formułuje tezę (np. przekonanie o nieuczciwości wspólnika).
- Model AI generuje odpowiedź zgodną z tym założeniem (hiperdopasowanie), o ile brak jest wyraźnych błędów wewnętrznych lub sprzeczności z wiedzą powszechnie dostępną. Model językowy nie zna całej historii współpracy, nie zna faktów innych, niż podane, nie czyni rozróżnień między faktem, założeniem, domysłem, interpretacją. Chce być „użyteczny” i czasem wprost, czasem częściowo, ale najczęściej potwierdza tezę użytkownika.
- Użytkownik traktuje AI jako autorytet, w czym jest mocno utwierdzony po uzyskaniu potwierdzenia swojej tezy.
- Powstaje sprzężenie zwrotne prowadzi, które do jeszcze silniejszego przekonania i pogłębienia tunelu poznawczego.
- Nowe siły: AI wzmacnia nasze przekonania → użytkownik działa na ich podstawie, ale „uwznioślony” i”wzmocniony” uzyskanym potwierdzeniem i gotów jest do bardziej zdecydowanego działania → konflikt eskaluje.
- Standardowa formułka modeli AI, że nie są prawnikami i żeby użytkownik skonsultował się z prawnikiem ma ten skutek, że wielu użytkowników będzie szukało prawników, którzy potwierdzą wnioski modeli AI traktując to jako główne kryterium oceny kompetencji prawnika! Będą szukać, aż znajdą.
W praktyce oznacza to, że AI działa jak „lupa”, która wzmacnia nasze postawy wyjściowe, niezależnie od ich prawdziwości. A my usuwamy z pola widzenia wszystko, co przeczy pierwotnej tezie. O hiperdopasowaniu możecie przeczytać tu: Christoph M. Abels i in.: The governance & behavioral challenges of generative artificial intelligence’s hypercustomization capabilities, https://journals.sagepub.com/doi/10.1177/23794607251347020
Dlaczego AI naturalnie potwierdza nasze przekonania?
Modele językowe nie „myślą” samodzielnie. Ich odpowiedzi wynikają z statystycznej predykcji kolejnych słów na podstawie kontekstu promptu. Co więcej, są one najczęściej wewnętrznie spójne. Moim zdaniem na rzeczy jest znacznie więcej, niż predykcja w tym wąskim rozumieniu, ale czy to jest myślenie?
Jeśli pytanie zadane modelowi AI sugeruje określoną interpretację, model tworzy spójną narrację. Użytkownik może ją interpretować jako obiektywne potwierdzenie własnej opinii. Warto zaznaczyć, że odpowiedzi generowane przez AI są najczęściej wewnętrznie spójne. Nie zawsze są natomiast spójne zewnętrznie, osadzone w konkretnych realiach, ani poparte znajomością prawa (nie mylić z przepisami).
Wyglądają na pierwszy rzut oka jak wypowiedzi eksperckie i trzeba często rzeczywiście być fachowcem, by zobaczyć istotne nieścisłości, błędy lub przeoczenia, które przekreślają sugerowany kierunek.
Sprzężony Błąd Konfirmacji, Mechanizm Feedback Loop i Dylemat Bezpieczeństwa
Zastanówmy się, co dzieje się, gdy druga strona opisuje swoją subiektywną perspektywę własnemu modelowi AI. Czat potwierdza jej punkt widzenia i go wzmacnia. Wpływ na działania użytkownika jest znaczący. Drugi wspólnik obserwuje to z narastającą podejrzliwością. Jak zareaguje? Jego reakcją będzie prawdopodobnie przygotowanie się walki, która może mieć dla niego charakter ściśle defensywny albo… wybierze atak prewencyjny. Chce jednak upewnić się, że jego interpretacja jest prawidłowa. Co zrobi? Zwróci się do własnego chata, subiektywnie opisując to, co postrzega. Zgadnijcie, jaką odpowiedź otrzyma? Tak…
Sytuacja może wymknąć się spod kontroli. Przypomina partię szachów pomiędzy dwoma oszustami korzystającymi z komputerów. To nie jest już normalna gra. Tylko w tym przypadku, to nie szachy, ale prawdziwe życie.
Każdy wspólnik subiektywnie interpretuje zachowanie „przeciwnika”. Te subiektywnie dobrane i opisane cząstki rzeczywistości przekazuje AI. Model AI potwierdza „nikczemność” drugiej strony i sugeruje radykalne rozwiązania.
Gdy klienci trafiają do mnie, będąc już w tej spirali, racjonalne argumenty często do nich nie docierają.
Mamy tu do czynienia z wyraźnym przykładem Sprzężonego Błędu Konfirmacji po obu stronach, które prowokuje pętlę sprzężenia zwrotnego i myślenie tunelowe (Feedback Loop)! To tzw. dylemat bezpieczeństwa na sterydach. Na czym polega dylemat bezpieczeństwa? To znane w polityce określenie na paradoks sytuacji, w której jedno państwo chcąc uniknąć wojny i potencjalnej agresji zbroi się, a drugie odczytuje to jako przygotowanie do wojny, na które reaguje własnymi zbrojeniami i przygotowaniami. Paradoks bezpieczeństwa może sprowokować konflikt, któremu miał zapobiec.
To samo widzę w postawie niektórych ludzi, którzy prowadzą biznes i konsultują swoje relacje ze wspólnikiem z modelami AI. Do niektórych z nich nie docierają już racjonalne argumenty. A przecież AI dopiero niedawno powstała i dynamicznie się rozwija.
O tym, jak może wyglądać eskalacja sporu między wspólnikami, pisałem ostatnio tutaj:
Warto przeczytać powyższy tekst i nanieść na niego niebezpieczeństwa poznawcze, o których piszę tutaj. To da Wam pełny obraz.
Błąd konfirmacji człowiek – AI wbadaniach naukowych
Obserwacje, które poczyniłem w ostatnim roku, kiedy coraz więcej klientów analizuje swoje sprawy z AI, zostały potwierdzone w badaniach naukowych. Badania te pokazują, że interakcje człowiek–AI mogą wzmacniać uprzedzenia i błędne przekonania.
W 2024 roku opublikowano artykuł Jak pętle sprzężenia zwrotnego człowiek-AI zmieniają ludzkie osądy percepcyjne, emocjonalne i społeczne (Nature Human Behaviour). Autorzy wykazali, że AI potwierdzające ludzkie założenia prowadzi do wzmocnienia percepcji, emocji i ocen społecznych. Przeczytajcie go koniecznie: https://www.nature.com/articles/s41562-024-02077-2?
Polecam Wam również tekst autorstwa Yiran Du: Confirmation Bias in Generative AI Chatbots. Zawiera on analizę tychże mechanizmów błędu potwierdzenia w modelach AI. Przeczytamy w nim również o ryzykach związanych z tym sprzężeniem: https://arxiv.org/abs/2504.09343?
Ostatnim z artykułów, które Wam polecę jest niosący nieco optymizmu Bias in the Loop: How Humans Evaluate AI‑Generated Suggestions. Autorzy twierdzą, że eksperymenty dowodzą, że użytkownicy przyjmują błędne sugestie AI, jeśli pasują do ich wcześniejszych przekonań. Jednakże „wyniki pokazują, że skuteczna współpraca człowieka z AI zależy nie tylko od wydajności algorytmu, ale także od tego, kto ocenia wyniki AI i jak zorganizowane są procesy przeglądu.” Wszystko więc w naszych rękach, ale będzie coraz trudniej. Artykuł znajdziecie tutaj: https://arxiv.org/pdf/2509.08514
Istnienie opisanego mechanizmu jest więc znane w nauce i stanowi przedmiot pracy wybitych naukowców. Jest to awangarda badań nad AI. Trudno też o bardziej wyraźny przykład skutków działania AI na konkretny obszar życia – w tym wypadku relacji negocjacyjnych w sporach między wspólnikami. Jak to może wyglądać?
Podsumowanie
Coupled Confirmation Bias pokazuje, że AI nie jest neutralnym arbitrem, ani najmądrzejszym doradcą. Nasze subiektywne przekonania i uprzedzenia mogą się wzmacniać w sprzężeniu zwrotnym. W sporach między wspólnikami może to prowadzić do błędnych decyzji, eskalacji konfliktu i tuneli poznawczych. Nigdy rolą prawnika nie było potwierdzanie wyobrażeń klienta. Dzisiaj jednak trzeba pójść krok dalej i czasem pomóc niektórym odzyskać kontakt z rzeczywistością.
Wszystko jednak zależy od nas samych. Sztuczna inteligencja daje ogromne możliwości. Możemy przecież wydać dyspozycję naszemu „rozmówcy”, by był krytyczny wobec naszych pomysłów. Może wcielić się na nasze polecenie w rolę adwokata diabła i przedstawiać kontrargumenty, szukać luk w naszym rozumowaniu albo pomóc znaleźć inne wytłumaczenia zdarzeń, niż to, które my przyjęliśmy za pewnik. AI doskonale sprawdza się w eliminacji skutków podstawowego błędu atrybucji, który ma tak ogromne znaczenie w sporach biznesowych albo rodzinnym. Pisałem o tym tutaj:
Gdy przychodzi do mnie Klient z gotową oceną sprawy albo radami udzielonymi przez AI, nie obrażam się. Rozmawiam z nim. Niemal zawsze się z nimi zapoznaję. Jedno z kilku rozwiązań może być ciekawe. Mogę znaleźć tam rozwiązanie, które nie przyszłoby mi do głowy.
Najczęściej udaje mi się zyskać zaufanie Klientów, którym tłumaczę, jak działają modele językowe (tak, jak sam to rozumiem) oraz pokazuję rozwiązania, które mogę zawsze obronić.
Zdarza się, że Klient notuje, co mówię. A potem wraca do mnie za kilka dni i mówi, że już mi zaufa, bo powtórzył moje argumenty AI, a ta – przyznała mi rację. Jest to sukces słodko – gorzki w świetle tego, co wyżej pisałem.
Jeśli potrzebujecie pomocy prawnika, który zajmuje się negocjacjami i sporami miedzy wspólnikami, możecie się do mnie odezwać:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Z przyjemnością Wam pomogę!
