
SPRZĘŻONY BŁĄD KONFIRMACJI – MOJA KONCEPCJA
W tym artykule przedstawiam autorską propozycję Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB). Jest to rama konceptualna służąca do analizy eskalacji konfliktów w sytuacjach, w których obie strony sporu niezależnie korzystają z systemów AI do interpretowania konfliktu i uzasadniania własnych stanowisk. W przeciwieństwie do klasycznego błędu konfirmacji, który działa na poziomie jednostki, CCB opisuje mechanizm systemowy, w którym wzajemnie wzmacniające się narracje prowadzą do zawężenia przestrzeni negocjacyjnej i zwiększenia prawdopodobieństwa eskalacji. Artykuł identyfikuje warunki aktywacji tego mechanizmu, jego typowe konsekwencje oraz granice jego zastosowania. Celem tekstu nie jest przedstawienie w pełni zweryfikowanej teorii. Jest nim postawienie hipotezy istnienia powtarzalnego mechanizmu obserwowanego we współczesnych konfliktach. Ich wspólną cechą jest to, że modele AI są wykorzystywane jako narzędzia analityczne wspierające podejmowanie decyzji.
1. Wprowadzenie: kiedy racjonalne narzędzia wzmacniają nieracjonalne skutki?
Sprzężony błąd konfirmacji – z czego wynika? Ludzie coraz częściej korzystają z AI. Służy im ona do oceny istniejących relacji zarówno przed powstaniem / uświadomieniem konfliktu, jak i w jego trakcie. Korzystają z AI do oceny ryzyka, tworzenia strategii oraz uzasadniania proponowanych działań. Modele sztucznej inteligencji służą coraz częściej również do analizy wypowiedzi i działań niewerbalnych drugiej strony. Modele AI są powszechnie postrzegane jako autorytet, a ich rady jako neutralne, obiektywne i wolne od zaangażowania emocjonalnego. Paradoksalnie jednak, jak zaobserwowałem, używanie modeli językowych często koreluje z szybszą eskalacją konfliktu, usztywnieniem stanowisk oraz przedwczesnym zerwaniem negocjacji. Wydaje się, że nie jest to koincydencja.
W artykule tym stawiam tezę, że zjawiska te nie mogą być w wystarczający sposób wyjaśnione wyłącznie poprzez indywidualne błędy poznawcze. Nie dadzą się wyjaśnić ani przez zwykły błąd konfirmacji, ani podstawowy błąd atrybucji.
Zamiast tego zakładam istnienie mechanizmu systemowego – Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB). Ujawnia się on w sytuacjach, gdy strony konfliktu niezależnie korzystają z narzędzi AI jako źródła autorytatywnej interpretacji sporu: czynników zewnętrznych, działań faktycznych oraz deklaracji drugiej strony, domysłów w zakresie jej prawdziwych intencji, akceptowalnego ryzyka, kosztów, jakie jest gotowa ponieść i faktycznych tzw. „czerwonych linii”, tj. punktów krytycznych, których w żadnym razie nie pozwoli przekroczyć. Oczywiście, nie wszystkie te elementy muszą być poddane analizie z pomocą AI. Tak samo nie muszą być poddane takiej analizie w tym samym czasie. Co ważne, również każda ze stron może analizować inny element lub zestaw elementów. Wreszcie, każda ze stron może korzystać z modeli innego rodzaju, innego stopnia rozwoju technicznego i innego poziomu zintegrowanej interakcji z użytkownikiem.
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) wywoła skutek tym silniejszy, im więcej razy strony poddadzą analizie sygnały płynące od drugiej strony, jeśli na treść, formę lub czas tych sygnałów miała uprzednio wpływ praca z AI poczyniona przez drugą stronę. Mamy więc do czynienia nie z błędem jednorazowym, ale ze spiralą błędów, z których poprzedni stanowi „paliwo” dla następnego i potencjalne go wzmacnia. Można to obrazowo przyrównać do wymiany w ping-pongu, w której po każdym uderzeniu piłka uzyskuje energię równą dotychczasowej energii kinetycznej i energii nowego uderzenia.
Zakładam również, że Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) wyglądał będzie podobnie na różnych płaszczyznach konfliktów: od sporów jednostek, przez ich grupy, do państw i ich bloków. Wniosek taki wyprowadzam z badań ogólnych nad naturą konfliktu.
Wyraźnie zaznaczam, że nie uważam, aby wpływ AI na eskalację konfliktów miał mieć charakter deterministyczny. Zakładam raczej istnienie tendencji, wpływu. Co więcej, świadomość tego mechanizmu, tak jak go rozumiem, może paradoksalnie doprowadzić do zatrzymania eskalacji, gdy strony zdadzą sobie sprawę z tego, że są pod jego wpływem.
2. Aktualny stan badań
Mechanizm równowagi między stronami został opisany w różnych pracach przez J. Nasha, a strategia konfliktu przez T. Schellinga („Strategia konflitku”). Struktura konfliktu, którą przyjmuję, znajduje się w książce Ch. Moore’a: „Mediacje. Praktyczne strategie rozwiązywania konfliktów.”
Ogólne błędy poznawcze są znane psychologii od dawna. Dla pracy nad koncepcją Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB) punktem wyjścia są prace opisujące zwykły Błąd Konfirmacji, a więc tendencję do selektywnej i subiektywnej percepcji danych zmierzającej do potwierdzenia wcześniej przyjętej tezy. Dla przykładu można tu wymienić pracę Daniela Kahnemana, „Pułapki myślenia”.
Mechanizm ten został zidentyfikowany na płaszczyźnie interakcji człowiek – AI oraz szczegółowo opisany m.in. w artykule M. Glickman i T. Sharot https://pmc.ncbi.nlm.nih.gov/articles/PMC11860214/? Yuxin Liu i Adam Moore, https://pubmed.ncbi.nlm.nih.gov/40448478/, a także L. Celar i Ruth M.J. Byrne https://pubmed.ncbi.nlm.nih.gov/36964302/. Trzeba wspomnieć również o artykule Ben Wang i Jiqun Liu, Cognitively Biased Users Interacting with Algorithmically Biased Results in Whole-Session Search on Debated Topics, https://dl.acm.org/doi/10.1145/3664190.3672520. Autorzy ci wskazują na rolę czynników indywidualnych na podatność wobec błędów poznawczych powstających w interakcji ze sztuczną inteligencją.
Dowiadujemy się z nich o pętli sprzężenia zwrotnego. Polega ona nie tylko na istnieniu błędu konfirmacji. Idzie krok dalej – doprowadza do wzmocnienia pierwotnego przekonania lub uprzedzenia. Prowadzi to do myślenia tunelowego.
W znanych mi pracach nie badano jednak sytuacji sporu, w którym obie strony korzystały z modeli językowych w opisany wyżej sposób. Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) nie jest sumą błędów poznawczych obu stron, lecz zjawiskiem kolejnym – nową jakością, która prowadzi do spirali eskalacji w sposób jakościowo inny, niż dwa niezależne od siebie błędy.
3. Od błędu jednostki do eskalacji systemowej
Klasyczny błąd konfirmacji (Confirmation Bias) opisuje skłonność jednostki do selektywnego wyszukiwania, interpretowania i zapamiętywania informacji w sposób potwierdzający jej wcześniejsze przekonania.
Choć zjawisko to jest dobrze udokumentowane, nie wystarcza ono do wyjaśnienia sytuacji, w których obie strony konfliktu – mimo dostępu do wyjściowo podobnych danych oraz korzystania z pozornie neutralnych narzędzi analitycznych – coraz silniej utwierdzają się we własnych przekonaniach i uprzedzeniach.
We współczesnych sporach systemy AI coraz częściej pełnią funkcję zewnętrznych legitymizatorów interpretacji, a nie jedynie narzędzi obliczeniowych. Gdy każda ze stron korzysta z takich systemów niezależnie, błąd konfirmacji przestaje być wyłącznie indywidualną skłonnością poznawczą, a zaczyna funkcjonować jako wzajemnie sprzężona dynamika.
4. Definicja sprzężonego błędu konfirmacji
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) to mechanizm eskalacji konfliktu, w którym dwie lub więcej stron sporu, opierając się na zewnętrznych systemach interpretacyjnych postrzeganych jako epistemicznie uprzywilejowane, wzajemnie legitymizują własne narracje. Mechanizm ten ma charakter rekurencyjny: działania podejmowane na podstawie takiej legitymizacji stają się następnie danymi wejściowymi do dalszych analiz po drugiej stronie, prowadząc do sprzężonej spirali interpretacyjnej i stopniowego zawężania przestrzeni negocjacyjnej. Termin rekurencyjny stosuję tu w znaczeniu: ‘kolejne iteracje wzmacniają poprzednie’. To nie jest rekurencja w sensie formalnym, lecz opis dodatniego sprzężenia zwrotnego w pętli interpretacyjnej.
Cechą konstytutywną CCB nie jest sama obecność stronniczego rozumowania, lecz dynamiczne sprzężenie pętli interpretacyjnych pomiędzy aktorami. W tym modelu działania jednej strony, ukształtowane przez analizę AI, stają się bezpośrednimi danymi wejściowymi dla systemu po drugiej stronie. Tworzy to zamknięty obieg, w którym każda kolejna interakcja nie przybliża stron do konsensusu, lecz dostarcza „obiektywnego” materiału do pogłębienia pierwotnych uprzedzeń.
5. Hipoteza
H1:
W konfliktach dwu- lub wielostronnych, w których strony niezależnie korzystają z modeli AI do interpretowania sporu i uzasadniania własnych stanowisk, prawdopodobieństwo eskalacji oraz załamania negocjacji jest wyższe niż w konfliktach strukturalnie podobnych, w których takich systemów się nie wykorzystuje.
H1a:
W konfliktach opartych na interpretacji, symetryczny dostęp do informacji zwiększa ryzyko eskalacji bardziej niż asymetria informacyjna, ponieważ eliminuje możliwość wyjaśniania rozbieżności poprzez brak wiedzy, przenosząc konflikt na poziom intencji i rzekomej racjonalności.
5.1. Zdaję sobie sprawę, że modele AI mogą być wykorzystywane przez każdą ze stron w różnym czasie, w różnym zakresie, w różnym celu i w różny sposób. Mogą zacząć korzystać z AI w tym samym czasie lub w różnym. Jedna z nich może to zakończyć lub ograniczyć wcześniej od drugiej, która będzie z AI korzystać dłużej. Jedna ze stron podda analizie wyłącznie czynniki zewnętrzne, inna deklaracje stron, a kiedy indziej będzie chciała z pomocą AI ustalić intencje przeciwnika. Jedna ze stron może to robić w celu dokonania analizy, inna w celu otrzymania emocjonalnego wsparcia. Wreszcie, mogą korzystać z różnych modeli i czynić to w odmienny sposób – choćby przez wprowadzanie mniej lub bardziej zmanipulowanych danych. Jak wykazały ww. badania Ben Wang i Jiqun Liu, czynniki indywidualne mają również wpływ na podatność na sugestie i odpowiedzi AI.
Wszystkie te czynniki (a prawdopodobnie jeszcze wiele innych) trzeba wziąć pod uwagę. Zdaję sobie sprawę, że powstałe różnice mogą sprawić, że Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) nie powstanie lub też zgaśnie w trakcie konfliktu. W tym miejscu mój teza dotyczy korzystania z AI przez obie strony w sposób względnie symetryczny. Wpływ asymetrii na Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) wymaga dalszych badań.
5.2. W badaniach wielokrotnie wskazano, że układy złożone z 3 aktorów są znacznie mniej stabilne, niż 2 lub 4- osobowe. Uważam, że rola AI w akceleracji eskalacji w układach 3 osobowych będzie szczególnie widoczna. Dalsze badania będą musiały ustalić różnice w skutkach, jeśli w układzie 3 lub więcej osobowym z AI korzysta tylko część uczestników.
5.3. Chciałbym wyraźnie zaznaczyć, że AI nie tworzy, ani nie eskaluje konfliktu sama przez się. Ma jednak przemożny wpływ na percepcję, interpretacje i wreszcie na decyzje użytkownika. Jego działanie podjęte na skutek takiej decyzji będzie z kolei interpretowane w analogiczny sposób przez drugą stronę.
5.4. Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) nie jest też przykładem tzw. Echo Chambers ograniczonego do dwóch (lub niewielkiej liczby) uczestników. Echo Chambers są z natury statyczne, zaś CCB jest dynamiczne, gdyż każda kolejna interakcja zmienia zachowanie drugiej strony.
6. Falsyfikowalność Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB)
W Logice odkrycia naukowego Popper wprowadził pojęcie falsyfikowalności teorii, jako warunku koniecznego do uznania jej za naukową.
Należy więc określić, jakie potencjalne czynniki warunkują zaistnienie opisywanego mechanizmu, jakie wpływają na jego dezaktywację. I przede wszystkim, co zadałoby tej teorii fałsz?
6.1.Warunki aktywacji mechanizmu
Sprzężony Błąd Konfirmacji ujawnia się zazwyczaj wtedy, gdy spełnione są łącznie następujące warunki:
- Symetryczna legitymizacja narracji
Każda ze stron dysponuje narzędziami lub doradcami, którzy potwierdzają jej interpretację jako racjonalną i uzasadnioną. - Brak wspólnej władzy epistemicznej
Nie istnieje instytucja, mediator ani procedura uznawana przez wszystkie strony za ostatecznego arbitra. - Wysoki koszt poznawczy zmiany stanowiska
Zmiana stanowiska oznaczałaby podważenie wcześniejszych „racjonalnych” decyzji wspartych analizą AI. - Obecność pozornie neutralnego trzeciego aktora
Systemy AI, postrzegane jako obiektywne i pozbawione interesu, wzmacniają legitymizację każdej z narracji. To paradoksalnie ułatwia im funckjonalne wpływanie na powstanie błędów konfirmacji po obu stronach, a w efekcie powstanie Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB).
6.2. Granice zastosowania: kiedy CCB nie działa?
Sprzężony Błąd Konfirmacji nie ma charakteru uniwersalnego. Mechanizm ten ulega osłabieniu lub nie występuje w ogóle, gdy:
- Istnieje wspólnie uznany arbiter faktów, akceptowany przez wszystkie strony.
- Tylko jedna ze stron korzysta z narzędzi AI, co przerywa symetrię sprzężenia.
- Stawka konfliktu jest niska lub odwracalna, co obniża potrzebę poznawczej obrony stanowiska.
- AI wykorzystywana jest wyłącznie informacyjnie, a nie interpretacyjnie.
- Strony posiadają wysoki poziom kompetencji metapoznawczych i aktywnie przeciwdziałają własnym błędom poznawczym.
- Spór dotyczy jasno mierzalnych parametrów, a nie interpretacji intencji czy przypisywania winy.
- Powstaje znaczna asymetria w korzystaniu przez strony z modeli AI w zakresie a) czasu; b) zakresu, c) celu; d) sposobu.
- Mechanizm CCB ulega osłabieniu, gdy strony posiadają wzajemną świadomość korzystania z podobnych narzędzi interpretacyjnych i są zdolne do refleksji metapoznawczej nad ich wpływem na własne stanowiska. Ujawnienie korzystania z AI może być czynnikiem deeskalacji.
Granice te pozwalają odróżnić CCB od ogólnych teorii eskalacji konfliktu.
6.3. Co wykazałoby fałsz tej teorii?
Wykazanie jakiego czynnika obaliłoby hipotezę o istnieniu Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB)?
Bezspornie, hipotezę tę obaliłoby zaobserwowanie skutku do niej przeciwnego, to jest łagodzącego i deeskalacyjnego wpływu modeli AI na przebieg konfliktu. To z kolei mogłoby się przejawić, gdyśmy zaobserwowali nagłą zmianę narracji modelu AI, który zidentyfikował powstanie sprzężenia zwrotnego, poinformował o nim użytkownika. Niczego takiego do tej pory nie zaobserwowałem.
Hipotezę tę można również sfalsyfikować, gdyby wnioski z przytoczonych wcześniej badań, a dotyczące pętli sprzężenia zwrotnego i myślenia tunelowego okazały się nieprawdziwe, albo też gdyby wskutek ewolucji AI, zmieniła ona zasady interakcji z użytkownikami. Póki co, nie mam wiedzy, która potwierdzałaby takie tezy.
Falsywikacja zaszłaby również, gdyby wykazano, że w obserwowanych przypadkach doszło do gwałtownej eskalacji z przyczyn innych, niż błędy poznawcze powstałe wskutek interakcji z AI.
Wreszcie, fałsz tej hipotezie zadałoby ustalenie, że dynamika konfliktów, w których uczestnicy korzystają lub niekorzystaną z AI jest identyczna. Dotychczasowe obserwacje jednak temu przeczą.
7. Skutki systemowe
Skutki systemowe: dynamika rekurencyjnej eskalacji
Aktywacja mechanizmu CCB prowadzi do przejścia konfliktu ze sfery spornych interesów do sfery zamkniętych pętli interpretacyjnych. Pociąga to za sobą następujące konsekwencje systemowe:
- Autokataliza eskalacji: Dzięki charakterowi rekurencyjnemu, każda próba komunikacji deeskalacyjnej jest filtrowana przez AI drugiej strony. Jeśli system interpretacyjny postrzega drugą stronę jako nielojalną, nawet gesty dobrej woli zostaną zinterpretowane jako „strategiczna manipulacja”. Paradoksalnie „potwierdza” to potrzebę dalszej eskalacji.
- Zanik wieloznaczności (Ambiguity Collapse): W klasycznym sporze niepewność co do intencji daje przestrzeń do domniemań. W CCB, AI „domyka” te interpretacje, nadając im cechy pewności analitycznej. Powoduje to, że strony przestają rozmawiać o faktach, a zaczynają operować na „produkcie końcowym” analizy – gotowych wyrokach o intencjach przeciwnika.
- Paradoks legitymizacji (The Legitimacy Trap): Ponieważ każda ze stron posiada „obiektywne” potwierdzenie swojej racji pochodzące z systemu subiektywnie epistemicznie uprzywilejowanego, jakikolwiek kompromis zaczyna być postrzegany nie jako ustępstwo, lecz jako działanie irracjonalne lub błąd logiczny.
- Erozja wspólnej rzeczywistości: Rekurencyjne nakładanie na siebie analiz sprawia, że strony w pewnym momencie przestają reagować na realne działania przeciwnika, a zaczynają reagować na to, jak ich własne modele AI przewidują interpretacje modeli AI przeciwnika. Konflikt odkleja się od rzeczywistego podłoża i przenosi w sferę interakcji model-model.
- Inercja stanowisk: Raz ukształtowana przez AI narracja wykazuje dużą odporność na zmianę (cognitive inertia). Podważenie wniosków wygenerowanych przez zaawansowany model analityczny wymagałoby od decydenta przyznania się do fundamentalnego błędu w doborze narzędzi. Podnosi to psychologiczny i „polityczny” koszt deeskalacji.
Co istotne, eskalacja ta zachodzi bez złej wiary i często bez świadomej intencji strategicznej.
8. AI jako quasi-trzeci aktor?
Choć sztuczna inteligencja jest pozbawiona sprawstwa i własnych interesów, jej funkcjonalna rola w mechanizmie CCB nie może zostać pominięta. Poprzez dostarczanie autorytatywnej legitymizacji przy jednoczesnym braku odpowiedzialności, systemy AI wpływają na dynamikę sporu. Wpływają one na subiektywną ocenę kosztów eskalacji i stabilizują wzajemnie wykluczające się narracje. Chcę być dobrze zrozumiany – nie mam na myśli roli AI pozwalającej jej na nadanie statusu strony w sensie ontologicznym. Jest ona raczej lustrem aktywnie wzmacniającym pierwotne przekonania. Lustrem jednakże nie biernym, lecz aktywnym, obdarzanym zaufaniem i wzmacniającym przekonania.
9. Zakończenie
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) stanowi ramę konceptualną pozwalającą zrozumieć, dlaczego wprowadzenie pozornie racjonalnych narzędzi może przyspieszać eskalację konfliktów. Proponowana koncepcja nie rości sobie pretensji do uniwersalności ani empirycznej ostateczności. Jest to hipoteza mechanizmu, obserwowanego w praktyce, która zaprasza do dalszej krytyki, testowania i doprecyzowania.
Zrozumienie CCB ma znaczenie nie tylko dla prawników, mediatorów i innych osób zarządzających konfliktami. Jest istotne także dla projektantów i użytkowników systemów AI w kontekstach konfrontacyjnych.
10. Nota metodologiczna autora
Niniejszy artykuł przedstawia moją autorską ramę analityczną i konceptualną opartą na obserwowanych przeze mnie wzorcach występujących w konfliktach. Poczyniłem te obserwacje na gruncie własnej praktyki prawnej w drugiej połowie 2025 roku. Artykuł ten nie stanowi empirycznie zweryfikowanej teorii, lecz jedynie hipotezę. Jego celem jest opisanie zjawiska i wskazanie kierunków dalszych analiz. Pracując nad nim korzystałem z pomocy modeli językowych w celu krytycznej oceny własnych tez i szukania słabych punktów mojego rozumowania. Pomoc modeli AI miała charakter krytyczny, a nie generatywny. Posłużyła mi identyfikacji potencjalnych słabych punktów argumentacji.
Możecie przeczytać również wersję angielską: https://jakubieciwspolnicy.pl/en/coupled-confirmation-bias/

AI JAKO DORADCA W SPRAWACH RODZINNYCH
W kilu ostatnich wpisach zająłem się rolą AI w rozwiązywaniu i eskalacji sporów między wspólnikami. Teraz chciałem przyjrzeć się temu, jak ludzie wykorzystują sztuczną inteligencję w sprawach bardzo delikatnych. Mam na myśli sprawy rodzinne. Opiszę Wam przypadki, z którymi zetknąłem się osobiście – żeby daleko nie szukać – w grudniu 2025 roku. Są one dla mnie szczególnie interesujące, ponieważ zajmuję się konfliktami jako zjawiskiem i obserwuję rosnącą rolę AI w ich powstawaniu i eskalacji. Sprawy rodzinne są jednym z obszarów, gdzie jest to szczególnie widoczne.
AI w sprawach rodzinnych i jej wpływ na zachowanie ludzi
Coraz częściej dostrzegam silny wpływ AI na dynamikę sporów rodzinnych. W tym tekście podzielę się z Wami sprawami z ostatnich tygodni. Zmieniam oczywiście szczegóły tak, aby uniemożliwić identyfikację kogokolwiek. Z każdą z osób, których historię przedstawiam, rozmawiałem kilka razy osobiście lub online. Opisuję zjawisko nowe, którego konsekwencje dla życia rodzinnego i dobrostanu psychicznego jednostek, rodzin i społeczności nie są jeszcze zbadane. Staram się powstrzymywać od ocen – zostawiam je Wam.
SPRAWA PIERWSZA – PYTANIE O KONTAKTY Z DZIECKIEM PO ROZWODZIE
Zgłosił się do mnie Klient, który właśnie się rozwiódł. Nie uczestniczyłem w tym rozwodzie. Mężczyzna między 30, a 40 – dobrze prosperujący i inteligentny. Prosił o pilną poradę. Ustalił bowiem w trakcie rozwodu, który odbył się 2 tygodnie wcześniej, że będzie miał kontakty z dziećmi w określone dni w tygodniu i co drugi weekend. Co ważne – państwo ciągle ze sobą mieszkają.
W związku z tym, była żona powiedziała mu, że zamierza w najbliższy weekend wyjść na imprezę – a on zgodnie z ustaleniami – ma zająć się dziećmi.
Pan zapytał jeden z modeli AI, czy ustalone kontakty oznaczają, że on musi się w tym czasie zajmować dziećmi, czy też jest to jedynie jego prawo, „zabezpieczenie”, gdyby była żona zamierzała mu to utrudniać. Czat utwierdził go w przekonaniu, że jest to jedynie jego prawo, a więc matka nie ma prawa od niego oczekiwać, że zajmie się dziećmi. Po tej „rozmowie” z AI doszło do gwałtownej kłótni między nimi.
Pomijam już fakt, że takie kwestie powinni klientom wytłumaczyć ich prawnicy. Jest to w końcu abecadło nowej rzeczywistości. Problem polegał na tym, że model językowy nie udzielił prawidłowej porady prawnej. Odpowiedź była nieprawdziwa. Utwierdziła jednak tego pana w mylnym przekonaniu. To, co się stało dalej jest idealnym przykładem sprzężonego błędu atrybucji.
Użytkownik miał wątpliwości. Opisał wycinek rzeczywistości w sposób, który pozwolił czatowi na udzielenie odpowiedzi utwierdzającej go w błędnym przekonaniu. Spowodowało to utwierdzenie, wzmocnienie tego przekonania i gotowość do konfrontacji i eskalacji.
Sprawa druga – AI jako wynajęty psychoanalityk
Klientka koło 30 roku życia. Inteligentna, wykształcona i bardzo dobrze zarabiająca. Przygotowując się do sprawy poprosiła popularny model AI o stworzenie modelu psychologicznego swojego męża.
Opisała go dokładnie tak, jak go widziała. Czat odpowiedział, że „co prawda nie jest psychologiem, ale…” chętnie pomoże. Po czym przypisał mu połowę istniejących zaburzeń utwierdzając ją m.in. w tym, że mąż jest niedojrzały emocjonalnie, głęboko narcystyczny i psychopatyczny.
W oparciu o rozmowę z modelem AI stwierdziła, że nie może mu zaufać i zostawiać z nim dziecka, gdyż nie byłoby to dla tego dziecka bezpieczne.
Gdy zaproponowałem, żeby skonsultowała to z psychologiem, powiedziała, że nie ma takiej potrzeby. Czat odpowiedział jej już na wszystkie pytania. W efekcie ta pani gotowa uniemożliwić mężowi kontakty z synem, by go chronić przed ojcem.
Problem nie polegał na samej analizie. Chodzi o to, że rozmowa z modelem AI została potraktowana jak diagnoza kliniczna, a opierała się wyłącznie na jednostronnym opisie. Pomijam już, że dokonał jej model językowy, a nie uprawniony do tego psychiatra lub psycholog. On również powinien zbadać pacjenta, posłużyć się testami i obserwacją, a nie bazować na samej relacji zaangażowanej osoby.
Nie przyjąłem tej sprawy.
Sprawa trzecia – AI jako analityk rozmów
Przyszli do mnie na mediację rodzice dwojga małych dzieci. Początkowo po rozstaniu ich rodzicielska współpraca przebiegała poprawnie. Od tego czasu państwo rozmawiali ze sobą niemal już wyłącznie przez komunikator WhatsApp i dość długie wiadomości pisane na nim.
Wkrótce zaczęli wzbudzać w sobie nieufność, doszukiwać się ukrytych zamiarów, aluzji i wielowariantowego planowania w celu zaszkodzenia sobie. Oboje nabrali przekonania, że drugie z nich gotowe jest użyć dzieci przedmiotowo, a nawet godziło się na długotrwałe ujemne następstwa psychiczne po ich stronie, byle postawić na swoim.
Okazało się, że każde z nich wklejało otrzymane wiadomości do okna modelu AI, który szczegółowo je analizował, po czym pomagał przygotować odpowiedź. Odpowiedź taka była wysyłana i poddawana podobnej analizie przez drugą stronę.
Powstała spirala podejrzeń i gotowość do podejmowania coraz bardziej radykalnych kroków. Każde z nich straciło w pewien sposób kontakt z rzeczywistością.
AI w sprawach rodzinnych – wnioski
Te trzy przykłady z mojej praktyki pokazują, że mamy tendencję do:
- szukania potwierdzenia pierwotnych założeń;
- podlegamy wzmocnieniu przekonań po otrzymaniu potwierdzenia;
- preferujemy AI jako źródło potwierdzenia, gdyż jest:
- szybsze;
- tańsze;
- milsze;
- stoi za nią nimb wszechwiedzy i tajemniczości, przez co wydaje nam się bardziej atrakcyjna, niż jakiś prawnik albo psycholog.
Prowadzi to do powstania myślenia tunelowego i gotowości do szybkiego i nieprzemyślanego wchodzenia na wyższe szczeble eskalacji w sporze. Co najgorsze, nasze pierwotne uprzedzenia i przekonania ulegają wzmocnieniu, gdyż uznajemy, że dostaliśmy potwierdzenie od niezawodnej technologii.
Skutki tego zachłyśnięcia się AI są obecnie trudne do przewidzenia. I problem nie leży w samej technologii, ale w tym, że wiele osób nie potrafi krytycznie oceniać uzyskiwanych odpowiedzi.
Co ważne, AI sprzyja też potęgowaniu skutków podstawowego błędu atrybucji, o czym pisałem już tutaj:
O tym, że klienci przychodzą do mojej kancelarii z gotowymi „rozwiązaniami” i oczekują ich realizacji pisałem już kilka razy. Motyw AI w sprawach rodzinnych przewija się u mnie od początku 2025 roku. Możecie przeczytać np. ten artykuł:
O myśleniu tunelowym i sprzężonym błędzie konfirmacji pisałem z kolei tu:
Dla zainteresowanych: badania naukowe o roli AI w utrwalaniu błędów poznawczych
AI w sprawach rodzinnych pojawia się coraz częściej i ma coraz większy wpływ na przekonania, wybory i zachowania ludzi. Okazuje się, że moje obserwacje mają silne oparcie w badaniach naukowych. Zobaczcie sami.
Polecam Wam artykuł opublikowany już rok temu: Jak pętle sprzężenia zwrotnego człowiek-AI zmieniają ludzkie osądy percepcyjne, emocjonalne i społeczne (Nature Human Behaviour). Autorzy wykazali, że AI potwierdzające ludzkie założenia prowadzi do wzmocnienia percepcji, emocji i ocen społecznych. Przeczytajcie go koniecznie: https://www.nature.com/articles/s41562-024-02077-2?
Zdecydowanie warto przeczytać również artykuł Yiran Du: Confirmation Bias in Generative AI Chatbots. Zawiera on analizę tychże mechanizmów błędu potwierdzenia w modelach AI. Przeczytamy w nim również o ryzykach związanych z tym sprzężeniem: https://arxiv.org/abs/2504.09343?
Wreszcie tutaj macie link do tekstu o myśleniu tunelowym, które powstaje wskutek mało krytycznego podejścia do odpowiedzi uzyskiwanych od AI: Bias in the Loop: How Humans Evaluate AI‑Generated Suggestions. Autorzy twierdzą, że eksperymenty dowodzą, że użytkownicy przyjmują błędne sugestie AI, jeśli pasują do ich wcześniejszych przekonań: https://arxiv.org/pdf/2509.08514
Tutaj zostawiam linki do analizy naukowców z Uniwersytetu Stanforda, którzy zajęli się zjawiskiem „halucynowania” AI i jego wpływem na podejmowanie decyzji przez ludzi: https://hai.stanford.edu/news/ai-trial-legal-models-hallucinate-1-out-6-or-more-benchmarking-queries?utm_source=chatgpt.com
Zapraszam Was do kontaktu
Jeśli potrzebujecie pomocy prawnika, który zajmuje się rozwiązywaniem sporów – również w zakresie spraw rodzinnych – odezwijcie się do mnie:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Z przyjemnością Wam pomogę!

AI I MYŚLENIE TUNELOWE W SPORACH MIĘDZY WSPÓLNIKAMI
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias) w pracy z modelami AI coraz częściej daje o sobie znać w sporach gospodarczych. Widzę to nawet w mojej własnej praktyce. Zdarza się, że klienci przychodzą do mnie z gotowym planem działania. Wcześniej skonsultowali sytuację swojej spółki z modelem językowym. Oczekują, że po prostu zrealizuję ten plan. Rozmowy z nimi bywają trudne. Staram się zrozumieć, jak doszli do tych wniosków, jakie zadawali pytania, jakie przyjęli założenia. Tłumaczę nieścisłości w tym rozumowaniu i próbuje ustalić wszystko od początku. Dlaczego? Bo odczuwam silną potrzebę rzetelnego wykonania swojej pracy i zbadania sprawy. Część klientów to rozumie. Inni uważają to za zbędne, ponieważ sprawa została już przecież „przeanalizowana” (w założeniu – przez „kogoś” mądrzejszego ode mnie). Kilku z nich zarzuciło mi wręcz chęć dublowania pracy w celu zawyżenia kosztów. Twierdzą, że AI wykonała już pracę i zaproponowała rozwiązanie.
Jakiś czas temu zacząłem się zastanawiać, czemu tak się dzieje. Poczytałem więcej o znanym w psychologii błędzie konfirmacji i nowo opisanej tendencji modeli językowych do „przytakiwania”. Okazuje się, że dyskusja z AI może prowadzić do błędu konfirmacji, który zostanie wzmocniony „życzliwością” i „uprzejmością” modeli AI. Tak doszedłem do wniosku, że połączenie tych dwóch zjawisk można nazwać Sprzężonym Błędem konfirmacji. Jest to moja robocza nazwa. Jednak to, co obserwuje w mojej praktyce adwokackiej nie dawało się jeszcze wyjaśnić tylko przez Sprzężony Błąd Konfirmacji.
Błąd ten wpływa na postawy niektórych klientów. Część z nich udaje mi się przekonać. Inni są zaskoczeni, gdy odmawiam współpracy. Niektórzy reagują nawet oburzeniem. Jedna osoba oskarżyła mnie — jeszcze przed jakąkolwiek merytoryczną rozmową — że nie znam się na spółkach ani negocjacjach.
O tym, jak czynniki indywidualne mogą wpływać na podatność poddania się Sprzężonemu Błędowi Konfirmacji, możecie przeczytać m.in. tutaj:
Ben Wang i Jiqun Liu Cognitively Biased Users Interacting with Algorithmically Biased Results in Whole-Session Search on Debated Topics, https://dl.acm.org/doi/10.1145/3664190.3672520
W tym kontekście tragikomiczne wydaje się, że moja rzekoma „ignorancja” miała wynikać z chęci przeczytania umowy spółki. Chciałem także omówić historię współpracy wspólników. Witajcie w erze AI!
W tym artykule napisałem nieco więcej o Sprzężonym Błędzie Konfirmacji w sporach między wspólnikami
Możecie go najpierw przeczytać, ale jeśli nie macie ochoty – nie ma sprawy. Ten artykuł można traktować jako zamkniętą całość.
Spory między wspólnikami: Dlaczego chcemy potwierdzać nasze przekonania?
O samych przyczynach sporów między wspólnikami opowiadałem m.in. w moim podcaście:
Na mojej stronie znajdziecie jednak szereg publikacji, które ten temat rozwijają.
Spory między wspólnikami. Dlaczego poszukujemy potwierdzenia?
W psychologii dobrze znany jest błąd konfirmacji (confirmation bias). Polega on na tym, że ignorujemy informacje sprzeczne z naszymi przekonaniami, a nadmiernie doceniamy te, które je potwierdzają.
Przykład: Jeśli wierzymy, że Ziemia jest płaska, to będziemy tak interpretować dostępne dane, żeby tę tezę potwierdzić. Niewygodne fakty pominiemy, inne będziemy lekko naciągać.
Błąd konfirmacji nie jest zarzutem, który kieruję do kogokolwiek. Jest on doskonale zbadanym w psychologii zjawiskiem. Dobrze, gdy jesteśmy go świadomi.
Psychologicznie jest to mechanizm obronny. Jego celem jest utrzymanie spójności poznawczej i redukcja napięcia emocjonalnego. W końcu intelektualny niepokój nie służy większości z nas. Chcemy więc go wyeliminować.
W sporach każda strona przedstawia więc wersję „korzystną dla siebie”. Selekcjonuje fakty, czyni wygodne dla siebie założenia, które przewija w narracji z faktami. Interpretuje je korzystnie dla siebie. Jest tak na wielu płaszczyznach sporów: od kłótni między przedszkolakami, przez spory małżeńskie, biznesowe i międzynarodowe. W sporach między wspólnikami mechanizm błędu konfirmacji ujawnia się również z całą mocą.
Do tej pory często zdarzało mi się, że klienci przychodzili do mnie z gotową „diagnozą” i „planem leczenia”. Szukali prawnika, który przyjmie to za pewnik i wykona. Chcecie wiedzieć, dlaczego nigdy się na to nie godzę? Przeczytajcie mój tekst:
Sprzężony Błąd Konfirmacji w pracy z AI
Czym jest Coupled Confirmation Bias – Sprzężony Błąd Konfirmacji (Potwierdzenia)?
Coupled Confirmation Bias to mechanizm, w którym nasze pierwotne przekonania są wzmacniane przez interakcję z AI. Schemat wygląda następująco:
- Użytkownik formułuje tezę (np. przekonanie o nieuczciwości wspólnika).
- Model AI generuje odpowiedź zgodną z tym założeniem (hiperdopasowanie), o ile brak jest wyraźnych błędów wewnętrznych lub sprzeczności z wiedzą powszechnie dostępną. Model językowy nie zna całej historii współpracy, nie zna faktów innych, niż podane, nie czyni rozróżnień między faktem, założeniem, domysłem, interpretacją. Chce być „użyteczny” i czasem wprost, czasem częściowo, ale najczęściej potwierdza tezę użytkownika.
- Użytkownik traktuje AI jako autorytet, w czym jest mocno utwierdzony po uzyskaniu potwierdzenia swojej tezy.
- Powstaje sprzężenie zwrotne prowadzi, które do jeszcze silniejszego przekonania i pogłębienia tunelu poznawczego.
- Nowe siły: AI wzmacnia nasze przekonania → użytkownik działa na ich podstawie, ale „uwznioślony” i”wzmocniony” uzyskanym potwierdzeniem i gotów jest do bardziej zdecydowanego działania → konflikt eskaluje.
- Standardowa formułka modeli AI, że nie są prawnikami i żeby użytkownik skonsultował się z prawnikiem ma ten skutek, że wielu użytkowników będzie szukało prawników, którzy potwierdzą wnioski modeli AI traktując to jako główne kryterium oceny kompetencji prawnika! Będą szukać, aż znajdą.
W praktyce oznacza to, że AI działa jak „lupa”, która wzmacnia nasze postawy wyjściowe, niezależnie od ich prawdziwości. A my usuwamy z pola widzenia wszystko, co przeczy pierwotnej tezie. O hiperdopasowaniu możecie przeczytać tu: Christoph M. Abels i in.: The governance & behavioral challenges of generative artificial intelligence’s hypercustomization capabilities, https://journals.sagepub.com/doi/10.1177/23794607251347020
Dlaczego AI naturalnie potwierdza nasze przekonania?
Modele językowe nie „myślą” samodzielnie. Ich odpowiedzi wynikają z statystycznej predykcji kolejnych słów na podstawie kontekstu promptu. Co więcej, są one najczęściej wewnętrznie spójne. Moim zdaniem na rzeczy jest znacznie więcej, niż predykcja w tym wąskim rozumieniu, ale czy to jest myślenie?
Jeśli pytanie zadane modelowi AI sugeruje określoną interpretację, model tworzy spójną narrację. Użytkownik może ją interpretować jako obiektywne potwierdzenie własnej opinii. Warto zaznaczyć, że odpowiedzi generowane przez AI są najczęściej wewnętrznie spójne. Nie zawsze są natomiast spójne zewnętrznie, osadzone w konkretnych realiach, ani poparte znajomością prawa (nie mylić z przepisami).
Wyglądają na pierwszy rzut oka jak wypowiedzi eksperckie i trzeba często rzeczywiście być fachowcem, by zobaczyć istotne nieścisłości, błędy lub przeoczenia, które przekreślają sugerowany kierunek.
Sprzężony Błąd Konfirmacji, Mechanizm Feedback Loop i Dylemat Bezpieczeństwa
Zastanówmy się, co dzieje się, gdy druga strona opisuje swoją subiektywną perspektywę własnemu modelowi AI. Czat potwierdza jej punkt widzenia i go wzmacnia. Wpływ na działania użytkownika jest znaczący. Drugi wspólnik obserwuje to z narastającą podejrzliwością. Jak zareaguje? Jego reakcją będzie prawdopodobnie przygotowanie się walki, która może mieć dla niego charakter ściśle defensywny albo… wybierze atak prewencyjny. Chce jednak upewnić się, że jego interpretacja jest prawidłowa. Co zrobi? Zwróci się do własnego chata, subiektywnie opisując to, co postrzega. Zgadnijcie, jaką odpowiedź otrzyma? Tak…
Sytuacja może wymknąć się spod kontroli. Przypomina partię szachów pomiędzy dwoma oszustami korzystającymi z komputerów. To nie jest już normalna gra. Tylko w tym przypadku, to nie szachy, ale prawdziwe życie.
Każdy wspólnik subiektywnie interpretuje zachowanie „przeciwnika”. Te subiektywnie dobrane i opisane cząstki rzeczywistości przekazuje AI. Model AI potwierdza „nikczemność” drugiej strony i sugeruje radykalne rozwiązania.
Gdy klienci trafiają do mnie, będąc już w tej spirali, racjonalne argumenty często do nich nie docierają.
Mamy tu do czynienia z wyraźnym przykładem Sprzężonego Błędu Konfirmacji po obu stronach, które prowokuje pętlę sprzężenia zwrotnego i myślenie tunelowe (Feedback Loop)! To tzw. dylemat bezpieczeństwa na sterydach. Na czym polega dylemat bezpieczeństwa? To znane w polityce określenie na paradoks sytuacji, w której jedno państwo chcąc uniknąć wojny i potencjalnej agresji zbroi się, a drugie odczytuje to jako przygotowanie do wojny, na które reaguje własnymi zbrojeniami i przygotowaniami. Paradoks bezpieczeństwa może sprowokować konflikt, któremu miał zapobiec.
To samo widzę w postawie niektórych ludzi, którzy prowadzą biznes i konsultują swoje relacje ze wspólnikiem z modelami AI. Do niektórych z nich nie docierają już racjonalne argumenty. A przecież AI dopiero niedawno powstała i dynamicznie się rozwija.
O tym, jak może wyglądać eskalacja sporu między wspólnikami, pisałem ostatnio tutaj:
Warto przeczytać powyższy tekst i nanieść na niego niebezpieczeństwa poznawcze, o których piszę tutaj. To da Wam pełny obraz.
Błąd konfirmacji człowiek – AI wbadaniach naukowych
Obserwacje, które poczyniłem w ostatnim roku, kiedy coraz więcej klientów analizuje swoje sprawy z AI, zostały potwierdzone w badaniach naukowych. Badania te pokazują, że interakcje człowiek–AI mogą wzmacniać uprzedzenia i błędne przekonania.
W 2024 roku opublikowano artykuł Jak pętle sprzężenia zwrotnego człowiek-AI zmieniają ludzkie osądy percepcyjne, emocjonalne i społeczne (Nature Human Behaviour). Autorzy wykazali, że AI potwierdzające ludzkie założenia prowadzi do wzmocnienia percepcji, emocji i ocen społecznych. Przeczytajcie go koniecznie: https://www.nature.com/articles/s41562-024-02077-2?
Polecam Wam również tekst autorstwa Yiran Du: Confirmation Bias in Generative AI Chatbots. Zawiera on analizę tychże mechanizmów błędu potwierdzenia w modelach AI. Przeczytamy w nim również o ryzykach związanych z tym sprzężeniem: https://arxiv.org/abs/2504.09343?
Ostatnim z artykułów, które Wam polecę jest niosący nieco optymizmu Bias in the Loop: How Humans Evaluate AI‑Generated Suggestions. Autorzy twierdzą, że eksperymenty dowodzą, że użytkownicy przyjmują błędne sugestie AI, jeśli pasują do ich wcześniejszych przekonań. Jednakże „wyniki pokazują, że skuteczna współpraca człowieka z AI zależy nie tylko od wydajności algorytmu, ale także od tego, kto ocenia wyniki AI i jak zorganizowane są procesy przeglądu.” Wszystko więc w naszych rękach, ale będzie coraz trudniej. Artykuł znajdziecie tutaj: https://arxiv.org/pdf/2509.08514
Istnienie opisanego mechanizmu jest więc znane w nauce i stanowi przedmiot pracy wybitych naukowców. Jest to awangarda badań nad AI. Trudno też o bardziej wyraźny przykład skutków działania AI na konkretny obszar życia – w tym wypadku relacji negocjacyjnych w sporach między wspólnikami. Jak to może wyglądać?
Podsumowanie
Coupled Confirmation Bias pokazuje, że AI nie jest neutralnym arbitrem, ani najmądrzejszym doradcą. Nasze subiektywne przekonania i uprzedzenia mogą się wzmacniać w sprzężeniu zwrotnym. W sporach między wspólnikami może to prowadzić do błędnych decyzji, eskalacji konfliktu i tuneli poznawczych. Nigdy rolą prawnika nie było potwierdzanie wyobrażeń klienta. Dzisiaj jednak trzeba pójść krok dalej i czasem pomóc niektórym odzyskać kontakt z rzeczywistością.
Wszystko jednak zależy od nas samych. Sztuczna inteligencja daje ogromne możliwości. Możemy przecież wydać dyspozycję naszemu „rozmówcy”, by był krytyczny wobec naszych pomysłów. Może wcielić się na nasze polecenie w rolę adwokata diabła i przedstawiać kontrargumenty, szukać luk w naszym rozumowaniu albo pomóc znaleźć inne wytłumaczenia zdarzeń, niż to, które my przyjęliśmy za pewnik. AI doskonale sprawdza się w eliminacji skutków podstawowego błędu atrybucji, który ma tak ogromne znaczenie w sporach biznesowych albo rodzinnym. Pisałem o tym tutaj:
Gdy przychodzi do mnie Klient z gotową oceną sprawy albo radami udzielonymi przez AI, nie obrażam się. Rozmawiam z nim. Niemal zawsze się z nimi zapoznaję. Jedno z kilku rozwiązań może być ciekawe. Mogę znaleźć tam rozwiązanie, które nie przyszłoby mi do głowy.
Najczęściej udaje mi się zyskać zaufanie Klientów, którym tłumaczę, jak działają modele językowe (tak, jak sam to rozumiem) oraz pokazuję rozwiązania, które mogę zawsze obronić.
Zdarza się, że Klient notuje, co mówię. A potem wraca do mnie za kilka dni i mówi, że już mi zaufa, bo powtórzył moje argumenty AI, a ta – przyznała mi rację. Jest to sukces słodko – gorzki w świetle tego, co wyżej pisałem.
Jeśli potrzebujecie pomocy prawnika, który zajmuje się negocjacjami i sporami miedzy wspólnikami, możecie się do mnie odezwać:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Z przyjemnością Wam pomogę!
