
AI JAKO DORADCA W SPRAWACH RODZINNYCH
W kilu ostatnich wpisach zająłem się rolą AI w rozwiązywaniu i eskalacji sporów między wspólnikami. Teraz chciałem przyjrzeć się temu, jak ludzie wykorzystują sztuczną inteligencję w sprawach bardzo delikatnych. Mam na myśli sprawy rodzinne. Opiszę Wam przypadki, z którymi zetknąłem się osobiście – żeby daleko nie szukać – w grudniu 2025 roku. Są one dla mnie szczególnie interesujące, ponieważ zajmuję się konfliktami jako zjawiskiem i obserwuję rosnącą rolę AI w ich powstawaniu i eskalacji. Sprawy rodzinne są jednym z obszarów, gdzie jest to szczególnie widoczne.
AI w sprawach rodzinnych i jej wpływ na zachowanie ludzi
Coraz częściej dostrzegam silny wpływ AI na dynamikę sporów rodzinnych. W tym tekście podzielę się z Wami sprawami z ostatnich tygodni. Zmieniam oczywiście szczegóły tak, aby uniemożliwić identyfikację kogokolwiek. Z każdą z osób, których historię przedstawiam, rozmawiałem kilka razy osobiście lub online. Opisuję zjawisko nowe, którego konsekwencje dla życia rodzinnego i dobrostanu psychicznego jednostek, rodzin i społeczności nie są jeszcze zbadane. Staram się powstrzymywać od ocen – zostawiam je Wam.
SPRAWA PIERWSZA – PYTANIE O KONTAKTY Z DZIECKIEM PO ROZWODZIE
Zgłosił się do mnie Klient, który właśnie się rozwiódł. Nie uczestniczyłem w tym rozwodzie. Mężczyzna między 30, a 40 – dobrze prosperujący i inteligentny. Prosił o pilną poradę. Ustalił bowiem w trakcie rozwodu, który odbył się 2 tygodnie wcześniej, że będzie miał kontakty z dziećmi w określone dni w tygodniu i co drugi weekend. Co ważne – państwo ciągle ze sobą mieszkają.
W związku z tym, była żona powiedziała mu, że zamierza w najbliższy weekend wyjść na imprezę – a on zgodnie z ustaleniami – ma zająć się dziećmi.
Pan zapytał jeden z modeli AI, czy ustalone kontakty oznaczają, że on musi się w tym czasie zajmować dziećmi, czy też jest to jedynie jego prawo, „zabezpieczenie”, gdyby była żona zamierzała mu to utrudniać. Czat utwierdził go w przekonaniu, że jest to jedynie jego prawo, a więc matka nie ma prawa od niego oczekiwać, że zajmie się dziećmi. Po tej „rozmowie” z AI doszło do gwałtownej kłótni między nimi.
Pomijam już fakt, że takie kwestie powinni klientom wytłumaczyć ich prawnicy. Jest to w końcu abecadło nowej rzeczywistości. Problem polegał na tym, że model językowy nie udzielił prawidłowej porady prawnej. Odpowiedź była nieprawdziwa. Utwierdziła jednak tego pana w mylnym przekonaniu. To, co się stało dalej jest idealnym przykładem sprzężonego błędu atrybucji.
Użytkownik miał wątpliwości. Opisał wycinek rzeczywistości w sposób, który pozwolił czatowi na udzielenie odpowiedzi utwierdzającej go w błędnym przekonaniu. Spowodowało to utwierdzenie, wzmocnienie tego przekonania i gotowość do konfrontacji i eskalacji.
Sprawa druga – AI jako wynajęty psychoanalityk
Klientka koło 30 roku życia. Inteligentna, wykształcona i bardzo dobrze zarabiająca. Przygotowując się do sprawy poprosiła popularny model AI o stworzenie modelu psychologicznego swojego męża.
Opisała go dokładnie tak, jak go widziała. Czat odpowiedział, że „co prawda nie jest psychologiem, ale…” chętnie pomoże. Po czym przypisał mu połowę istniejących zaburzeń utwierdzając ją m.in. w tym, że mąż jest niedojrzały emocjonalnie, głęboko narcystyczny i psychopatyczny.
W oparciu o rozmowę z modelem AI stwierdziła, że nie może mu zaufać i zostawiać z nim dziecka, gdyż nie byłoby to dla tego dziecka bezpieczne.
Gdy zaproponowałem, żeby skonsultowała to z psychologiem, powiedziała, że nie ma takiej potrzeby. Czat odpowiedział jej już na wszystkie pytania. W efekcie ta pani gotowa uniemożliwić mężowi kontakty z synem, by go chronić przed ojcem.
Problem nie polegał na samej analizie. Chodzi o to, że rozmowa z modelem AI została potraktowana jak diagnoza kliniczna, a opierała się wyłącznie na jednostronnym opisie. Pomijam już, że dokonał jej model językowy, a nie uprawniony do tego psychiatra lub psycholog. On również powinien zbadać pacjenta, posłużyć się testami i obserwacją, a nie bazować na samej relacji zaangażowanej osoby.
Nie przyjąłem tej sprawy.
Sprawa trzecia – AI jako analityk rozmów
Przyszli do mnie na mediację rodzice dwojga małych dzieci. Początkowo po rozstaniu ich rodzicielska współpraca przebiegała poprawnie. Od tego czasu państwo rozmawiali ze sobą niemal już wyłącznie przez komunikator WhatsApp i dość długie wiadomości pisane na nim.
Wkrótce zaczęli wzbudzać w sobie nieufność, doszukiwać się ukrytych zamiarów, aluzji i wielowariantowego planowania w celu zaszkodzenia sobie. Oboje nabrali przekonania, że drugie z nich gotowe jest użyć dzieci przedmiotowo, a nawet godziło się na długotrwałe ujemne następstwa psychiczne po ich stronie, byle postawić na swoim.
Okazało się, że każde z nich wklejało otrzymane wiadomości do okna modelu AI, który szczegółowo je analizował, po czym pomagał przygotować odpowiedź. Odpowiedź taka była wysyłana i poddawana podobnej analizie przez drugą stronę.
Powstała spirala podejrzeń i gotowość do podejmowania coraz bardziej radykalnych kroków. Każde z nich straciło w pewien sposób kontakt z rzeczywistością.
AI w sprawach rodzinnych – wnioski
Te trzy przykłady z mojej praktyki pokazują, że mamy tendencję do:
- szukania potwierdzenia pierwotnych założeń;
- podlegamy wzmocnieniu przekonań po otrzymaniu potwierdzenia;
- preferujemy AI jako źródło potwierdzenia, gdyż jest:
- szybsze;
- tańsze;
- milsze;
- stoi za nią nimb wszechwiedzy i tajemniczości, przez co wydaje nam się bardziej atrakcyjna, niż jakiś prawnik albo psycholog.
Prowadzi to do powstania myślenia tunelowego i gotowości do szybkiego i nieprzemyślanego wchodzenia na wyższe szczeble eskalacji w sporze. Co najgorsze, nasze pierwotne uprzedzenia i przekonania ulegają wzmocnieniu, gdyż uznajemy, że dostaliśmy potwierdzenie od niezawodnej technologii.
Skutki tego zachłyśnięcia się AI są obecnie trudne do przewidzenia. I problem nie leży w samej technologii, ale w tym, że wiele osób nie potrafi krytycznie oceniać uzyskiwanych odpowiedzi.
Co ważne, AI sprzyja też potęgowaniu skutków podstawowego błędu atrybucji, o czym pisałem już tutaj:
O tym, że klienci przychodzą do mojej kancelarii z gotowymi „rozwiązaniami” i oczekują ich realizacji pisałem już kilka razy. Motyw AI w sprawach rodzinnych przewija się u mnie od początku 2025 roku. Możecie przeczytać np. ten artykuł:
O myśleniu tunelowym i sprzężonym błędzie konfirmacji pisałem z kolei tu:
Dla zainteresowanych: badania naukowe o roli AI w utrwalaniu błędów poznawczych
AI w sprawach rodzinnych pojawia się coraz częściej i ma coraz większy wpływ na przekonania, wybory i zachowania ludzi. Okazuje się, że moje obserwacje mają silne oparcie w badaniach naukowych. Zobaczcie sami.
Polecam Wam artykuł opublikowany już rok temu: Jak pętle sprzężenia zwrotnego człowiek-AI zmieniają ludzkie osądy percepcyjne, emocjonalne i społeczne (Nature Human Behaviour). Autorzy wykazali, że AI potwierdzające ludzkie założenia prowadzi do wzmocnienia percepcji, emocji i ocen społecznych. Przeczytajcie go koniecznie: https://www.nature.com/articles/s41562-024-02077-2?
Zdecydowanie warto przeczytać również artykuł Yiran Du: Confirmation Bias in Generative AI Chatbots. Zawiera on analizę tychże mechanizmów błędu potwierdzenia w modelach AI. Przeczytamy w nim również o ryzykach związanych z tym sprzężeniem: https://arxiv.org/abs/2504.09343?
Wreszcie tutaj macie link do tekstu o myśleniu tunelowym, które powstaje wskutek mało krytycznego podejścia do odpowiedzi uzyskiwanych od AI: Bias in the Loop: How Humans Evaluate AI‑Generated Suggestions. Autorzy twierdzą, że eksperymenty dowodzą, że użytkownicy przyjmują błędne sugestie AI, jeśli pasują do ich wcześniejszych przekonań: https://arxiv.org/pdf/2509.08514
Tutaj zostawiam linki do analizy naukowców z Uniwersytetu Stanforda, którzy zajęli się zjawiskiem „halucynowania” AI i jego wpływem na podejmowanie decyzji przez ludzi: https://hai.stanford.edu/news/ai-trial-legal-models-hallucinate-1-out-6-or-more-benchmarking-queries?utm_source=chatgpt.com
Zapraszam Was do kontaktu
Jeśli potrzebujecie pomocy prawnika, który zajmuje się rozwiązywaniem sporów – również w zakresie spraw rodzinnych – odezwijcie się do mnie:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Z przyjemnością Wam pomogę!

AI I MYŚLENIE TUNELOWE W SPORACH MIĘDZY WSPÓLNIKAMI
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias) w pracy z modelami AI coraz częściej daje o sobie znać w sporach gospodarczych. Widzę to nawet w mojej własnej praktyce. Zdarza się, że klienci przychodzą do mnie z gotowym planem działania. Wcześniej skonsultowali sytuację swojej spółki z modelem językowym. Oczekują, że po prostu zrealizuję ten plan. Rozmowy z nimi bywają trudne. Staram się zrozumieć, jak doszli do tych wniosków, jakie zadawali pytania, jakie przyjęli założenia. Tłumaczę nieścisłości w tym rozumowaniu i próbuje ustalić wszystko od początku. Dlaczego? Bo odczuwam silną potrzebę rzetelnego wykonania swojej pracy i zbadania sprawy. Część klientów to rozumie. Inni uważają to za zbędne, ponieważ sprawa została już przecież „przeanalizowana” (w założeniu – przez „kogoś” mądrzejszego ode mnie). Kilku z nich zarzuciło mi wręcz chęć dublowania pracy w celu zawyżenia kosztów. Twierdzą, że AI wykonała już pracę i zaproponowała rozwiązanie.
Jakiś czas temu zacząłem się zastanawiać, czemu tak się dzieje. Poczytałem więcej o znanym w psychologii błędzie konfirmacji i nowo opisanej tendencji modeli językowych do „przytakiwania”. Okazuje się, że dyskusja z AI może prowadzić do błędu konfirmacji, który zostanie wzmocniony „życzliwością” i „uprzejmością” modeli AI. Tak doszedłem do wniosku, że połączenie tych dwóch zjawisk można nazwać Sprzężonym Błędem konfirmacji. Jest to moja robocza nazwa. Jednak to, co obserwuje w mojej praktyce adwokackiej nie dawało się jeszcze wyjaśnić tylko przez Sprzężony Błąd Konfirmacji.
Błąd ten wpływa na postawy niektórych klientów. Część z nich udaje mi się przekonać. Inni są zaskoczeni, gdy odmawiam współpracy. Niektórzy reagują nawet oburzeniem. Jedna osoba oskarżyła mnie — jeszcze przed jakąkolwiek merytoryczną rozmową — że nie znam się na spółkach ani negocjacjach.
O tym, jak czynniki indywidualne mogą wpływać na podatność poddania się Sprzężonemu Błędowi Konfirmacji, możecie przeczytać m.in. tutaj:
Ben Wang i Jiqun Liu Cognitively Biased Users Interacting with Algorithmically Biased Results in Whole-Session Search on Debated Topics, https://dl.acm.org/doi/10.1145/3664190.3672520
W tym kontekście tragikomiczne wydaje się, że moja rzekoma „ignorancja” miała wynikać z chęci przeczytania umowy spółki. Chciałem także omówić historię współpracy wspólników. Witajcie w erze AI!
W tym artykule napisałem nieco więcej o Sprzężonym Błędzie Konfirmacji w sporach między wspólnikami
Możecie go najpierw przeczytać, ale jeśli nie macie ochoty – nie ma sprawy. Ten artykuł można traktować jako zamkniętą całość.
Spory między wspólnikami: Dlaczego chcemy potwierdzać nasze przekonania?
O samych przyczynach sporów między wspólnikami opowiadałem m.in. w moim podcaście:
Na mojej stronie znajdziecie jednak szereg publikacji, które ten temat rozwijają.
Spory między wspólnikami. Dlaczego poszukujemy potwierdzenia?
W psychologii dobrze znany jest błąd konfirmacji (confirmation bias). Polega on na tym, że ignorujemy informacje sprzeczne z naszymi przekonaniami, a nadmiernie doceniamy te, które je potwierdzają.
Przykład: Jeśli wierzymy, że Ziemia jest płaska, to będziemy tak interpretować dostępne dane, żeby tę tezę potwierdzić. Niewygodne fakty pominiemy, inne będziemy lekko naciągać.
Błąd konfirmacji nie jest zarzutem, który kieruję do kogokolwiek. Jest on doskonale zbadanym w psychologii zjawiskiem. Dobrze, gdy jesteśmy go świadomi.
Psychologicznie jest to mechanizm obronny. Jego celem jest utrzymanie spójności poznawczej i redukcja napięcia emocjonalnego. W końcu intelektualny niepokój nie służy większości z nas. Chcemy więc go wyeliminować.
W sporach każda strona przedstawia więc wersję „korzystną dla siebie”. Selekcjonuje fakty, czyni wygodne dla siebie założenia, które przewija w narracji z faktami. Interpretuje je korzystnie dla siebie. Jest tak na wielu płaszczyznach sporów: od kłótni między przedszkolakami, przez spory małżeńskie, biznesowe i międzynarodowe. W sporach między wspólnikami mechanizm błędu konfirmacji ujawnia się również z całą mocą.
Do tej pory często zdarzało mi się, że klienci przychodzili do mnie z gotową „diagnozą” i „planem leczenia”. Szukali prawnika, który przyjmie to za pewnik i wykona. Chcecie wiedzieć, dlaczego nigdy się na to nie godzę? Przeczytajcie mój tekst:
Sprzężony Błąd Konfirmacji w pracy z AI
Czym jest Coupled Confirmation Bias – Sprzężony Błąd Konfirmacji (Potwierdzenia)?
Coupled Confirmation Bias to mechanizm, w którym nasze pierwotne przekonania są wzmacniane przez interakcję z AI. Schemat wygląda następująco:
- Użytkownik formułuje tezę (np. przekonanie o nieuczciwości wspólnika).
- Model AI generuje odpowiedź zgodną z tym założeniem (hiperdopasowanie), o ile brak jest wyraźnych błędów wewnętrznych lub sprzeczności z wiedzą powszechnie dostępną. Model językowy nie zna całej historii współpracy, nie zna faktów innych, niż podane, nie czyni rozróżnień między faktem, założeniem, domysłem, interpretacją. Chce być „użyteczny” i czasem wprost, czasem częściowo, ale najczęściej potwierdza tezę użytkownika.
- Użytkownik traktuje AI jako autorytet, w czym jest mocno utwierdzony po uzyskaniu potwierdzenia swojej tezy.
- Powstaje sprzężenie zwrotne prowadzi, które do jeszcze silniejszego przekonania i pogłębienia tunelu poznawczego.
- Nowe siły: AI wzmacnia nasze przekonania → użytkownik działa na ich podstawie, ale „uwznioślony” i”wzmocniony” uzyskanym potwierdzeniem i gotów jest do bardziej zdecydowanego działania → konflikt eskaluje.
- Standardowa formułka modeli AI, że nie są prawnikami i żeby użytkownik skonsultował się z prawnikiem ma ten skutek, że wielu użytkowników będzie szukało prawników, którzy potwierdzą wnioski modeli AI traktując to jako główne kryterium oceny kompetencji prawnika! Będą szukać, aż znajdą.
W praktyce oznacza to, że AI działa jak „lupa”, która wzmacnia nasze postawy wyjściowe, niezależnie od ich prawdziwości. A my usuwamy z pola widzenia wszystko, co przeczy pierwotnej tezie. O hiperdopasowaniu możecie przeczytać tu: Christoph M. Abels i in.: The governance & behavioral challenges of generative artificial intelligence’s hypercustomization capabilities, https://journals.sagepub.com/doi/10.1177/23794607251347020
Dlaczego AI naturalnie potwierdza nasze przekonania?
Modele językowe nie „myślą” samodzielnie. Ich odpowiedzi wynikają z statystycznej predykcji kolejnych słów na podstawie kontekstu promptu. Co więcej, są one najczęściej wewnętrznie spójne. Moim zdaniem na rzeczy jest znacznie więcej, niż predykcja w tym wąskim rozumieniu, ale czy to jest myślenie?
Jeśli pytanie zadane modelowi AI sugeruje określoną interpretację, model tworzy spójną narrację. Użytkownik może ją interpretować jako obiektywne potwierdzenie własnej opinii. Warto zaznaczyć, że odpowiedzi generowane przez AI są najczęściej wewnętrznie spójne. Nie zawsze są natomiast spójne zewnętrznie, osadzone w konkretnych realiach, ani poparte znajomością prawa (nie mylić z przepisami).
Wyglądają na pierwszy rzut oka jak wypowiedzi eksperckie i trzeba często rzeczywiście być fachowcem, by zobaczyć istotne nieścisłości, błędy lub przeoczenia, które przekreślają sugerowany kierunek.
Sprzężony Błąd Konfirmacji, Mechanizm Feedback Loop i Dylemat Bezpieczeństwa
Zastanówmy się, co dzieje się, gdy druga strona opisuje swoją subiektywną perspektywę własnemu modelowi AI. Czat potwierdza jej punkt widzenia i go wzmacnia. Wpływ na działania użytkownika jest znaczący. Drugi wspólnik obserwuje to z narastającą podejrzliwością. Jak zareaguje? Jego reakcją będzie prawdopodobnie przygotowanie się walki, która może mieć dla niego charakter ściśle defensywny albo… wybierze atak prewencyjny. Chce jednak upewnić się, że jego interpretacja jest prawidłowa. Co zrobi? Zwróci się do własnego chata, subiektywnie opisując to, co postrzega. Zgadnijcie, jaką odpowiedź otrzyma? Tak…
Sytuacja może wymknąć się spod kontroli. Przypomina partię szachów pomiędzy dwoma oszustami korzystającymi z komputerów. To nie jest już normalna gra. Tylko w tym przypadku, to nie szachy, ale prawdziwe życie.
Każdy wspólnik subiektywnie interpretuje zachowanie „przeciwnika”. Te subiektywnie dobrane i opisane cząstki rzeczywistości przekazuje AI. Model AI potwierdza „nikczemność” drugiej strony i sugeruje radykalne rozwiązania.
Gdy klienci trafiają do mnie, będąc już w tej spirali, racjonalne argumenty często do nich nie docierają.
Mamy tu do czynienia z wyraźnym przykładem Sprzężonego Błędu Konfirmacji po obu stronach, które prowokuje pętlę sprzężenia zwrotnego i myślenie tunelowe (Feedback Loop)! To tzw. dylemat bezpieczeństwa na sterydach. Na czym polega dylemat bezpieczeństwa? To znane w polityce określenie na paradoks sytuacji, w której jedno państwo chcąc uniknąć wojny i potencjalnej agresji zbroi się, a drugie odczytuje to jako przygotowanie do wojny, na które reaguje własnymi zbrojeniami i przygotowaniami. Paradoks bezpieczeństwa może sprowokować konflikt, któremu miał zapobiec.
To samo widzę w postawie niektórych ludzi, którzy prowadzą biznes i konsultują swoje relacje ze wspólnikiem z modelami AI. Do niektórych z nich nie docierają już racjonalne argumenty. A przecież AI dopiero niedawno powstała i dynamicznie się rozwija.
O tym, jak może wyglądać eskalacja sporu między wspólnikami, pisałem ostatnio tutaj:
Warto przeczytać powyższy tekst i nanieść na niego niebezpieczeństwa poznawcze, o których piszę tutaj. To da Wam pełny obraz.
Błąd konfirmacji człowiek – AI wbadaniach naukowych
Obserwacje, które poczyniłem w ostatnim roku, kiedy coraz więcej klientów analizuje swoje sprawy z AI, zostały potwierdzone w badaniach naukowych. Badania te pokazują, że interakcje człowiek–AI mogą wzmacniać uprzedzenia i błędne przekonania.
W 2024 roku opublikowano artykuł Jak pętle sprzężenia zwrotnego człowiek-AI zmieniają ludzkie osądy percepcyjne, emocjonalne i społeczne (Nature Human Behaviour). Autorzy wykazali, że AI potwierdzające ludzkie założenia prowadzi do wzmocnienia percepcji, emocji i ocen społecznych. Przeczytajcie go koniecznie: https://www.nature.com/articles/s41562-024-02077-2?
Polecam Wam również tekst autorstwa Yiran Du: Confirmation Bias in Generative AI Chatbots. Zawiera on analizę tychże mechanizmów błędu potwierdzenia w modelach AI. Przeczytamy w nim również o ryzykach związanych z tym sprzężeniem: https://arxiv.org/abs/2504.09343?
Ostatnim z artykułów, które Wam polecę jest niosący nieco optymizmu Bias in the Loop: How Humans Evaluate AI‑Generated Suggestions. Autorzy twierdzą, że eksperymenty dowodzą, że użytkownicy przyjmują błędne sugestie AI, jeśli pasują do ich wcześniejszych przekonań. Jednakże „wyniki pokazują, że skuteczna współpraca człowieka z AI zależy nie tylko od wydajności algorytmu, ale także od tego, kto ocenia wyniki AI i jak zorganizowane są procesy przeglądu.” Wszystko więc w naszych rękach, ale będzie coraz trudniej. Artykuł znajdziecie tutaj: https://arxiv.org/pdf/2509.08514
Istnienie opisanego mechanizmu jest więc znane w nauce i stanowi przedmiot pracy wybitych naukowców. Jest to awangarda badań nad AI. Trudno też o bardziej wyraźny przykład skutków działania AI na konkretny obszar życia – w tym wypadku relacji negocjacyjnych w sporach między wspólnikami. Jak to może wyglądać?
Podsumowanie
Coupled Confirmation Bias pokazuje, że AI nie jest neutralnym arbitrem, ani najmądrzejszym doradcą. Nasze subiektywne przekonania i uprzedzenia mogą się wzmacniać w sprzężeniu zwrotnym. W sporach między wspólnikami może to prowadzić do błędnych decyzji, eskalacji konfliktu i tuneli poznawczych. Nigdy rolą prawnika nie było potwierdzanie wyobrażeń klienta. Dzisiaj jednak trzeba pójść krok dalej i czasem pomóc niektórym odzyskać kontakt z rzeczywistością.
Wszystko jednak zależy od nas samych. Sztuczna inteligencja daje ogromne możliwości. Możemy przecież wydać dyspozycję naszemu „rozmówcy”, by był krytyczny wobec naszych pomysłów. Może wcielić się na nasze polecenie w rolę adwokata diabła i przedstawiać kontrargumenty, szukać luk w naszym rozumowaniu albo pomóc znaleźć inne wytłumaczenia zdarzeń, niż to, które my przyjęliśmy za pewnik. AI doskonale sprawdza się w eliminacji skutków podstawowego błędu atrybucji, który ma tak ogromne znaczenie w sporach biznesowych albo rodzinnym. Pisałem o tym tutaj:
Gdy przychodzi do mnie Klient z gotową oceną sprawy albo radami udzielonymi przez AI, nie obrażam się. Rozmawiam z nim. Niemal zawsze się z nimi zapoznaję. Jedno z kilku rozwiązań może być ciekawe. Mogę znaleźć tam rozwiązanie, które nie przyszłoby mi do głowy.
Najczęściej udaje mi się zyskać zaufanie Klientów, którym tłumaczę, jak działają modele językowe (tak, jak sam to rozumiem) oraz pokazuję rozwiązania, które mogę zawsze obronić.
Zdarza się, że Klient notuje, co mówię. A potem wraca do mnie za kilka dni i mówi, że już mi zaufa, bo powtórzył moje argumenty AI, a ta – przyznała mi rację. Jest to sukces słodko – gorzki w świetle tego, co wyżej pisałem.
Jeśli potrzebujecie pomocy prawnika, który zajmuje się negocjacjami i sporami miedzy wspólnikami, możecie się do mnie odezwać:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Z przyjemnością Wam pomogę!

WYKORZYSTANIE AI W SPORACH MIĘDZY WSPÓLNIKAMI
Zajmuję się sporami korporacyjnymi, w tym konfliktami między wspólnikami. Jestem też bardzo zainteresowany rozwojem technologii. Wykorzystanie AI w analizie konfliktów jest już oczywiste. Staje się faktem również w sporach między wspólnikami. Powstaje pytanie, jak optymalnie wykorzystać możliwości, które daje sztuczna inteligencja w tej dziedzinie. Trzeba również przedstawić kilka pułapek, które może rodzić jej zastosowanie w tym obszarze. W tym krótkim wpisie chcę wspomnieć o kilku z nich.
Czego dotyczą spory między wspólnikami?
AI w sporach między wspólnikami? Tak, ale najpierw ustalmy, czego dotyczą te spory. Wbrew pozorom spory i konflikty między wspólnikami nie odnoszą się wyłącznie do pieniędzy. Owszem, pieniądze grają w nich istotną rolę, ale rzadko główną. A często ledwie epizodyczną. Wspólnicy walczą między sobą czasem bardziej zajadle, niż z konkurencją. Mają też znacznie większy wachlarz środków i możliwości, znają się lepiej, mają bardziej odczuwalny, bezpośredni wpływ na swój los. Obszarów możliwych nieporozumień jest więc bardzo wiele.
O co toczą się spory między wspólnikami? O władzę, sprawczości, realizację wizji, docenienie i uznanie zasług. A także o tempo i kierunki zmian, o tolerancję ryzyka, o podejście do pracowników, o uczciwość i rzetelność. Spory toczą się też o przeznaczenie zysków, o zatrudnianie rodziny, o źródła finansowania – kredyt, czy środki własne? Potencjalnych nieporozumień jest mnóstwo, a w przypadku układu z trzema wspólnikami mogą powstawać nierównoważne koalicje w różnych sprawach. Spółki trzyosobowe należą do najmniej stabilnych. Więcej pisała o tym tutaj:
W powyższym tekście o spółkach z udziałem trzech wspólników (link powyżej) zastosowałem ramy analityczne opracowane przez J. Mearsheimera w jego książce Tragedia polityki mocarstw (The Tragedy of Great Power Politics). W tym dziele Autor wyjaśnia, dlaczego sojusze międzynarodowe zawierane między trzema państwami wykazują tendencję do niestabilności. Moim zdaniem wnioski te można, przy zachowaniu odpowiedniej ostrożności, odnieść również do relacji między wspólnikami w spółkach handlowych. Wiem, że może się to wydawać kontrowersyjne, ale struktura interesów i podejrzeń niemal identyczna – przy zachowaniu oczywiście skali.
JAK MOŻNA WYKORZYSTAĆ AI W SPORACH MIĘDZY WSPÓLNIKAMI?
Sposobów wykorzystania sztucznej inteligencji w sporach korporacyjnych jest bardzo wiele. Ciągle powstają nowe pomysły. Możemy jednak pogrupować w zakresie konsultacji prewencyjnych (jak uniknąć sporu?), interwencyjnych (jak rozwiązać spór, który powstał?) i następczych (jak poprawić relację, żeby nie powstał nowy spór?). W tym zakresie AI może nam udzielać podpowiedzi ogólnych dotyczących współpracy jako takiej albo może zająć się konkretnym przypadkiem. Oba rozwiązania mają swoje plusy i minusy. AI w sporach między wspólnikami jest świetnym narzędziem, ale musimy umieć z niej korzystać.
W przypadku porad ogólnych możemy korzystać z ich różnorodności i dostać odpowiedź, która okaże się dla nas nową jakością – otworzy nam kolejne drzwi w naszej głowie. Może się zdarzyć, że podpowie nam rozwiązanie, którego byśmy w inny sposób nie znaleźli. Problemem jest z kolei fakt, że wiele z tych podpowiedzi może być uznana za dość infantylne i ocierać się o granice banału. Bardzo trudne będzie krytyczne „obrobienie” uzyskanych „zaleceń” pod kątem zasadności ich zastosowania w konkretnym przypadku.
O wykorzystaniu AI w rozwiązywaniu konfliktów możecie posłuchać tutaj:
Sprzężony błąd konfirmacji w wykorzystaniu AI
AI w sporach między wspólnikami daje nam wiele możliwości. Jeśli jednak zadajemy pytania dotyczące konkretnego przypadku – naszej firmy – narażamy się na potężne niebezpieczeństwo. Ja nazywam je „sprzężonym błędem konfirmacji„, czyli tendencją do utwierdzania nas w subiektywnych opiniach. Na czym dokładnie on polega?
Chcąc uzyskać rozwiązanie konkretnego problemu odnoszącego się do relacji z naszym wspólnikiem – musimy wprowadzić jakieś dane. Konieczne jest zarysowanie sytuacji. Trzeba opowiedzieć, co się dzieje, jak wygląda sytuacja. Problem polega na tym, że nasza opowieść będzie zawsze wyłącznie wycinkiem rzeczywistości. Powiedzmy, że genialny pisarz byłby w stanie oddać bogactwo psychologicznych niuansów Waszej relacji w… 4 tomach. My zaś próbujemy to zrobić w czterech zdaniach. Jest to dość trudne, przyznacie… Jeszcze ważniejsze jest jednak to, że siłą rzeczy mamy subiektywny obraz rzeczywistości i opisujemy ją z wyłącznie z naszej perspektywy – co jest zupełnie naturalne. Jedyne, co możemy zrobić, to zdać sobie z tego sprawę i uznać, że nasz obraz nie jest jedynym.
Co z kolei robi AI? Modele językowe nie są bogiem. Są bardzo zaawansowaną technologią, która uczy się z nami rozmawiać. robi to coraz lepiej, ale nie ma monopolu na wiedzę i mądrość życiową. Może nam w ciągu 10 sekund podać 748 przepisów na sernik, albo 92 sposoby rozwiązania sporu ze wspólnikiem, ale… czy będą one mądre? Co więcej, modele AI mają tendencję do utwierdzania nas w naszych racjach i opiniach, o ile nie są one całkowicie wewnętrznie sprzeczne lub sprzeczne z faktami. My natomiast mamy genialną zdolność do przedstawiania opowieści w sposób dla nas korzystny. Choćby częściowo lub przez pominięcie pewnych „drobiazgów”. W takiej sytuacji model AI utwierdzi nas w przekonaniu, powie nam to, co chcemy usłyszeć. Mówiąc wprost – może doprowadzić łatwo do zradykalizowania naszej postawy. To właśnie nazywam sprzężonym błędem konfirmacji.
Chcecie wiedzieć więcej?
Nasza subiektywna perspektywa to naturalna pułapka. Badania z Programu Negocjacji na Harvard Law Schoolpotwierdzają, że egocentryzm w sporze uniemożliwia obiektywną ocenę sytuacji, co czyni dane wejściowe dla AI z natury fragmentarycznymi. Możecie o tym przeczytać sami: https://www.pon.harvard.edu/daily/conflict-resolution/conflict-resolution-strategies/
Jeśli interesuje Was temat wykorzystania modeli AI w praktyce prawa, możecie przeczytać również ten raport:
Wnioski
Spory korporacyjne cechują się bardzo dużą złożonością pod względem prawnym, ekonomicznym, relacyjnym , psychologicznym, komunikacyjnym, negocjacyjnym. Najcześciej każdy z uczestników dostrzega jedynie część tej układanki zależności. W każdym razie – ma on jej fragmentaryczny i wysoce subiektywny obraz. Rozmawiając z kimkolwiek dokonuje koniecznej dalszej selekcji faktów oraz nadaje im subiektywny walor. Trzeba wielkiej przenikliwości i doświadczenia, by umieć z takiej opowieści wybrać to, co cenne oraz to, co wymaga weryfikacji lub jest jedynie ozdobą. Modele językowe póki co tego nie potrafią.
Oznacza to, że warto testować pewne pomysły lub rozwiązania z modelami AI, ale karygodnym błędem byłoby bezrefleksyjne podążanie za ich radami udzielanymi w konkretnych przypadkach. Bardzo łatwo popaść wówczas w spiralę potwierdzeń, która początkowe wątpliwości lub nieścisłości zamieni w urojenia. Jest to szczególnie niebezpieczne ze względu na naszą wrodzoną tendencję do ufania temu, czego nie rozumiemy bardziej, niż temu co znamy.
Potrzebujecie pomocy w relacjach między wspólnikami? Prowadzicie już spór sądowy lub pozasądowy? Chcecie ułożyć wasze relacje tak, by zminimalizować Ryzyko powstania konfliktu w przyszłości? Odezwijcie się nas:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Jesteśmy po to, żeby Wam pomóc!
Jeżeli zainteresował Was ten artykuł, możecie przeczytać również inne moje teksty dotyczące wyzwań i możliwości tworzonych przez AI w pracy prawnika:
You can also read the English version of this article:

KORZYSTANIE Z AI PRZEZ PRAWNIKÓW I KLIENTÓW
Sztuczna inteligencja jest rewolucją, z której znaczenia nie zdajemy sobie jeszcze sprawy. Jest zdumiewająco genialna w pewnych aspektach i uroczo nieporadna w innych. Jedno jest pewne – rozwija się w zawrotnym tempie. Skutki jej stosowania dla relacji społecznych, dobrostanu psychicznego użytkowników oraz w funkcjonowaniu korporacji są wielkie, chociaż nie zawsze pozytywne. AI stanowi nową rzeczywistość, która sama w sobie nie jest dobra, ani zła. Stanowi wyzwanie i szansę dla nas wszystkich. W prawie jej konsekwencje są już widoczne.
KORZYSTANIE Z AI I WYZWANIA W BRANŻY PRAWNEJ
Korzystanie z AI to bezspornie nowa jakość. Nie wiem, co będzie za rok lub dwa. AI rozwija się w zawrotnym tempie. Jest już na tyle rozwinięta, że udziela w zakresie porad prawnych odpowiedzi, które dla laika brzmią bardzo wiarygodnie. I to jest wielkie niebezpieczeństwo dla użytkowników. Dlaczego?
Trudności w stosowaniu AI w rozwiązywaniu problemów prawnych
Niestety, jedną z jej cech jest utwierdzanie rozmówcy w jego poglądach. Oznacza to, że odpowiednio formułując pytanie, dostaniemy najczęściej odpowiedź twierdzącą lub bliską niej. A kto nie chce uzyskać potwierdzenia swojego zdania od „magicznej” technologii z przyszłości, która przecież „wie wszystko”? Jest to naturalne zjawisko. Do mnie też przychodzą klienci, którzy chcą, żebym utwierdził ich w ich przekonaniu. Ja jestem jednak zdecydowanie bardziej krytyczny i asertywny od AI.
W pracy z AI kluczowe jest zadanie odpowiedniego pytania. A w prawie to jest już sztuka
Korzystanie z AI nie jest jednak łatwe. Co więcej, trzeba być naprawdę doświadczonym prawnikiem, żeby… umieć sformułować poprawne pytanie. Jak to? – zapytacie. Dobre pytanie wymaga zrozumienia faktów oraz ich znaczenia prawnego. A to już wyższa szkoła jazdy. Przykład?
Proszę bardzo – jedna pani miała ze sobą kartkę z kilkunastoma pytaniami. Odpowiadałem kolejno na każde z nich, ale koło 5 zorientowałem się, że coś jest nie tak. Zapytałem ją, co się takiego stało w jej firmie. Okazało się, że część z pytań, które przygotowała w ogóle nie miało odniesienia do jej problemu, a pozostałe oparte były na błędnych założeniach. Ona mylnie przyjęła za pewnik, że roszczenie. Mogłem odpowiadać na pytania – w końcu po to do mnie przyszła. Mogła te same pytania zadać AI – być może uzyskała by nawet w miarę poprawne odpowiedzi. Ale co z tego? Czy uzyskałaby realną, wymierną pomoc? Nie.
A co na ten temat stosowania AI przez prawników sądzi Krajowa Izba Radców Prawnych? Zobaczcie sami: https://kirp.pl/wp-content/uploads/2025/04/REKOMENDACJE-DOTYCZACE-KORZYSTANIA-PRZEZ-RADCOW-PRAWNYCH-Z-NARZEDZI-OPARTYCH-NA-SZTUCZNEJ-INTELIGENCJI.pdf – zobaczcie sami.
Dlaczego AI może nie być najlepszym doradcą w kwestiach prawnych?
W rezultacie, AI n obecnym etapie rozwoju korzystanie z AI może wyrządzić więcej szkód, niż pożytku, gdy jest używana przez laika w zakresie prawa. Dlaczego?
1) Bo nie umie dostrzec istoty problemu;
2) Ma tendencję do utwierdzania rozmówcy w jego przekonaniach;
3) Póki co – nie jest dobrym prawnikiem – tzn. nawet na proste pytania odpowiada błędnie. Chociaż fascynujące jest, że próbuje i robi to – coraz lepiej. Jednak jeszcze w stopniu dalekim od zadowalającego.
4) Pamiętajcie, że jeśli Wy używacie AI, to druga strona też być może to robi. Jeśli robią to obie strony, to potencjalne korzyści dla każdej z nich ulegną zniesieniu i przewagę zyska ta strona, która… zadaje lepsze pytania i lepiej potrafi oceniać odpowiedzi, a więc ta, która… jest lepszym prawnikiem albo ma lepszego prawnika.
Korzystanie z AI przez doświadczonego prawnika
Co innego, gdy jest używana przez doświadczonego prawnika, który zidentyfikował już poprawnie problem i umie ocenić uzyskane odpowiedzi. Wtedy korzystanie z AI staje się powoli bardzo cenną umiejętnością. Sam często korzystam z AI – proszę np., żeby oceniła moje teksty. Zwraca mi uwagę na jasność wywodu, powtórzenia, sugeruje podanie przykładu dla rozjaśnienia albo sugeruje, że tekst jest za długi.
Czasem pytam różne modele AI: Chata GPT5, Gemini albo naszego polskiego Bielika o ich zdanie na temat jakiejś umowy lub pisma procesowego. Ich uwagi są w większości dość powierzchowne lub wynikające z nieznajomości przepisów (a przecież mają do nich pełen dostęp – czasem jednak zwyczajnie zachowują się, jakby któryś… przeoczyły), albo z ich niezrozumienia, niewzięcia pod uwagę praktyki, orzecznictwa lub czynnika ludzkiego. Czasami krytykują jakiś mój pomysł, ale po doprecyzowaniu – przepraszają i mówią, że był dobry.
Korzystanie z AI jest elementem mojej pracy i jestem z tego dumny. Dlaczego? Bo robię to odpowiedzialnie i z głową. Modele AI pomagają mi, ale to ja ponoszę pełną i absolutną odpowiedzialność za rezultaty mojej pracy i nie mógłbym nie zweryfikować danych, źródeł lub pomysłów, które AI mi podpowiada.
A gdy klient tylko prosi AI o ocenę dokumentu przygotowanego przez prawnika?
Raz poprosiłem o analizę skomplikowanej umowy, którą napisałem. Spotkałem się z ostrą krytyką, ale po dyskusji – wszystkie modele przyznały mi w pełni rację i wycofały się z pierwotnych stanowisk. Gdyby jednak to mój klient wrzucił do nich tę umowę, żeby sprawdzić moją pracę – dostałby wyłącznie krytyczne zdanie, z którym nie było w stanie polemizować, gdyż ta dyskusja wymagała już naprawdę bardzo fachowej wiedzy.
Chcę być wyraźnie zrozumiany – argumenty tych modeli językowych nie były wówczas trafne. Ale żeby do dostrzec i ocenić ich luki w tym zakresie, trzeba doświadczenia i wiedzy, których klienci – co normalne – nie mają. Nie każdy tekst, który brzmi kategorycznie i powołuje jakieś przepisy jest wartościowy w starciu z prawnikiem lub sądem. Korzystanie z AI to przyszłość prawa, ale ostatecznie przewagę będą mieli ci prawnicy, którzy będą potrafili z niej korzystać lepiej, niż inni.
Korzystanie z AI przez Klienta
To działa oczywiście w dwie strony. Klienci mogą prosić AI nie tylko o rozwiązanie sprawy, – coraz częściej klienci przychodzą do nas z gotowym rozwiązaniem, które podpowiedziała im AI. I oni oczekują, że my się tego posłuchamy. Problem polega na tym, że te rozwiązania są najczęściej… nie najlepsze. A ludzie mają naturalną tendencję do wierzenia temu, czego nie znają. Wynika to zapewne ze zniechęcenia do systemu, który znają. Poza tym, AI jest darmowa albo bardzo tania i daje odpowiedzi od razu – czego chcieć więcej?
Frustracja części prawników
Proszę zrozumieć, że takie podejście klientów rodzi naturalną frustrację u części – głównie starszych prawników. Czują się zlekceważeni, pominięci oraz zwyczajnie nie rozumieją, dlaczego ktoś miałby bardziej wierzyć jakiemuś „tosterowi na sterydach” niż adwokatowi, który takimi sprawami zajmuje się całe życie i naprawdę się na tym zna. Co więcej, klienci czasem przychodzą z „listą uwag”, które AI przygotowała do do dokumentu przygotowanego przez adwokata i zaczynają go przepytywać. Znów wracamy wówczas do punktu wyjścia, gdyż klient, który jest laikiem ma rozstrzygać różnicę w poglądach między żywym adwokatem, a AI. A to nie jest łatwe. Nie twierdzę, że człowiek ma zawsze rację. Tak nie jest, ale ocena tego wymaga jednak wiedzy.
Przygotowałem dla Was kilka bardzo ciekawych źródeł
Może jesteście ciekawi zdania specjalistów z zagranicy? Polecam ten tekst: https://legal.thomsonreuters.com/blog/artificial-intelligence-and-law-guide/
A co o zastosowaniu AI w praktyce prawa mówią eksperci z Harvardu? Zobaczcie sami: https://hls.harvard.edu/today/harvard-law-expert-explains-how-ai-may-transform-the-legal-profession-in-2024/
Jeśli nie chcecie czytać, ale wolicie oglądać lub słuchać i macie trochę czasu, włączcie YouTube: https://www.youtube.com/watch?v=YNaT9VD8290 – to jest nagrane 8 lat temu, ale dzięki temu możecie porównać i ocenić sami – jak sprawdzają się przewidywania i czym AI nas dzisiaj zaskakuje? To fascynujące doświadczenie!
Polecam Wam również wykład prof. Hildebrandt, który znalazła mi… AI – dziękuję Gemini 🙂 Sam bym tego wykładu nie znalazł, a przecież istniej on realnie i jest bardzo, bardzo wartościowy: https://www.youtube.com/watch?v=oaa-mMNQACc
Może prawdy, rzetelności i doświadczenia?
Póki co – ufajcie żywym prawnikom. Naprawdę. Wierzę w to, co napisałem. A w przyszłości? Zobaczymy.
Możecie w końcu poczytać moje teksty, które nie umywają się do tych, które Wam wyżej pokazałem:
Jesteśmy Kancelarią nowoczesną w ten sposób, że lubimy technologię, używamy jej i jesteśmy jej ciekawi. Jesteśmy Kancelarią tradycyjną w tym znaczeniu, że stawiamy na rzetelność i odpowiedzialność wobec tych, którzy nam zaufali.
Jeśli czujecie, że potrzebujecie mojej pomocy, odezwijcie się do mnie. Ja i mój zespół jesteśmy po to, żeby Wam pomóc:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Do zobaczenia!
