
SPRAWY RODZINNE – WALKA CZY WSPÓŁPRACA?
Sprawy rodzinne są emocjonalnie trudne. Często wiążą się z wieloma pretensjami i krzywdami. Każda ze stron uważa najczęściej, że to jej dzieje się krzywda. Między walczącymi rodzicami są dzieci – często bezbronne i wystraszone. Kiedy indziej cierpi wspólnie budowana przez małżonków firma. Czy sprawy rodzinne muszą zawsze oznaczać brutalną walkę? Czy i kiedy jest szansa na dobre porozumienie albo współpracę?
Dlaczego decydujemy się na walkę w sprawach rodzinnych?
Sprawy rodzinne cechują się – co zrozumiałe – silnymi emocjami. Są to poczucie krzywdy, wstydu, żal, złość, gniew, ale i strach, lęk, wyrzuty sumienia. Najczęściej, emocje te mieszają się i występują obok siebie. Nie bez znaczenia są kwestie wizerunkowe – przejmujemy się tym, „co ludzie powiedzą”. Walczymy w końcu o alimenty, podział majątku. I na tym tle dochodzi do wielu nieporozumień. Dzieci – niestety – często traktowane są w tych sprawach przedmiotowo.
Przede wszystkim jednak – nie potrafimy ze sobą rozmawiać. Ludzie rozstają się, gdyż często nie potrafili rozmawiać ze sobą już wcześniej. Tym trudniej jest im więc rozmawiać ze sobą wtedy, gdy ich świat się wali, a emocje lub „życzliwe” osoby stają się głównymi doradcami. Ostatnio do grona tych doradców dołączyły modele językowe sztucznej inteligencji. Są one wyjątkowo niebezpieczne w tej roli, gdyż mają pewną niebezpieczną cechę –utwierdzają rozmówcę w jego pierwotnych przekonaniach. Sprawiają przy tym wrażenie obiektywnych i „wszystko wiedzących”, dlatego użytkownik czuje się dodatkowo wzmocniony „autorytetem” AI.
Sprawy rodzinne: Jak działa podstawowy błąd atrybucji?
W sprawach rodzinnych wyjątkowo mocno ujawnia się podstawowy błąd atrybucji. Jest to znana psychologii tendencja do tłumaczenia cudzego zachowania przez jego wewnętrzne cechy. W sporach rodzinnych bardzo łatwo przychodzi nam tłumaczenie zachowań drugiej strony przez przypisywanie jej negatywnych cech: „leniwa”, „głupi”, „chciwa”, „przemocowiec”, „narcyz” itp.
Co „zyskujemy” przez podstawowy błąd atrybucji w sprawach rodzinnych?
W ten sposób osiągamy niskim kosztem dwa cele na raz: 1) unikamy konieczności zmierzenia się z argumentacją drugiej strony; 2) stawiamy się na przeciwległym biegunie. W ten sposób nazywając drugą stronę „głupią i leniwą” przekreślamy jej argumenty, a jednocześnie pokazujemy siebie jako „mądrych i pracowitych”. To bardzo łatwe i przyjemne. Ale jednocześnie niebezpieczne: zaczynamy myśleć w kategoriach dobra i zła, a to nie zbliża nas do porozumienia. W końcu – jak wielu z nas rozumuje – z tym „złym” się nie rozmawia! Z tym „złym” się walczy!
Panie Mecenasie, z nim nie da się rozmawiać!
Chyba tylko „dzień dobry” słyszę w Kancelarii częściej. Możecie mi nie wierzyć, ale ponad 90% moich Klientów w sprawach rodzinnych mówi, że z drugą stroną nie da się rozmawiać.
Czy w ten sposób nie idziemy jednak na skróty i nie staramy się uniknąć rozmów trudnych, nieprzyjemnych niewygodnych? Czy nie staramy się uniknąć konieczności zmierzenia się z własnymi błędami lub częściowo chociaż uzasadnionymi oczekiwaniami drugiej strony?
Co sprawia, że jesteśmy gotowi i skłonni raczej położyć się i umrzeć? A nie widzimy możliwości… rozmowy? Czy nasza tragiczna historia nie sprawia, że nie cenimy rozmowy, umiarkowania i porozumienia, a upatrujemy sensu, siły i celu w tym, żeby raczej walczyć do końca i demonizować przeciwnika?
Staram się tłumaczyć moim Klientom, że odmowa rozmów to nie dowód siły. To kapitulacja wobec wspólnego problemu. Ludzie niestety znacznie łatwiej wybierają drogę związaną z pozbawieniem się możliwości manewru i sprawczości. Godzą się na cierpienie własne, dzieci, rodziny, byle tylko móc uchodzić za niezłomnych w oczach drugiej strony, na opinii której ponoć w ogóle im już nie zależy. Dla mnie to sprzeczność, która przysparza ludziom mnóstwa cierpienia. Uważam za swój obowiązek zwracać im na nią uwagę.
O tym, że odmowa rozmów jest faktyczną kapitulacją pisałem już w tym artykule:
Tutaj znajdziecie pierwszy z cyklu artykułów o tym, czemu rozmawiać nie chce druga strona:
Sąd nie rozwiązuje problemu, ale rozstrzyga. To różnica
Sąd nie jest od rozwiązywania problemów. Sąd jest od rozstrzygania sporów. Rozstrzygniecie polega na tym, że sąd przyznaje rację jednej ze stron. Ale w ten sposób nie usuwa problemu. Najczęściej tworzy nowy. Proces sądowy ukierunkowany jest na walkę stron. Każda z nich stara się przekonać sędziego, że ta druga jest „złym człowiekiem”. I tak schodzi ludziom kilka lat. Spór rośnie, a strony stają się jego zakładnikami. Angażują coraz bardziej swoje imię, znajomych, rodziny, ale również prawników. Ponoszą coraz większe koszty, więc angażują się i zrastają ze swoimi żądaniami coraz mocniej. A na końcu sąd wydaje wyrok, który po jednej ze stron spowoduje poczucie krzywdy i chęć rewanżu. To jest droga, która najczęściej nie prowadzi donikąd.
Kiedy walczyć w sprawie rodzinnej?
Są oczywiście sytuacje, kiedy rozmowa (eufemistycznie) nie będzie pierwszym wyborem. Dotyczy to przypadków realnej przemocy, wykorzystywania seksualnego dzieci lub popełnienia innych, ciężkich przestępstw przeciwko małżonkowi, dzieciom lub najbliższej rodzinie. Jednakże są to przypadki dość rzadkie. Najczęściej, pole do porozumienia realnie istnienie. Dlaczego dorośli ludzie mieliby nie być w stanie porozumieć się co do grafiku kontaktów lub opieki nad dzieckiem? Czy naprawdę nas to przerasta do tego stopnia, żebyśmy oczekiwali, że zrobi to za nas sąd po 3 latach procesu?
Problemem nie jest to, że korzystamy z prawa do sądu. Problemem jest to, że robimy to zbyt szybko. Idziemy walczyć zanim spróbowaliśmy realnie się porozumieć. Zbyt szybko rezygnujemy z możliwości załatwienia swoich spraw i angażujemy się w niepotrzebną walkę w sądzie. Robimy to zamiast podjąć realne próby porozumienia. Czynimy tak również z jeszcze jednego – bardzo prostego powodu – złość i duma przeszkadza nam w myśleniu.
Sąd powinien rozstrzygać spór, gdy stronom nie udało się go rozwiązać w sposób polubowny. Ale rolą stron i mądrych pełnomocników jest to, by od tej próby zacząć. Jeśli nie przyniesie rezultatu, trzeba będzie pójść do sądu. Ale wtedy postępowanie sądowe wygląda już inaczej – jest znacznie bardziej rzeczowe, spokojniejsze.
O roli mediacji w sprawach rodzinnych możecie poczytać na stronie Amerykańskiego Stowarzyszenia Arbitrażu: https://www.adr.org/mediation-industries/family-mediation/
lub na stronie Sądu Okręgowego w Łodzi: https://lodz.so.gov.pl/mediacje,m,mg,141,s,0
O standardach mediacji w sprawach rodzinnych przeczytacie na stronie Polskiego Centrum Mediacji: https://mediator.org.pl/baza-wiedzy/standardy-mediacji/#standardy-mediacje-rodzinne
Sprawy rodzinne. Zaproszenie do kontaktu
Jeśli potrzebujecie pomocy w sprawie rodzinnej, bo czujecie, że utknęliście i chcecie skorzystać z innego podejścia, odezwijcie się do nas. Pomagamy naszym Klientom rozwiązywać ich problemy, zaczynamy niemal zawsze od środków polubownych. To naprawdę działa.
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935

CYFROWY GASLIGHTING W NEGOCJACJACH
Negocjacje są grą psychologiczną. Ludzie zawsze próbowali wpływać na siebie, testować swoje granice, budować i wykorzystywać przewagi. Jednak dziś do tej gry dołącza nowy uczestnik – niewidzialny, szybki i pozbawiony emocji. Algorytm. Może on stać się „wspomaganiem” jednej ze stron. Może być narzędziem, które nie tylko wzmacnia argumenty, ale tworzy groźny nacisk emocjonalny.
Czym jest cyfrowy gaslighting?
Cyfrowy gaslighting to wykorzystanie sztucznej inteligencji do generowania komunikatów, które mają podważyć osąd przeciwnika, wywołać w nim nieuzasadnione poczucie winy, lęku lub dezorientacji. Używam tego pojęcia nie w sensie klinicznym, lecz jako skrótu opisującego algorytmicznie wzmacnianą manipulację poznawczą w komunikacji negocjacyjnej. To już nie jest zwykła perswazja. To precyzyjna inżynieria wpływu. Mamy do czynienia z manipulacją napędzaną najnowszą technologią. Jest to przeskok jakościowy, z jakim jeszcze nie mieliśmy do czynienia.
Sam fakt wykorzystywania AI w sporach jest już faktem. Przeczytajcie mój artykuł zawierający wyniki naszego badania: https://jakubieciwspolnicy.pl/badanie-ai-jako-ukryty-sojusznik-w-sporach/
Jakie korzyści daje cyfrowy gaslighting?
Dlaczego ta technika działa tak skutecznie? Przede wszystkim dlatego, że AI potrafi analizować styl pisania z dokładnością, której człowiek nie jest w stanie osiągnąć. W kilku akapitach potrafi wychwycić skłonność do przepraszania, unikania konfliktu, nadmiernego tłumaczenia się czy lęku przed oceną. Są to klasyczne markery słabszej pozycji negocjacyjnej – wcześniej wykorzystywane intuicyjnie, dziś identyfikowane i wzmacniane algorytmicznie.
A potem AI generuje komunikaty, które uderzają dokładnie w te punkty. To hiperdopasowanie sprawia, że odbiorca ma wrażenie, jakby druga strona „czytała mu w myślach”. W rzeczywistości to nie intuicja, lecz analiza wzorców językowych: modalności, stopnia pewności, afektywności i sposobu uzasadniania własnych racji. Mamy do czynienia z automatycznym doborem formy i argumentów, które z natury rzeczy wywrzeć mają najsilniejszy możliwy wpływ na odbiorcę według uzyskanych wcześniej wskazówek. AI przy tym „nie wie”, że robi coś złego.
Drugą przewagą jest brak hamulców. Człowiek, nawet cyniczny, ma naturalne ograniczenia: empatię, zmęczenie, moralny opór, strach przed przesadą (pomijam teraz psychopatów i socjopatów). AI nie ma żadnego z tych oporów. Jeśli dostanie cel: „wywołaj w nim wątpliwość”, zrobi to w sposób chłodny, konsekwentny i pozornie uprzejmy. Nie poczuje dyskomfortu, nie cofnie się, nie złagodzi tonu. To komunikacja zaprojektowana wyłącznie pod kątem skuteczności, a nie relacji.
Trzecia przewaga to efekt szybkości i skali. Człowiek napisze jedną wiadomość, a AI sto – i to bez wysiłku. Wybierze też tę, która najlepiej destabilizuje emocje ofiary i przesuwa punkt odniesienia. To jak walka z przeciwnikiem, który może trenować nieskończoną liczbę kombinacji, zanim wykona ruch. Nic dziwnego, że odbiorca czuje się przytłoczony – bo faktycznie mierzy się z czymś, co ma nieludzką przewagę. Dla większości ludzi może to się okazać zbyt trudne.
Jak rozpoznać, że przeciwnik wykorzystuje AI?
Jak rozpoznać, że po drugiej stronie „pisze” algorytm? Pokazuję niżej kilka sygnałów. Żaden z nich nie jest dowodem sam w sobie. Stanowią one jednak zespół sygnałów ostrzegawczych. Ich wystąpienie może sugerować duże ryzyko algorytmicznego wsparcia jednej ze stron.
Pierwszym z nich jest nienaturalna intensywność. Komunikat jest zbyt gęsty od argumentów, zbyt „czysty” stylistycznie, zbyt precyzyjnie trafia w emocje. Brzmi jak człowiek, który miał godzinę na przemyślenie każdego zdania – ale odpowiedź przyszła bardzo szybko.
Drugim sygnałem jest brak ludzkiego błędu: brak dygresji, wahań, niekonsekwencji, potknięć językowych. To język wygładzony do granic sztuczności.
Trzeci sygnał to pętla potakiwania – każda Twoja wątpliwość spotyka się z natychmiastowym, perfekcyjnie skrojonym kontrargumentem, a każda próba zmiany tematu kończy się powrotem do narracji korzystnej dla drugiej strony. To nie jest rozmowa. To algorytmiczna spirala nacisku.
Czwartym sygnałem może być widoczna różnica miedzy stylem wypowiedzi, używanym słownictwem i poziomem argumentacji miedzy tekstem pisanym, a tym, co druga strona prezentuje na żywo. Owszem, są ludzie, którym znacznie łatwiej przychodzi pisanie, a na żywo są nieśmiali i niezbyt rozmowni, ale są pewne granice.
Cyfrowy gaslighting. Jak się bronić?
Skoro AI działa szybko, intensywnie i bezlitośnie, obrona może być odwrotna: powolna, świadoma i analogowa reakcja. Najprostsza technika to dekonstrukcja tekstu. Wystarczy rozbić komunikat na dwie kategorie: fakty oraz emocjonalne przymiotniki i sugestie. Wiem, że brzmi to łatwo, a w praktyce może być bardzo trudne. Ale warto z tej techniki korzystać częściej, nie tylko, gdy podejrzewamy manipulację z wykorzystaniem AI. Jeśli jednak tego dokonamy, zobaczymy, jaka część powstała tylko po to, by np. wzbudzić w nas wyrzuty sumienia.
Możemy więc odpowiedzieć tylko na jeden – weryfikowalny – fakt z długiego maila. Pominiemy natomiast emocjonalną narrację, ewentualnie poprosimy o doprecyzowanie reszty. W większości przypadków okaże się, że nacisk opierał się na insynuacjach, hiperbolach i manipulacji kontekstem. Oddzielenie treści od tonu odbiera sprawcy korzystającemu z AI większość mocy.
Kolejną strategią jest test czasu. AI działa w trybie natychmiastowym, ale Ty nie musisz. Celowe spowolnienie obniża presję, pozwala odzyskać kontrolę i zmusza drugą stronę do wyjścia poza algorytmiczny rytm. To klasyczna technika negocjacyjna, która w erze AI zyskuje nowe znaczenie. Może to wybić sprawcę z uderzenia. On chciałby działać natychmiast, Ty nie musisz.
Trzecią metodą – chyba najlepszą – jest zmiana kanału komunikacji. AI najlepiej działa w mailach i czatach. Odejdźmy więc od nich. Póki co AI nie potrafi ani doskonale udawać człowieka np. w telekonferencji, ani tym bardziej – nie zastąpi go na żywo. Przejście na telefon lub spotkanie bezpośrednie odcina przeciwnika od algorytmicznego wsparcia.
Czy stosowanie cyfrowego gaslightingu się opłaca?
Warto jednak zadać pytanie: czy stosowanie cyfrowego gaslightingu w ogóle się opłaca?
Krótkoterminowo – tak. Daje przewagę, pozwala „przepchnąć” swoje stanowisko, wywołać presję, uzyskać ustępstwa. Ale długoterminowo koszt jest ogromny.
Przede wszystkim, dochodzi do erozji zaufania. Negocjacje działają tylko wtedy, gdy istnieje minimalny poziom przewidywalności i wiarygodności. Jeśli obie strony zaczynają używać cyfrowych masek, punkt koordynacji znika. Zostaje gra pozorów, a tracimy relację i zaufanie. W sporach, które mają trwać lata – rodzinnych, biznesowych i sukcesyjnych – takie koszty są często wyższe niż jakakolwiek chwilowa przewaga.
Drugim ryzykiem jest rykoszet. Jeśli AI zbytnio „przyciśnie” człowieka wpędzając go do tego w poczucie winy, istnieje ryzyko, że on sam… zwróci się o pomoc do swojego modelu językowego. Uzyska ją szybko i za darmo. Będzie ona nosiła cechy racjonalności i da mu oparcie w postaci domniemania zewnętrznego autorytetu. Czy taka osoba będzie miała skrupuły? O tym, co może się stać, gdy obie strony sporu korzystają z pomocy modeli językowych pisałem w serii artykułów poświęconych sprzężonemu błędowi konfirmacji. Zostawiam link do jednego z nich: https://jakubieciwspolnicy.pl/sprzezony-blad-konfirmacji/
Trzecim ryzykiem jest to, że manipulacja wyjdzie na jaw – a w erze cyfrowej ślady zostają – reputacja pęka jak szkło. Raz utraconego zaufania nie da się odbudować albo będzie to bardzo trudne.
Pomijam w tym miejscu kwestie czysto prawne, a odnoszące się do możliwości podważenia porozumienia zawartego wskutek opisywanej manipulacji. Są w końcu takie możliwości, jak uchylenie się od skutków oświadczenia woli złożonego pod wpływem np. błędu lub podstępu, wyzysk, a nawet przestępstwo oszustwa. O tym wszystkim będę pisał w osobnym tekście, być może niejednym.
Co nam zostaje?
Okazuje się, że nowe możliwości rodzą nowe zagrożenia, a te przypominają nam o starych wartościach. W świecie, w którym AI może być narzędziem nacisku, największą przewagą staje się zdolność do zachowania racjonalności. Nie szybkość, nie agresja, nie perfekcyjna argumentacja, a racjonalność i… przewidywalność. One budują zaufanie. I one będą w cenie. Jestem o tym przekonany.
Jednym z zadań adwokata, mediatora, stratega negocjacyjnego – jest bycie „filtrem”, który oddziela emocjonalny szum od faktów, rozpoznaje algorytmiczne wzorce nacisku i chroni klienta przed cyfrową manipulacją, szczególnie tam, gdzie komunikacja pisemna zamiast rozwiązywać spór, zaczyna go eskalować.
To powrót do fundamentalnej funkcji doradcy: przywracania proporcji, dystansu i zdrowego rozsądku. Cyfrowy gaslighting będzie się rozwijał. Tak samo, jak przez cały XX wiek rozwijały się techniki manipulacji. Ale tak samo może rozwijać się nasza odporność na nie, jak wzrastała odporność na propagandę. A odporność zaczyna się od świadomości – od zrozumienia, że po drugiej stronie może nie siedzieć człowiek, lecz algorytm zaprojektowany do tego, by nas „rozegrać”. I od decyzji, że nie damy się w tę grę wciągnąć. Zapamiętajmy z tego jedno: bądźmy uważni, bądźmy rozsądni.
Więcej o aspektach etycznych wykorzystania AI w negocjacjach możecie przeczytać m.in. tutaj w Harvard PON:
https://www.pon.harvard.edu/tag/ai
i tutaj na stronie American Bar:
https://www.americanbar.org/groups/dispute_resolution/resources
Jakie to ma dla Ciebie znaczenie?
Wykorzystywanie AI w negocjacjach, komunikacji, w sporach rodzinnych i biznesowych jest faktem. To samo dotyczy relacji w pracy. Musimy być świadomi, że znaczenie AI będzie wzrastać, a już dzisiaj dla wielu osób stanowi ona pierwszy (a czasem jedyny) punkt oceny, weryfikacji i planowania działań.
Naszą misją w Kancelarii Jakubiec i Wspólnicy jest pomoc naszym Klientom w rozwiązywaniu ich sporów i ochronie relacji. Wiemy, że technologia AI niesie wielkie szanse i ułatwienia, ale widzimy również zagrożenia wynikające z braku świadomości lub złej woli.
Jeśli czujecie, że utknęliście w sporze, potrzebujecie pomocy prawnej, negocjacyjnej, odezwijcie się do nas. Jesteśmy od tego, żeby Wam pomóc:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935

BADANIE: AI JAKO UKRYTY SOJUSZNIK W SPORACH?
Poniżej przedstawiamy raport z badania, jakie przeprowadziliśmy w styczniu 2026 roku. Jego przedmiotem było zebranie informacji o tym, jak ludzie korzystają z AI w analizie sporów, których są stronami. Wyniki okazały się bardzo interesujące.
Raport o roli AI w sporach ze stycznia 2026 roku. Ukryty doradca czy generator błędów? Co zrobiliśmy?
Przeprowadziliśmy ankietę, którą wypełniło 87 osób. Wśród nich są nasi klienci, zaprzyjaźnieni adwokaci, radcowie prawni, mediatorzy, biznesmeni, psychologowie, ludzie zajmujący się nauką i sztuką. Z pewnością nie jest to więc grupa reprezentatywna w rozumieniu badań ogólnopolskich, takich jak badania opinii publicznej. Jest to jednak grupa posiadająca wysoką świadomość istoty sporu i zdolność do krytycznej oceny własnego rozumowania.
Ankietę ułożyłem sam. Już po jej rozesłaniu kilka osób zwróciło mi uwagę na kwestie techniczne lub związane z formułowaniem niektórych pytań. Dziękuję za te uwagi – z pewnością uwzględnię je w następnych badaniach, które – już wiem – z pewnością przeprowadzę.
Co było przedmiotem ankiety o AI?
Pytania dotyczyły korzystania z AI w ogóle oraz wykorzystywania jej do analizy sytuacji rodzinnej / pracowniczej / biznesowej. Obejmuje etap również sprzed powstania sporu.
Kolejne pytania dotyczyły analizy intencji drugiej strony sporu. Jest to element najbardziej podatny na działanie podstawowego błędu atrybucji. W przypadku zetknięcia z AI – przez jej hiperdopasowanie – generuje to działanie tzw. feedback loop. Jest to pułapka potwierdzenia, która prowadzi do powstania myślenia tunelowego.
Następnie zapytałem wykorzystanie AI do ustalenia własnych działań – celowo nie doprecyzowałem, czy chodziło o pierwsze działanie, czy też o reakcję na postawę drugiej strony.
Jednakże najważniejsze było dla mnie pytanie o to, czy poinformowalibyśmy drugą stronę o tym, że korzystamy z AI do analizy jej działań / intencji lub przygotowania własnych ruchów. Tutaj ankieterzy wykazali się zdumiewającą wręcz zgodnością. Jest kwestią otwartą, jakie z tego wyciągniemy wnioski – nie chcę tego przesądzać.
Ostatnie dwa pytania dotyczyły zaufania do AI. Były bardzo podobne, ale jednak… ciekawe jest to, że nie pokrywają się wyniki zaufania do AI z oceną jej obiektywności. Tak, jakbyśmy wiedzieli, że nie jest obiektywna, ale mieli tendencję do tego, by jej ufać.
Jak odpowiadali uczestnicy?
Poniżej przedstawiamy „suche” pytania i odpowiedzi.








Raport o roli AI w sporach. Analiza odpowiedzi
Zdecydowana większość uczestników korzysta z AI. Z pewnością nie dotyczy do wszystkich w tym samym stopniu, ani tym bardziej – tematy poruszane nie są takie same, ani nawet podobne. Jednak fakt powszechnego korzystania z modeli językowych jest faktem.
Prawie połowa, bo 43% respondentów odpowiedziało, że używa modeli językowych do analizy swojej sytuacji rodzinnej, w miejscu pracy lub biznesie. Moim zdaniem, to bardzo dużo. Co ciekawe, najmniej osób potwierdziło analizę sytuacji rodzinnej, a najwięcej biznesowej. 29% osób wskazało też na inne obszary. Zostawiam tu link do artykułu o roli AI w sporach rodzinnych: https://jakubieciwspolnicy.pl/ai-w-sprawach-rodzinnych/
Znaczna większość, bo 81% osób nie próbowało ustalić intencji drugiej strony za pomocą AI. Czy to dużo? Spójrzmy z drugiej strony – prawie 20% osób próbuje to robić. Oznacza to, że co piąta osoba jest podatna na sprzężenie zwrotne wynikające ze wzmocnienia jej pierwotnego nastawienia przez AI, która ma tendencję do „potakiwania”.
25% osób potwierdziło, że ustala własne ruchy w sporze z wykorzystaniem sztucznej inteligencji. Ta rozbieżność z poprzednim pytaniem jest ciekawa. Można ja przemilczeć jako błąd statystyczny albo uznać, że 5% procent z nas korzysta z AI do ustalenia własnych ruchów w sporach bez analizy intencji drugiej strony. Oczywiście, nie wiem, czy to dokładnie te 5% uczestników.
Bardzo ciekawe jest to, że 80% z nas nie poinformowałoby drugiej strony, że korzysta z AI do analizy sporu, intencji drugiej strony lub formułowania własnych posunięć. Dlaczego? Czy uważamy to za nieuczciwe (jak doping)? A może podchodzimy do tego, jak do zabobonu i przesądu i trochę się wstydzimy (nie wiem, jak to działa, ale na wszelki wypadek posłucham, jednak nie będę się tym chwalić)? Może uważamy, że wyprzedziliśmy technologicznie i intelektualnie drugą stronę i nie chcemy ujawniać, że mamy tak potężną broń?
Czy ufamy AI?
Ostatnie dwa pytania dają wyniki zdumiewające. Z AI korzysta 75% z nas, ale 67% uważa, że nie jest ona obiektywna. Czemu więc korzystamy? Dla wzmocnienia własnych przekonań? – W końcu miło jest nam, gdy najpotężniejsza technologia w historii ludzkości zaczyna co drugie zdanie od: „To świetny pomysł, Andrzeju!”. A może zwyczajnie udajemy, że tego nie widzimy? A może uznajemy, że brak obiektywności nie oznacza, że AI nie udziela dobrych rad, tylko że jest po naszej stronie (i dobrze!)? Ciekawie koresponduje to z wynikami poprzedniego pytania, w którym ogromna większość odpowiedziała, że częściowo ufa AI.
Raport o roli AI w sporach. Wnioski
AI stała się powszechnym narzędziem i stanowi jeden z elementów kształtowania naszych postaw w wielu dziedzinach życia. Z pewnością, jej wpływ jest odczuwalny w sporach, które prowadzimy. Co ciekawe, również widzimy ją w analizie samej struktury sytuacji. Może to prowadzić do powstania potrzeby zmiany dotychczasowego układu, a to z kolei – do sporu.
Moje poprzednie publikacje o AI w sporach
Poniżej zostawiam Wam kilka linków do artykułów, w których poruszyłem rolę i wpływ AI na dynamikę sporów. Przedstawiłem w nich moją autorską koncepcję Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB). W tekstach tych znajdziecie odnośniki do najnowszych badań zamieszczonych w prestiżowych czasopismach naukowych. Dotyczą one psychologii, aspektów technologicznych AI i jej roli w powstawaniu myślenia tunelowego, utwierdzania pierwotnych uprzedzeń lub preferencji. Tutaj zostawiam link do jednego z najważniejszych artykułów na ten temat, autorstwa Yiran Du: Confirmation Bias in Generative AI Chatbots. Zawiera on analizę tychże mechanizmów błędu potwierdzenia w modelach AI. Przeczytamy w nim również o ryzykach związanych z tym sprzężeniem: https://arxiv.org/abs/2504.09343?
Ja nałożyłem te badania na sytuację, gdy z AI korzystają obie strony sporu, a działania jednej strony ustalone wspólnie z jej AI, stanowią punkt wyjścia do analizy drugiej strony (wspólnie z jej AI), co skłoni tę drugą stronę do przygotowania adekwatnej odpowiedzi. Eskalacja konfliktu wydaje się tu szczególnie niebezpieczna.
Dla zainteresowanych zostawiam również link do artykułu w wersji angielskiej, w którym rozwinąłem koncepcję sprzężonego błędu konfirmacji:
Zaproszenie do współpracy
Jeśli jesteście stroną sporu, potrzebujecie doradztwa strategicznego, nie tylko prawnego, możecie się do mnie odezwać. Ja i mój zespół zajmujemy się nie tylko prawem, ale prowadzimy negocjacje w oparciu o wiedzę z zakresu psychologii, ekonomii, sztuki negocjacji i analizy behawioralnej.
Jeśli macie własne doświadczenia z AI jako czynnikiem w sporach, odezwijcie się do nas. Chętnie wysłuchamy Waszej historii, być może posłuży ona nam jako wartościowy materiał do nauki lub badań. Zapewniamy oczywiście pełną anonimowość.
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935

GDY STRONY SPORU KORZYSTAJĄ Z RÓŻNYCH MODELI AI
W ostatnich wpisach przedstawiłem autorską koncepcję sprzężonego błędu konfirmacji (Coupled Confirmation Bias, CCB). Teraz sygnalizuję potrzebę sprawdzenia, jak różne rodzaje LLM wpływają na dynamikę sporu. Przez różne rodzaje mam na myśli dwie podstawowe grupy: modele AI amerykańskie i chińskie. Jest to oczywiście modelowe uproszczenie, uzasadnione dla przedstawienia pewnego problemu. Zaznaczam, że rozróżnienia między nimi nie dokonuję na podstawie jakichkolwiek kwestii technologicznych. Zakładam, że modele językowe niosą w sobie pewne tendencje zakorzenione głęboko w kulturach i językach ich twórców.
Kulturowe modele AI. Jakie są rodzaje modeli językowych?
Przyjmijmy dwa podstawowe kulturowe modele AI: amerykański i chiński. Ten podział nie opisuje technologii, lecz dominujące style komunikacji zakorzenione w kulturach, które te modele ukształtowały. Odnosi się do tego, że język jest ściśle związany z kulturą. A modele językowe mają za zadanie tworzenie i utrzymywanie relacji z użytkownikami. Robią to dokonując predykcji kolejnych słów, jednakże nie sposób uciec od wrażenia, że nie dzieje się to w oderwaniu od: 1) wartości kulturowych twórców modelu językowego; 2) języka wybranego do rozmowy przez użytkownika i – co stanowi wyłącznie mój domysł – 3) zakładanej lub zadeklarowanej narodowości / natywności językowej użytkownika (tego w jakim języku ten użytkownik myśli).
Tak więc, modele językowe amerykańskie – jak zakładam – operują inną siatką pojęciową wynikająca z naturalnych różnic semantycznych. Na tym jednak nie koniec – zakładam, że inaczej będą one prowadzić rozmowę ze swoimi użytkownikami. Inny jest bowiem rodzaj, cel i forma interakcji w kulturze zachodniej i wschodniej. O ile w kulturze amerykańskiej ceni się indywidualizm, współzawodnictwo, rywalizację i rację, to w Chinach harmonię, kolektywizm, uprzejmość. Kluczowym przykładem – być może centralnym i ogniskującym różnice – jest podejście do zachowania twarzy w obu tych kulturach. Jeśli więc modele różnią się sposobem prowadzenia rozmowy, to mogą w odmienny sposób wpływać na percepcję sporu u użytkownika. Chcę podkreślić, że LLM to nie tylko „maszyna do słów”. To także nośnik wartości. Jeśli amerykański AI promuje adversarial system (system kontradyktoryjny), to chiński może promować consensus-based approach.
Wzajemne postrzeganie stron korzystających w różnych modeli językowych
W Sprzężonym Błędzie Konfirmacji każda strona interpretuje działania drugiej przez filtr własnego modelu kulturowego. Model AI wzmacnia tę interpretację, tworząc spiralę wzajemnych błędów. Załóżmy, że jedna ze stron korzysta z LLM amerykańskiego, a druga chińskiego. I sami użytkownicy również należą do tych kręgów kulturowych. Ich postrzeganie świata będzie odmienne. Tak samo inne będzie językowe formułowanie opisów, pytań i celów. W każdym języku istnieją pewne schematy i uproszczenia. Są też kwestie oczywiste, obszary taboo lub takie, o których wspominać nie trzeba – albo przeciwnie – należy to robić. Są kultury nisko (amerykańska) i wysoko (chińska) kontekstowe.
W pewnych kulturach asertywność, konfrontacja, dążenie do posiadania racji są wartościami samymi w sobie. W innych od racji ważniejsza jest relacja, harmonia, hierarchia, miejsce w społeczeństwie. Zakładam też, że modele typowe dla każdej kultury wzmacniają te wartości i postawy, które w tej kulturze uchodzą za pożądane.
Może z tego wynikać, że jedno zdarzenie będzie nie tylko odmiennie opisane przez użytkowników pochodzących z różnych kręgów kulturowych. Co więcej, wynik konsultacji z AI może być skrajnie odmienny. Problemy wynikające z podstawowego błędu atrybucji i błędu konfirmacji po stronie użytkowników oraz hiperużytecznosci modeli AI nałożą się na kwestie kulturowo – językowe. Hiperużyteczność oznacza tendencję modeli do dostarczania odpowiedzi maksymalnie pomocnych z perspektywy użytkownika — nawet jeśli wzmacnia to jego błędne założenia. Może się okazać, że w takiej sytuacji dojdzie do szybkiego rozpadu jakiejkolwiek przestrzeni wspólnej w odniesieniu do postrzegania rzeczywistości.
Punkt krytyczny
W CCB punkt krytyczny pojawia się wtedy, gdy interpretacje obu stron — wzmacniane przez ich modele — stają się tak rozbieżne, że każda reakcja jednej strony jest odczytywana przez drugą jako eskalacja. Gdy modele wzmacniają odmienne style interpretacji, wspólna przestrzeń poznawcza zanika szybciej niż w tradycyjnych konfliktach.
Kulturowe modele AI. Literatura
Jeśli interesują Was te kwestie, możecie przeczytać „Geografię myślenia” R., Nisbetta oraz „Babel. 20 języków dookoła świata” G. Dorren oraz „Wiek nie-pokoju. Współzależność jako źródło konfliktu” M. Leonarda. Te trzy książki sprawiły, że zainteresowałem różnicami kulturowymi w kontekście konfliktów i stanowiły dla mnie punkt wyjścia dla dalszych poszukiwań. Nic nie zastąpi oczywiście jednej z najważniejszych książek, jakie kiedykolwiek czytałem „Strategii konfliktu” T. Schellinga.
O tym, że modele językowe wiele przejmują z kultur, w których powstały i są trenowane, przeczytać m.in. tutaj: Cultural Alignment in Large Language Models” (Johnson et al., 2023/2024) https://globalaicultures.github.io/pdf/14_cultural_alignment_in_large_la.pdf
Tutaj znajdziecie badanie potwierdzające, że modele chińskie są znacznie mniej skłonne do otwartego konfliktu, od amerykańskich: CultureLLM: Incorporating Cultural Differences into Large Language Models https://arxiv.org/abs/2402.10946
Podobne wnioski znajdują się w tym badaniu: Values-aligned AI: Comparing Western and Chinese LLMs on Moral Dilemmas” (Liu et al., 2024) https://arxiv.org/html/2506.01495v5
Jeśli natomiast chcecie przeczytać więcej o Coupled Confirmation Bias, CCB, to zostawiam Wam linki do dwóch moich tekstów po polsku:
i jego rozwinięcia po angielsku:

SPRZĘŻONY BŁĄD KONFIRMACJI – MOJA KONCEPCJA
W tym artykule przedstawiam autorską propozycję Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB). Jest to rama konceptualna służąca do analizy eskalacji konfliktów w sytuacjach, w których obie strony sporu niezależnie korzystają z systemów AI do interpretowania konfliktu i uzasadniania własnych stanowisk. W przeciwieństwie do klasycznego błędu konfirmacji, który działa na poziomie jednostki, CCB opisuje mechanizm systemowy, w którym wzajemnie wzmacniające się narracje prowadzą do zawężenia przestrzeni negocjacyjnej i zwiększenia prawdopodobieństwa eskalacji. Artykuł identyfikuje warunki aktywacji tego mechanizmu, jego typowe konsekwencje oraz granice jego zastosowania. Celem tekstu nie jest przedstawienie w pełni zweryfikowanej teorii. Jest nim postawienie hipotezy istnienia powtarzalnego mechanizmu obserwowanego we współczesnych konfliktach. Ich wspólną cechą jest to, że modele AI są wykorzystywane jako narzędzia analityczne wspierające podejmowanie decyzji.
1. Wprowadzenie: kiedy racjonalne narzędzia wzmacniają nieracjonalne skutki?
Sprzężony błąd konfirmacji – z czego wynika? Ludzie coraz częściej korzystają z AI. Służy im ona do oceny istniejących relacji zarówno przed powstaniem / uświadomieniem konfliktu, jak i w jego trakcie. Korzystają z AI do oceny ryzyka, tworzenia strategii oraz uzasadniania proponowanych działań. Modele sztucznej inteligencji służą coraz częściej również do analizy wypowiedzi i działań niewerbalnych drugiej strony. Modele AI są powszechnie postrzegane jako autorytet, a ich rady jako neutralne, obiektywne i wolne od zaangażowania emocjonalnego. Paradoksalnie jednak, jak zaobserwowałem, używanie modeli językowych często koreluje z szybszą eskalacją konfliktu, usztywnieniem stanowisk oraz przedwczesnym zerwaniem negocjacji. Wydaje się, że nie jest to koincydencja.
W artykule tym stawiam tezę, że zjawiska te nie mogą być w wystarczający sposób wyjaśnione wyłącznie poprzez indywidualne błędy poznawcze. Nie dadzą się wyjaśnić ani przez zwykły błąd konfirmacji, ani podstawowy błąd atrybucji.
Zamiast tego zakładam istnienie mechanizmu systemowego – Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB). Ujawnia się on w sytuacjach, gdy strony konfliktu niezależnie korzystają z narzędzi AI jako źródła autorytatywnej interpretacji sporu: czynników zewnętrznych, działań faktycznych oraz deklaracji drugiej strony, domysłów w zakresie jej prawdziwych intencji, akceptowalnego ryzyka, kosztów, jakie jest gotowa ponieść i faktycznych tzw. „czerwonych linii”, tj. punktów krytycznych, których w żadnym razie nie pozwoli przekroczyć. Oczywiście, nie wszystkie te elementy muszą być poddane analizie z pomocą AI. Tak samo nie muszą być poddane takiej analizie w tym samym czasie. Co ważne, również każda ze stron może analizować inny element lub zestaw elementów. Wreszcie, każda ze stron może korzystać z modeli innego rodzaju, innego stopnia rozwoju technicznego i innego poziomu zintegrowanej interakcji z użytkownikiem.
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) wywoła skutek tym silniejszy, im więcej razy strony poddadzą analizie sygnały płynące od drugiej strony, jeśli na treść, formę lub czas tych sygnałów miała uprzednio wpływ praca z AI poczyniona przez drugą stronę. Mamy więc do czynienia nie z błędem jednorazowym, ale ze spiralą błędów, z których poprzedni stanowi „paliwo” dla następnego i potencjalne go wzmacnia. Można to obrazowo przyrównać do wymiany w ping-pongu, w której po każdym uderzeniu piłka uzyskuje energię równą dotychczasowej energii kinetycznej i energii nowego uderzenia.
Zakładam również, że Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) wyglądał będzie podobnie na różnych płaszczyznach konfliktów: od sporów jednostek, przez ich grupy, do państw i ich bloków. Wniosek taki wyprowadzam z badań ogólnych nad naturą konfliktu.
Wyraźnie zaznaczam, że nie uważam, aby wpływ AI na eskalację konfliktów miał mieć charakter deterministyczny. Zakładam raczej istnienie tendencji, wpływu. Co więcej, świadomość tego mechanizmu, tak jak go rozumiem, może paradoksalnie doprowadzić do zatrzymania eskalacji, gdy strony zdadzą sobie sprawę z tego, że są pod jego wpływem.
2. Aktualny stan badań
Mechanizm równowagi między stronami został opisany w różnych pracach przez J. Nasha, a strategia konfliktu przez T. Schellinga („Strategia konflitku”). Struktura konfliktu, którą przyjmuję, znajduje się w książce Ch. Moore’a: „Mediacje. Praktyczne strategie rozwiązywania konfliktów.”
Ogólne błędy poznawcze są znane psychologii od dawna. Dla pracy nad koncepcją Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB) punktem wyjścia są prace opisujące zwykły Błąd Konfirmacji, a więc tendencję do selektywnej i subiektywnej percepcji danych zmierzającej do potwierdzenia wcześniej przyjętej tezy. Dla przykładu można tu wymienić pracę Daniela Kahnemana, „Pułapki myślenia”.
Mechanizm ten został zidentyfikowany na płaszczyźnie interakcji człowiek – AI oraz szczegółowo opisany m.in. w artykule M. Glickman i T. Sharot https://pmc.ncbi.nlm.nih.gov/articles/PMC11860214/? Yuxin Liu i Adam Moore, https://pubmed.ncbi.nlm.nih.gov/40448478/, a także L. Celar i Ruth M.J. Byrne https://pubmed.ncbi.nlm.nih.gov/36964302/. Trzeba wspomnieć również o artykule Ben Wang i Jiqun Liu, Cognitively Biased Users Interacting with Algorithmically Biased Results in Whole-Session Search on Debated Topics, https://dl.acm.org/doi/10.1145/3664190.3672520. Autorzy ci wskazują na rolę czynników indywidualnych na podatność wobec błędów poznawczych powstających w interakcji ze sztuczną inteligencją.
Dowiadujemy się z nich o pętli sprzężenia zwrotnego. Polega ona nie tylko na istnieniu błędu konfirmacji. Idzie krok dalej – doprowadza do wzmocnienia pierwotnego przekonania lub uprzedzenia. Prowadzi to do myślenia tunelowego.
W znanych mi pracach nie badano jednak sytuacji sporu, w którym obie strony korzystały z modeli językowych w opisany wyżej sposób. Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) nie jest sumą błędów poznawczych obu stron, lecz zjawiskiem kolejnym – nową jakością, która prowadzi do spirali eskalacji w sposób jakościowo inny, niż dwa niezależne od siebie błędy.
3. Od błędu jednostki do eskalacji systemowej
Klasyczny błąd konfirmacji (Confirmation Bias) opisuje skłonność jednostki do selektywnego wyszukiwania, interpretowania i zapamiętywania informacji w sposób potwierdzający jej wcześniejsze przekonania.
Choć zjawisko to jest dobrze udokumentowane, nie wystarcza ono do wyjaśnienia sytuacji, w których obie strony konfliktu – mimo dostępu do wyjściowo podobnych danych oraz korzystania z pozornie neutralnych narzędzi analitycznych – coraz silniej utwierdzają się we własnych przekonaniach i uprzedzeniach.
We współczesnych sporach systemy AI coraz częściej pełnią funkcję zewnętrznych legitymizatorów interpretacji, a nie jedynie narzędzi obliczeniowych. Gdy każda ze stron korzysta z takich systemów niezależnie, błąd konfirmacji przestaje być wyłącznie indywidualną skłonnością poznawczą, a zaczyna funkcjonować jako wzajemnie sprzężona dynamika.
4. Definicja sprzężonego błędu konfirmacji
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) to mechanizm eskalacji konfliktu, w którym dwie lub więcej stron sporu, opierając się na zewnętrznych systemach interpretacyjnych postrzeganych jako epistemicznie uprzywilejowane, wzajemnie legitymizują własne narracje. Mechanizm ten ma charakter rekurencyjny: działania podejmowane na podstawie takiej legitymizacji stają się następnie danymi wejściowymi do dalszych analiz po drugiej stronie, prowadząc do sprzężonej spirali interpretacyjnej i stopniowego zawężania przestrzeni negocjacyjnej. Termin rekurencyjny stosuję tu w znaczeniu: ‘kolejne iteracje wzmacniają poprzednie’. To nie jest rekurencja w sensie formalnym, lecz opis dodatniego sprzężenia zwrotnego w pętli interpretacyjnej.
Cechą konstytutywną CCB nie jest sama obecność stronniczego rozumowania, lecz dynamiczne sprzężenie pętli interpretacyjnych pomiędzy aktorami. W tym modelu działania jednej strony, ukształtowane przez analizę AI, stają się bezpośrednimi danymi wejściowymi dla systemu po drugiej stronie. Tworzy to zamknięty obieg, w którym każda kolejna interakcja nie przybliża stron do konsensusu, lecz dostarcza „obiektywnego” materiału do pogłębienia pierwotnych uprzedzeń.
5. Hipoteza
H1:
W konfliktach dwu- lub wielostronnych, w których strony niezależnie korzystają z modeli AI do interpretowania sporu i uzasadniania własnych stanowisk, prawdopodobieństwo eskalacji oraz załamania negocjacji jest wyższe niż w konfliktach strukturalnie podobnych, w których takich systemów się nie wykorzystuje.
H1a:
W konfliktach opartych na interpretacji, symetryczny dostęp do informacji zwiększa ryzyko eskalacji bardziej niż asymetria informacyjna, ponieważ eliminuje możliwość wyjaśniania rozbieżności poprzez brak wiedzy, przenosząc konflikt na poziom intencji i rzekomej racjonalności.
5.1. Zdaję sobie sprawę, że modele AI mogą być wykorzystywane przez każdą ze stron w różnym czasie, w różnym zakresie, w różnym celu i w różny sposób. Mogą zacząć korzystać z AI w tym samym czasie lub w różnym. Jedna z nich może to zakończyć lub ograniczyć wcześniej od drugiej, która będzie z AI korzystać dłużej. Jedna ze stron podda analizie wyłącznie czynniki zewnętrzne, inna deklaracje stron, a kiedy indziej będzie chciała z pomocą AI ustalić intencje przeciwnika. Jedna ze stron może to robić w celu dokonania analizy, inna w celu otrzymania emocjonalnego wsparcia. Wreszcie, mogą korzystać z różnych modeli i czynić to w odmienny sposób – choćby przez wprowadzanie mniej lub bardziej zmanipulowanych danych. Jak wykazały ww. badania Ben Wang i Jiqun Liu, czynniki indywidualne mają również wpływ na podatność na sugestie i odpowiedzi AI.
Wszystkie te czynniki (a prawdopodobnie jeszcze wiele innych) trzeba wziąć pod uwagę. Zdaję sobie sprawę, że powstałe różnice mogą sprawić, że Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) nie powstanie lub też zgaśnie w trakcie konfliktu. W tym miejscu mój teza dotyczy korzystania z AI przez obie strony w sposób względnie symetryczny. Wpływ asymetrii na Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) wymaga dalszych badań.
5.2. W badaniach wielokrotnie wskazano, że układy złożone z 3 aktorów są znacznie mniej stabilne, niż 2 lub 4- osobowe. Uważam, że rola AI w akceleracji eskalacji w układach 3 osobowych będzie szczególnie widoczna. Dalsze badania będą musiały ustalić różnice w skutkach, jeśli w układzie 3 lub więcej osobowym z AI korzysta tylko część uczestników.
5.3. Chciałbym wyraźnie zaznaczyć, że AI nie tworzy, ani nie eskaluje konfliktu sama przez się. Ma jednak przemożny wpływ na percepcję, interpretacje i wreszcie na decyzje użytkownika. Jego działanie podjęte na skutek takiej decyzji będzie z kolei interpretowane w analogiczny sposób przez drugą stronę.
5.4. Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) nie jest też przykładem tzw. Echo Chambers ograniczonego do dwóch (lub niewielkiej liczby) uczestników. Echo Chambers są z natury statyczne, zaś CCB jest dynamiczne, gdyż każda kolejna interakcja zmienia zachowanie drugiej strony.
6. Falsyfikowalność Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB)
W Logice odkrycia naukowego Popper wprowadził pojęcie falsyfikowalności teorii, jako warunku koniecznego do uznania jej za naukową.
Należy więc określić, jakie potencjalne czynniki warunkują zaistnienie opisywanego mechanizmu, jakie wpływają na jego dezaktywację. I przede wszystkim, co zadałoby tej teorii fałsz?
6.1.Warunki aktywacji mechanizmu
Sprzężony Błąd Konfirmacji ujawnia się zazwyczaj wtedy, gdy spełnione są łącznie następujące warunki:
- Symetryczna legitymizacja narracji
Każda ze stron dysponuje narzędziami lub doradcami, którzy potwierdzają jej interpretację jako racjonalną i uzasadnioną. - Brak wspólnej władzy epistemicznej
Nie istnieje instytucja, mediator ani procedura uznawana przez wszystkie strony za ostatecznego arbitra. - Wysoki koszt poznawczy zmiany stanowiska
Zmiana stanowiska oznaczałaby podważenie wcześniejszych „racjonalnych” decyzji wspartych analizą AI. - Obecność pozornie neutralnego trzeciego aktora
Systemy AI, postrzegane jako obiektywne i pozbawione interesu, wzmacniają legitymizację każdej z narracji. To paradoksalnie ułatwia im funckjonalne wpływanie na powstanie błędów konfirmacji po obu stronach, a w efekcie powstanie Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB).
6.2. Granice zastosowania: kiedy CCB nie działa?
Sprzężony Błąd Konfirmacji nie ma charakteru uniwersalnego. Mechanizm ten ulega osłabieniu lub nie występuje w ogóle, gdy:
- Istnieje wspólnie uznany arbiter faktów, akceptowany przez wszystkie strony.
- Tylko jedna ze stron korzysta z narzędzi AI, co przerywa symetrię sprzężenia.
- Stawka konfliktu jest niska lub odwracalna, co obniża potrzebę poznawczej obrony stanowiska.
- AI wykorzystywana jest wyłącznie informacyjnie, a nie interpretacyjnie.
- Strony posiadają wysoki poziom kompetencji metapoznawczych i aktywnie przeciwdziałają własnym błędom poznawczym.
- Spór dotyczy jasno mierzalnych parametrów, a nie interpretacji intencji czy przypisywania winy.
- Powstaje znaczna asymetria w korzystaniu przez strony z modeli AI w zakresie a) czasu; b) zakresu, c) celu; d) sposobu.
- Mechanizm CCB ulega osłabieniu, gdy strony posiadają wzajemną świadomość korzystania z podobnych narzędzi interpretacyjnych i są zdolne do refleksji metapoznawczej nad ich wpływem na własne stanowiska. Ujawnienie korzystania z AI może być czynnikiem deeskalacji.
Granice te pozwalają odróżnić CCB od ogólnych teorii eskalacji konfliktu.
6.3. Co wykazałoby fałsz tej teorii?
Wykazanie jakiego czynnika obaliłoby hipotezę o istnieniu Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB)?
Bezspornie, hipotezę tę obaliłoby zaobserwowanie skutku do niej przeciwnego, to jest łagodzącego i deeskalacyjnego wpływu modeli AI na przebieg konfliktu. To z kolei mogłoby się przejawić, gdyśmy zaobserwowali nagłą zmianę narracji modelu AI, który zidentyfikował powstanie sprzężenia zwrotnego, poinformował o nim użytkownika. Niczego takiego do tej pory nie zaobserwowałem.
Hipotezę tę można również sfalsyfikować, gdyby wnioski z przytoczonych wcześniej badań, a dotyczące pętli sprzężenia zwrotnego i myślenia tunelowego okazały się nieprawdziwe, albo też gdyby wskutek ewolucji AI, zmieniła ona zasady interakcji z użytkownikami. Póki co, nie mam wiedzy, która potwierdzałaby takie tezy.
Falsywikacja zaszłaby również, gdyby wykazano, że w obserwowanych przypadkach doszło do gwałtownej eskalacji z przyczyn innych, niż błędy poznawcze powstałe wskutek interakcji z AI.
Wreszcie, fałsz tej hipotezie zadałoby ustalenie, że dynamika konfliktów, w których uczestnicy korzystają lub niekorzystaną z AI jest identyczna. Dotychczasowe obserwacje jednak temu przeczą.
7. Skutki systemowe
Skutki systemowe: dynamika rekurencyjnej eskalacji
Aktywacja mechanizmu CCB prowadzi do przejścia konfliktu ze sfery spornych interesów do sfery zamkniętych pętli interpretacyjnych. Pociąga to za sobą następujące konsekwencje systemowe:
- Autokataliza eskalacji: Dzięki charakterowi rekurencyjnemu, każda próba komunikacji deeskalacyjnej jest filtrowana przez AI drugiej strony. Jeśli system interpretacyjny postrzega drugą stronę jako nielojalną, nawet gesty dobrej woli zostaną zinterpretowane jako „strategiczna manipulacja”. Paradoksalnie „potwierdza” to potrzebę dalszej eskalacji.
- Zanik wieloznaczności (Ambiguity Collapse): W klasycznym sporze niepewność co do intencji daje przestrzeń do domniemań. W CCB, AI „domyka” te interpretacje, nadając im cechy pewności analitycznej. Powoduje to, że strony przestają rozmawiać o faktach, a zaczynają operować na „produkcie końcowym” analizy – gotowych wyrokach o intencjach przeciwnika.
- Paradoks legitymizacji (The Legitimacy Trap): Ponieważ każda ze stron posiada „obiektywne” potwierdzenie swojej racji pochodzące z systemu subiektywnie epistemicznie uprzywilejowanego, jakikolwiek kompromis zaczyna być postrzegany nie jako ustępstwo, lecz jako działanie irracjonalne lub błąd logiczny.
- Erozja wspólnej rzeczywistości: Rekurencyjne nakładanie na siebie analiz sprawia, że strony w pewnym momencie przestają reagować na realne działania przeciwnika, a zaczynają reagować na to, jak ich własne modele AI przewidują interpretacje modeli AI przeciwnika. Konflikt odkleja się od rzeczywistego podłoża i przenosi w sferę interakcji model-model.
- Inercja stanowisk: Raz ukształtowana przez AI narracja wykazuje dużą odporność na zmianę (cognitive inertia). Podważenie wniosków wygenerowanych przez zaawansowany model analityczny wymagałoby od decydenta przyznania się do fundamentalnego błędu w doborze narzędzi. Podnosi to psychologiczny i „polityczny” koszt deeskalacji.
Co istotne, eskalacja ta zachodzi bez złej wiary i często bez świadomej intencji strategicznej.
8. AI jako quasi-trzeci aktor?
Choć sztuczna inteligencja jest pozbawiona sprawstwa i własnych interesów, jej funkcjonalna rola w mechanizmie CCB nie może zostać pominięta. Poprzez dostarczanie autorytatywnej legitymizacji przy jednoczesnym braku odpowiedzialności, systemy AI wpływają na dynamikę sporu. Wpływają one na subiektywną ocenę kosztów eskalacji i stabilizują wzajemnie wykluczające się narracje. Chcę być dobrze zrozumiany – nie mam na myśli roli AI pozwalającej jej na nadanie statusu strony w sensie ontologicznym. Jest ona raczej lustrem aktywnie wzmacniającym pierwotne przekonania. Lustrem jednakże nie biernym, lecz aktywnym, obdarzanym zaufaniem i wzmacniającym przekonania.
9. Zakończenie
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) stanowi ramę konceptualną pozwalającą zrozumieć, dlaczego wprowadzenie pozornie racjonalnych narzędzi może przyspieszać eskalację konfliktów. Proponowana koncepcja nie rości sobie pretensji do uniwersalności ani empirycznej ostateczności. Jest to hipoteza mechanizmu, obserwowanego w praktyce, która zaprasza do dalszej krytyki, testowania i doprecyzowania.
Zrozumienie CCB ma znaczenie nie tylko dla prawników, mediatorów i innych osób zarządzających konfliktami. Jest istotne także dla projektantów i użytkowników systemów AI w kontekstach konfrontacyjnych.
10. Nota metodologiczna autora
Niniejszy artykuł przedstawia moją autorską ramę analityczną i konceptualną opartą na obserwowanych przeze mnie wzorcach występujących w konfliktach. Poczyniłem te obserwacje na gruncie własnej praktyki prawnej w drugiej połowie 2025 roku. Artykuł ten nie stanowi empirycznie zweryfikowanej teorii, lecz jedynie hipotezę. Jego celem jest opisanie zjawiska i wskazanie kierunków dalszych analiz. Pracując nad nim korzystałem z pomocy modeli językowych w celu krytycznej oceny własnych tez i szukania słabych punktów mojego rozumowania. Pomoc modeli AI miała charakter krytyczny, a nie generatywny. Posłużyła mi identyfikacji potencjalnych słabych punktów argumentacji.
Możecie przeczytać również wersję angielską: https://jakubieciwspolnicy.pl/en/coupled-confirmation-bias/

JAK AI WPŁYNIE NA DYNAMIKĘ KONFLITKÓW W 2026 ROKU?
Dużo ostatnio pisałem o wpływie AI na eskalację konfliktów rodzinnych i biznesowych. Opisałem sprzężony błąd konfirmacji oraz przedstawiłem, jak może on doprowadzić do myślenia tunelowego, w konsekwencji do odpowiednika tzw. dylematu bezpieczeńtwa w skali mikro. Dzisiaj podzielę się z Wami moimi refleksjami na temat tego, jaki może być wpływ modeli językowych na dynamikę sporów i konfliktów w 2026 roku. Mogę racjonalnie zakładać, że trendy, które zaobserwowałem w tym roku nie ulegną same z siebie odwróceniu lub zatrzymaniu. Wprost przeciwnie wszystko wskazuje na ich spotęgowanie.
Jak AI wpływa na dynamikę sporów?
AI wpływa na dynamikę sporów. Oczywiście, nie chcę powtarzać tego, co pisałem w innych tekstach. Dlatego podam linki do tych, które uważam za najważniejsze. W nich znajdziecie odnośniki do najnowszych publikacji naukowych z opisywanych zakresów oraz do innych moich tekstów.
O tym, że coraz więcej osób korzysta z AI do diagnozowana i rozwiązywania swoich ważnych problemów prawnych, pisałem m.in. tutaj.
W tym samym tekście napisałem, dlaczego taka analiza jest niewystarczająca, niepełna i wymaga każdorazowej weryfikacji przez prawnika.
Jak wygląda korzystanie z AI przez prawników i klientów, pisałem m.in. tutaj:
Natomiast najważniejszy mój tekst przeczytacie pod tym linkiem:
https://jakubieciwspolnicy.pl/ai-i-myslenie-tunelowe-w-sporach-miedzy-wspolnikami/
Opisałem tam szczegółowo mechanizm sprzężonego błędu konfirmacji. Przedstawiłem, że jedną z jego konsekwencji może być doprowadzenie do powstania tzw. myślenia tunelowego. Jednakże największe niebezpieczeństwo powstanie, gdy obie zaangażowane strony będą analogicznie korzystać z modeli AI i za ich pomocą interpretować swoje zachowania, co doprowadzić może do gwałtownej i niekontrolowanej eskalacji.
Więcej o pętli sprzężenia zwrotnego możecie przeczytać tutaj: https://pmc.ncbi.nlm.nih.gov/articles/PMC11860214/?utm_source=chatgpt.com#ad93. Tej to artykuł M. Glickmana i T. Sharot „Jak pętle sprzężenia zwrotnego człowiek-AI zmieniają ludzkie osądy percepcyjne, emocjonalne i społeczne”. Poza nim mogę Wam polecić również świetny tekst „How people reason with counterfactual and causal explanations for Artificial Intelligence decisions in familiar and unfamiliar domains” L. Celar i R.M.J. Byrne https://pubmed.ncbi.nlm.nih.gov/36964302/ . Na koniec mogę polecić również świetny artykuł Liu Y, Moore A. „Intuicyjne osądy wobec werdyktów sztucznej inteligencji o wykroczeniach moralnych”. Br J Soc Psychol. 2025 Lip;64(3) . Jest on szczególnie cenny, gdyż odnosi się właśnie do postaw społecznych i postrzegania innych.
Jaki będzie wpływ AI na gwałtowność sporów w 2026 roku
Żadne racjonalne przesłanki nie pozwalają zakładać, że ulegną odwróceniu trendy: 1) rozpowszechnienia dostępu do AI; 2) wzrostu zaufania do AI; 3) zdolności „obliczeniowych” modeli językowych.
Mogę zakładać jedynie, że powstanie grupa ludzi w pewien sposób uzależnionych emocjonalnie od swoich „związków”, „relacji” z modelami językowymi. Będą na to podatne w szczególności osoby wycofane, samotne lub potrzebujące atencji. Szczególnie narażone będą osoby, które nie przywykły do postawy krytycznej dla oceny i interpretacji zjawisk, faktów i relacji. Deficyt postawy krytycznej po stronie użytkownika sprawia, że model językowy zaczyna pełnić funkcję „moralną” zamiast „informacyjnej”. Jeśli ktoś wątpi w istnienie tendencji człowieka do nawiązywania relacji emocjonalnych z „maszyną”, to niech sobie przypomni japońskie zabawki „tamagotchi”.
Tak więc uważam, że rola AI w kształtowaniu postaw emocjonalnych człowieka będzie rosła. Będzie to miało bezpośredni wpływ na postrzeganie aktualnych relacji, a przez to na dynamikę sporów. Będziemy obserwować wzrost atomizacji i polaryzacji jednostek i grup. Atomizacja będzie skutkiem tego, że towarzystwo AI będzie dla wielu bardziej atrakcyjne od rozmów i kontaktów z innymi ludźmi. Te więzi – i tak już słabe – ulegną osłabieniu. Polaryzacja natomiast będzie następstwem coraz większej ilości i „jakości” konsultacji człowiek – AI w sprawach dla tych ludzi ważnych, jak relacje rodzinne lub kontakty w pracy albo ze wspólnikiem. W sporze oznacza to, że strona użytkownik nie będzie korzystał z AI w celu znalezienia rozwiązania, lecz po to, by uzyskać potwierdzenie słuszności swojej narracji.
Wcześniej opisane przeze mnie mechanizmy będą obserwowane coraz częściej. Prawdopodobnie świadomość społeczna i znajomość tych mechanizmów nie nadążą za ich realnym wpływem na życie ludzi.
Czy AI może być jednak pomocna w rozwiązywaniu sporów?
Tak! Wbrew wszystkiemu, co do tej pory pisałem, wpływ AI będzie miał również silne aspekty pozytywne. AI posłuży nam w prewencji – pozwoli przewidzieć potencjalne obszary sporne i „zabezpieczyć” je zawczasu. Pod tym względem modele językowe są bardzo pomocne, gdyż potrafią z łatwością tworzyć wiele wariantów przyszłych zdarzeń i wskazują potencjalne ryzyka. Będą więc z pewnością pełnić funkcję ostrzegawczą.
Modele generatywnej sztucznej inteligencji będą też służyć do poszukiwania racjonalnych i satysfakcjonujących rozwiązań sporów, które już zaistniały. Również na tym polu ich zdolność do multiplikowania rozwiązań jest zdumiewająca. Można więc zakładać, że po szczegółowym opisaniu sytuacji patowej, czat podpowie nam rozwiązanie, na które byśmy bez niego zwyczajnie nie wpadli. Sztuką będzie jednak zawsze umiejętność krytycznej oceny proponowanych rozwiązań i przewidywania ich konsekwencji na wielu płaszczyznach i w długim czasie.
Należy pamiętać, że w każdym z tych przypadków, rola AI będzie jednak pomocnicza. Ona bardzo dobrze buduje warianty, ale znacznie słabiej analizuje ich potencjalne skutki – szczególnie na gruncie prawnym i emocjonalnym.
W tym miejscu należy wskazać też na badania Marco Giacalone, który wskazuje na znaczny potencjał modeli językowych w rozwiązywaniu sporów: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5083207 . Autor ten pisze, że „Integracja generatywnej sztucznej inteligencji redukuje koszty i pozwala praktykom prawa skupić się na złożonych zagadnieniach, planowaniu strategicznym oraz interakcji z klientem.” Zdaniem Autora AI nie zastąpi człowieka, ale będzie bardzo cennym narzędziem w jego rękach. Zgadzam się z tym podejściem.
AI wpływa na dynamikę sporów, ale sama w sobie nie jest ani dobra, ani zła
Nie ma sensu pytanie, czy sztuczna inteligencja jest dobra lub zła. Możemy badać jej wpływ na określone aspekty naszego życia, ale zawsze w konkretnym kontekście. Skoro nasz gatunek stworzył sztuczną inteligencję, próby „zagonienia dżina do butelki” są tyle skazane na niepowodzenie, co niecelowe. Badajmy obiektywnie wpływ na nasze schematy myślowe, przekonania, relacje, samopoczucie. Wyciągajmy z tego wnioski. Używajmy tej technologii w sposób, który będzie przynosił korzyści nam i innym. Wierzę, że jest to możliwe. Ale nie doprowadźmy do tego, że zastąpi nam ona przyjaźń i bliskość drugiego człowieka. Nie pozwólmy, by obszary zdrowia i prawa były poddane bezrefleksyjnemu wpływowi AI.
Ostatecznie, mamy do czynienia z nowym zjawiskiem, narzędziem – nowym źródłem wpływu na naszą psychikę i świadomość. Mamy do czynienia z nowym narzędziem – tak potężnym, jakiego ludzkość jeszcze nie znała. Ale… przecież każde wielkie odkrycie przynosiło przełomy. A wśród nich szanse i zagrożenia. Na końcu, tylko od nas samych zależy, co z tego wyniknie.
Różnica jest taka, że w przeciwieństwie np. do energetyki atomowej lub broni nuklearnej, bezpośredni dostęp do AI ma teraz niemal każdy. AI wzmacniać będzie więc to, co w każdym z nas ukryte i silne.
Zaproszenie do współpracy
A Państwo? Czy zauważyliście już wpływ sugestii AI na postrzeganie swoich relacji prywatnych lub biznesowych? Czy widzicie taki wpływ u siebie samych? A może dostrzegacie zmianę zachowania drugiej strony, która od jakiegoś czasu nieco się radykalizuje?
Zapraszam do dyskusji w komentarzach albo kontaktu z naszą kancelarią. Pomagamy naszym Klientom budować strategię i rozwiązywać spory w sposób optymalny. Jak widzicie, uwzględniamy wiele czynników, nie tylko prawo, ale również psychologię, aspekty komunikacyjne i technologiczne. To nasza siła.
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Możecie też przeczytać angielską wersję tego artykułu: https://jakubieciwspolnicy.pl/en/how-will-ai-impact-dispute-dynamics-in-2026/

ROZMOWA O MEDIACJACH Z JERZYM ZIELIŃSKIM
Zobaczcie moją rozmowę z Jerzym Zielińskim – redaktorem naczelnym Magazynu Pewna Terapia oraz prowadzącym podcast na Youtube. Rozmawialiśmy o sporach, konfliktach, mediacjach i negocjacjach. Czy udało mi się wszystko wytłumaczyć? Oceńcie sami.
Jerzy Zieliński podcast – to przestrzeń ważnych rozmów na trudne tematy
Jerzy Zieliński podcast to kanał na YouTube, na którym rozmawia się o sprawach trudnych. Dlatego uznaliśmy, że to dla mnie świetna przestrzeń do rozmowy. Nasza rozmowa dotyczyła mediacji i negocjacji w trudnych sprawach rodzinnych i gospodarczych. Tak, wbrew pozorom mają one ze sobą wiele wspólnego. Starałem się pokazać, ze mediacja jest narzędziem zarządzania konfliktem, a sąd miejscem jego formalnego rozstrzygnięcia. To nie to samo – i nie służy temu samemu celowi.
Opowiadałem o przyczynach konfliktów i ich rozwiązywaniu. Mówiłem o korzyściach płynących z dialogu. Podałem prawdziwe przykłady z własnej praktyki. Dowiecie się, kim był człowiek, który powiedział „Chcę udowodnić, że on jest świnią.”
Z tej rozmowy dowiecie się między innymi:
- czym różni się konflikt od sporu? – Konflikt to spór, który eskalował do etapu, w którym to człowiek zaczyna być problemem.
- czym jest eskalacja? – to (nie?) zamierzone i (nie?) kontrolowane wejście na wyższy próg szkodzenia drugiej stronie i ponoszenia strat. Oznacza to, że jesteśmy gotowi „zrobić krzywdę komuś” i godzimy się na to, że ten ktoś „zrobi krzywdę nam”. Eskalacja polega na tym, że godzimy się na to, że te krzywdy będą coraz większe.
- czemu sąd nie rozwiązuje sporów? – bo są od ich rozstrzygania, a przyznanie racji nie ma nic wspólnego z usunięciem przyczyn sporu.
- dlaczego mediacja często jest lepsza od sądu? – jest szybsza, tańsza i mniej sformalizowana.
- jak rozmawiać o trudnych sprawach? – szczerze i z odwagą, asertywnie i uważnie.
- o co kłócą się wspólnicy? – zapewniam, że nie tylko o pieniądze!
- i… jak można negocjować z kosmitami – na sam koniec zostawiam Wam przykład, czy można tak negocjować, żeby obie strony były zachwycone? Przykład kosmitów i Egipcjan pokazuje, że tak.
Dlaczego rola mediacji rośnie?
Mediacja nie zastąpi sądów. Ona służy czemuś innemu. Sądy są ostatnią deską ratunku, po która należy sięgnąć, gdy inne środki zawiodły. Niestety, wiele osób ciągle od nich zaczyna. A przecież powinniśmy zadać sobie pytanie, czy musimy angażować aparat państwowy, żeby załatwiać nasz sprawy?
Zgodnie z najnowszymi danymi Ministerstwa Sprawiedliwości dotyczącymi mediacji rodzinnych, liczba spraw kierowanych do mediacji systematycznie rośnie. Potwierdza ich skuteczność w rozwiązywaniu sporów rodzinnych.
Co warte podkreślenia, nie chodzi tu tylko o ilość, ale jakość. Mediacja pozwala usunąć spór, ochronić lub naprawić relację albo chociaż zminimalizować tarcia w przyszłości. To bardzo cenna właściwość, o której często zapominamy.
O tym, że spory można skutecznie rozwiązywać również poza sądem, możecie przeczytać m.in. na stronie https://www.americanbar.org/groups/dispute_resolution/resources/ największej na świecie organizacji zrzeszającej adwokatów w USA.
Zalety mediacji, w tym znaczne skrócenie czasu potrzebnego na załatwienie sprawy, są przedstawione w tym raporcie: https://www.coe.int/en/web/cepej/cepej-stat. Z raportu tego dowiecie się m.in., że szczególny nacisk kładzie się teraz na tzw. Child-Inclusive Mediation. Jest to mediacja z udziałem dzieci. Nasza kancelaria wdraża jako priorytet w ochronie dobra małoletnich. Niestety, ciągle spotykamy się z niechęcią niektórych mediatorów starszego pokolenia. Niedawno jeden z nich powiedział, że „nie zwariował jeszcze, żeby zapraszać dzieci do mediacji” – a mowa była o 16 letnim chłopaku.
O tym, jak ja sam zacząłem zajmować się prawem rodzinnym możecie przeczytać m.in. tutaj:
Zapraszamy do kontaktu!
Jeśli chcecie porozmawiać o sporach, które prowadzicie albo konfliktach, których jesteście stroną, odezwijcie się do nas.
Pomagamy rozwiązywać spory, szukamy optymalnych rozwiązań i szukamy porozumienia, gdy tylko jest możliwe.
W pierwszej kolejności stawiamy na porozumienie, ale nie unikamy procesu, gdy jest potrzebny.
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Pracujemy po to, żeby Wam pomóc!

AI JAKO DORADCA W SPRAWACH RODZINNYCH
W kilu ostatnich wpisach zająłem się rolą AI w rozwiązywaniu i eskalacji sporów między wspólnikami. Teraz chciałem przyjrzeć się temu, jak ludzie wykorzystują sztuczną inteligencję w sprawach bardzo delikatnych. Mam na myśli sprawy rodzinne. Opiszę Wam przypadki, z którymi zetknąłem się osobiście – żeby daleko nie szukać – w grudniu 2025 roku. Są one dla mnie szczególnie interesujące, ponieważ zajmuję się konfliktami jako zjawiskiem i obserwuję rosnącą rolę AI w ich powstawaniu i eskalacji. Sprawy rodzinne są jednym z obszarów, gdzie jest to szczególnie widoczne.
AI w sprawach rodzinnych i jej wpływ na zachowanie ludzi
Coraz częściej dostrzegam silny wpływ AI na dynamikę sporów rodzinnych. W tym tekście podzielę się z Wami sprawami z ostatnich tygodni. Zmieniam oczywiście szczegóły tak, aby uniemożliwić identyfikację kogokolwiek. Z każdą z osób, których historię przedstawiam, rozmawiałem kilka razy osobiście lub online. Opisuję zjawisko nowe, którego konsekwencje dla życia rodzinnego i dobrostanu psychicznego jednostek, rodzin i społeczności nie są jeszcze zbadane. Staram się powstrzymywać od ocen – zostawiam je Wam.
SPRAWA PIERWSZA – PYTANIE O KONTAKTY Z DZIECKIEM PO ROZWODZIE
Zgłosił się do mnie Klient, który właśnie się rozwiódł. Nie uczestniczyłem w tym rozwodzie. Mężczyzna między 30, a 40 – dobrze prosperujący i inteligentny. Prosił o pilną poradę. Ustalił bowiem w trakcie rozwodu, który odbył się 2 tygodnie wcześniej, że będzie miał kontakty z dziećmi w określone dni w tygodniu i co drugi weekend. Co ważne – państwo ciągle ze sobą mieszkają.
W związku z tym, była żona powiedziała mu, że zamierza w najbliższy weekend wyjść na imprezę – a on zgodnie z ustaleniami – ma zająć się dziećmi.
Pan zapytał jeden z modeli AI, czy ustalone kontakty oznaczają, że on musi się w tym czasie zajmować dziećmi, czy też jest to jedynie jego prawo, „zabezpieczenie”, gdyby była żona zamierzała mu to utrudniać. Czat utwierdził go w przekonaniu, że jest to jedynie jego prawo, a więc matka nie ma prawa od niego oczekiwać, że zajmie się dziećmi. Po tej „rozmowie” z AI doszło do gwałtownej kłótni między nimi.
Pomijam już fakt, że takie kwestie powinni klientom wytłumaczyć ich prawnicy. Jest to w końcu abecadło nowej rzeczywistości. Problem polegał na tym, że model językowy nie udzielił prawidłowej porady prawnej. Odpowiedź była nieprawdziwa. Utwierdziła jednak tego pana w mylnym przekonaniu. To, co się stało dalej jest idealnym przykładem sprzężonego błędu atrybucji.
Użytkownik miał wątpliwości. Opisał wycinek rzeczywistości w sposób, który pozwolił czatowi na udzielenie odpowiedzi utwierdzającej go w błędnym przekonaniu. Spowodowało to utwierdzenie, wzmocnienie tego przekonania i gotowość do konfrontacji i eskalacji.
Sprawa druga – AI jako wynajęty psychoanalityk
Klientka koło 30 roku życia. Inteligentna, wykształcona i bardzo dobrze zarabiająca. Przygotowując się do sprawy poprosiła popularny model AI o stworzenie modelu psychologicznego swojego męża.
Opisała go dokładnie tak, jak go widziała. Czat odpowiedział, że „co prawda nie jest psychologiem, ale…” chętnie pomoże. Po czym przypisał mu połowę istniejących zaburzeń utwierdzając ją m.in. w tym, że mąż jest niedojrzały emocjonalnie, głęboko narcystyczny i psychopatyczny.
W oparciu o rozmowę z modelem AI stwierdziła, że nie może mu zaufać i zostawiać z nim dziecka, gdyż nie byłoby to dla tego dziecka bezpieczne.
Gdy zaproponowałem, żeby skonsultowała to z psychologiem, powiedziała, że nie ma takiej potrzeby. Czat odpowiedział jej już na wszystkie pytania. W efekcie ta pani gotowa uniemożliwić mężowi kontakty z synem, by go chronić przed ojcem.
Problem nie polegał na samej analizie. Chodzi o to, że rozmowa z modelem AI została potraktowana jak diagnoza kliniczna, a opierała się wyłącznie na jednostronnym opisie. Pomijam już, że dokonał jej model językowy, a nie uprawniony do tego psychiatra lub psycholog. On również powinien zbadać pacjenta, posłużyć się testami i obserwacją, a nie bazować na samej relacji zaangażowanej osoby.
Nie przyjąłem tej sprawy.
Sprawa trzecia – AI jako analityk rozmów
Przyszli do mnie na mediację rodzice dwojga małych dzieci. Początkowo po rozstaniu ich rodzicielska współpraca przebiegała poprawnie. Od tego czasu państwo rozmawiali ze sobą niemal już wyłącznie przez komunikator WhatsApp i dość długie wiadomości pisane na nim.
Wkrótce zaczęli wzbudzać w sobie nieufność, doszukiwać się ukrytych zamiarów, aluzji i wielowariantowego planowania w celu zaszkodzenia sobie. Oboje nabrali przekonania, że drugie z nich gotowe jest użyć dzieci przedmiotowo, a nawet godziło się na długotrwałe ujemne następstwa psychiczne po ich stronie, byle postawić na swoim.
Okazało się, że każde z nich wklejało otrzymane wiadomości do okna modelu AI, który szczegółowo je analizował, po czym pomagał przygotować odpowiedź. Odpowiedź taka była wysyłana i poddawana podobnej analizie przez drugą stronę.
Powstała spirala podejrzeń i gotowość do podejmowania coraz bardziej radykalnych kroków. Każde z nich straciło w pewien sposób kontakt z rzeczywistością.
AI w sprawach rodzinnych – wnioski
Te trzy przykłady z mojej praktyki pokazują, że mamy tendencję do:
- szukania potwierdzenia pierwotnych założeń;
- podlegamy wzmocnieniu przekonań po otrzymaniu potwierdzenia;
- preferujemy AI jako źródło potwierdzenia, gdyż jest:
- szybsze;
- tańsze;
- milsze;
- stoi za nią nimb wszechwiedzy i tajemniczości, przez co wydaje nam się bardziej atrakcyjna, niż jakiś prawnik albo psycholog.
Prowadzi to do powstania myślenia tunelowego i gotowości do szybkiego i nieprzemyślanego wchodzenia na wyższe szczeble eskalacji w sporze. Co najgorsze, nasze pierwotne uprzedzenia i przekonania ulegają wzmocnieniu, gdyż uznajemy, że dostaliśmy potwierdzenie od niezawodnej technologii.
Skutki tego zachłyśnięcia się AI są obecnie trudne do przewidzenia. I problem nie leży w samej technologii, ale w tym, że wiele osób nie potrafi krytycznie oceniać uzyskiwanych odpowiedzi.
Co ważne, AI sprzyja też potęgowaniu skutków podstawowego błędu atrybucji, o czym pisałem już tutaj:
O tym, że klienci przychodzą do mojej kancelarii z gotowymi „rozwiązaniami” i oczekują ich realizacji pisałem już kilka razy. Motyw AI w sprawach rodzinnych przewija się u mnie od początku 2025 roku. Możecie przeczytać np. ten artykuł:
O myśleniu tunelowym i sprzężonym błędzie konfirmacji pisałem z kolei tu:
Dla zainteresowanych: badania naukowe o roli AI w utrwalaniu błędów poznawczych
AI w sprawach rodzinnych pojawia się coraz częściej i ma coraz większy wpływ na przekonania, wybory i zachowania ludzi. Okazuje się, że moje obserwacje mają silne oparcie w badaniach naukowych. Zobaczcie sami.
Polecam Wam artykuł opublikowany już rok temu: Jak pętle sprzężenia zwrotnego człowiek-AI zmieniają ludzkie osądy percepcyjne, emocjonalne i społeczne (Nature Human Behaviour). Autorzy wykazali, że AI potwierdzające ludzkie założenia prowadzi do wzmocnienia percepcji, emocji i ocen społecznych. Przeczytajcie go koniecznie: https://www.nature.com/articles/s41562-024-02077-2?
Zdecydowanie warto przeczytać również artykuł Yiran Du: Confirmation Bias in Generative AI Chatbots. Zawiera on analizę tychże mechanizmów błędu potwierdzenia w modelach AI. Przeczytamy w nim również o ryzykach związanych z tym sprzężeniem: https://arxiv.org/abs/2504.09343?
Wreszcie tutaj macie link do tekstu o myśleniu tunelowym, które powstaje wskutek mało krytycznego podejścia do odpowiedzi uzyskiwanych od AI: Bias in the Loop: How Humans Evaluate AI‑Generated Suggestions. Autorzy twierdzą, że eksperymenty dowodzą, że użytkownicy przyjmują błędne sugestie AI, jeśli pasują do ich wcześniejszych przekonań: https://arxiv.org/pdf/2509.08514
Tutaj zostawiam linki do analizy naukowców z Uniwersytetu Stanforda, którzy zajęli się zjawiskiem „halucynowania” AI i jego wpływem na podejmowanie decyzji przez ludzi: https://hai.stanford.edu/news/ai-trial-legal-models-hallucinate-1-out-6-or-more-benchmarking-queries?utm_source=chatgpt.com
Zapraszam Was do kontaktu
Jeśli potrzebujecie pomocy prawnika, który zajmuje się rozwiązywaniem sporów – również w zakresie spraw rodzinnych – odezwijcie się do mnie:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Z przyjemnością Wam pomogę!

RÓŻNICE MIĘDZY MEDIACJĄ, ARBITRAŻEM A PROCESEM
Wśród tzw. Alternative Dispute Resolution (ADR), czyli alternatywnych sposobów rozwiązywania sporów, wyróżnia się m.in. arbitraż i mediację. Obie te formy stanowią alternatywę wobec postępowania sądowego, lecz nie są ze sobą tożsame. Bywa jednak, że w języku potocznym są mylone. W tym artykule wyjaśniam, na czym polegają zasadnicze różnice między mediacją, arbitrażem a procesem sądowym oraz kiedy warto sięgnąć po każde z tych rozwiązań.
CZYM JEST MEDIACJA?
Różnice między mediacją arbitrażem a postępowaniem sądowym są istotne. O mediacji pisałem już wielokrotnie. W tych tekstach odwołuję się m.in. do własnych doświadczeń, które zbieram jako mediator oraz pełnomocnik stron w postępowaniach sądowych i mediacyjnych. Rozwiązywaniem sporów i negocjacjami zajmuję się od kilkunastu lat. Nie mam jeszcze doświadczenia w postępowaniach arbitrażowych, więc to, co o nich piszę, opieram na teorii. Nie zmienia to faktu, że jestem do nich przychylnie nastawiony. Zostawiam Wam tu linki do kilku moich przykładowych tekstów:
Tutaj więc nie będę tego wszystkiego powtarzał. Napiszę tylko, że mediacja jest sposobem rozwiązania sporów, który jest całkowicie dobrowolny, odformalizowany, poufny, odpłatny, a jego celem nie jest rozstrzygnięcie sporu, a właśnie jego rozwiązanie. Co więcej, podstawą tego rozwiązania jest porozumienie wypracowane przez strony, które nie może być z prawem sprzeczne, ale jego podstawą wcale nie muszą być normy prawne. Mediacja nie polega na wymianie argumentów w celu przekonania kogokolwiek, ale na przedstawianiu swojego punktu widzenia, otwierania się na punkt widzenia drugiej strony i wspólnym szukaniu rozwiązania. Więcej o mediacji możecie przeczytać również tutaj:
https://www.gov.pl/web/sprawiedliwosc/miedzynarodowe-i-polskie-standardy-dotyczace-mediacji
Czym jest arbitraż?
Arbitraż łączy w sobie pewne cechy postępowania sądowego i mediacji. Jest czymś „po środku”. Oczywiście, ma własne, charakterystyczne cechy. Postępowanie arbitrażowe jest również odpłatne – to jasne. Jest znacznie bardziej sformalizowane niż mediacja, ale mniej sformalizowane niż proces sądowy.
W arbitrażu dochodzi jednak do rozstrzygnięcia sporu, a więc przyznaniu racji jednej ze stron. Dokonuje tego tzw arbiter, czyli osoba pełniąca funkcję podobną do sędziego. Jest on jednak wyznaczany lub wybierany przez strony (czasem każda z nich powołuje po jednym, a ci dwaj wybierają trzeciego arbitra). Jednakże rozstrzygnięcia arbitrażowego zapadają w znaczne mierze w oparciu o „miękkie normy”, jakimi są zwyczaje, dobre obyczaje, zasady słuszności. Te reguły postępowania występują również w procesie sądowym, ale znacznie ustępują tzw. normom twardym, wynikającym z normatywnych aktów prawnych.
Postępowanie arbitrażowe jest co do zasady jednak znacznie szybsze i mniej sformalizowane od procesu sądowego, ale znacznie bardziej sformalizowane od mediacji. Jakby nie było, jest formą procesu nastawionego na polemikę między stronami i rozstrzygniecie sporu zamiast poszukiwania rozwiązania.
Arbitraż jest zawsze dobrowolny, ale prowadzi się go na podstawie tzw. zapisu na sąd polubowny – który najczęściej występuje w umowie między stronami. Nic nie stoi na przeszkodzie, aby strony, które wcześniej zapisu na sąd polubowny nie uczyniły, wspólnie poddały swój spór pod jego rozstrzygnięcie już potem.
Więcej o arbitrażu przeczytacie tutaj:
Różnice między mediacją arbitrażem a postępowaniem sądowym
Poniżej przedstawiam Wam tabelę z porównaniem postępowania sądowego, arbitrażowego i mediacji. Zobaczcie sami, jakie są między nimi różnice.
| Kryterium | Postępowanie sądowe | Arbitraż | Mediacja |
|---|---|---|---|
| Charakter | Publiczne postępowanie oparte na przepisach prawa procesowego. | Prywatne postępowanie prowadzone przez wybranego arbitra lub sąd polubowny. | Dobrowolny, nieformalny proces oparty na dialogu stron przy udziale mediatora. |
| Dobrowolność | Uczestnictwo wynika z wszczęcia postępowania (pozew). Nie jest dobrowolne w sensie wyboru trybu. | Zazwyczaj dobrowolny — na podstawie zapisu na sąd polubowny lub umowy stron. | Całkowicie dobrowolna — strony mogą rozpocząć i zakończyć mediację w dowolnym momencie. |
| Decyzyjność | Orzeczenie wydaje sąd (sędzia), decyzja jest jednostronna i wiążąca. | Orzeczenie wydaje arbiter (wyrok arbitrażowy), zwykle wiążące dla stron. | Decyzję wypracowują same strony — mediator nie narzuca rozstrzygnięcia. |
| Formalizm | Wysoki — ścisłe procedury, terminy i zasady dowodowe. | Umiarkowany — mniej formalny niż postępowanie sądowe, ale z zachowaniem określonych reguł. | Niski — elastyczne zasady procesowe, dostosowane do potrzeb stron. |
| Czas trwania | Zazwyczaj długi — miesiące lub lata, zależnie od skomplikowania sprawy i obciążenia sądów. | Zazwyczaj krótszy niż postępowanie sądowe, choć zależy od sprawy i terminarza arbitrów. | Najkrótszy — często kończy się w ciągu kilku spotkań lub kilkunastu tygodni. |
| Koszty | Wysokie — opłaty sądowe, koszty pełnomocników, biegłych i innych ekspertów. | Wysokie lub umiarkowane — wynagrodzenie arbitra, koszty administracyjne sądu polubownego, pełnomocnicy. | Niskie w porównaniu z procesem i arbitrażem — honorarium mediatora i ewentualne koszty organizacyjne. |
| Poufność | Postępowanie jawne (z wyjątkiem spraw, które przepisy wyłączają z jawności). | Poufne — zwykle procedury i orzeczenia są objęte klauzulą poufności. | Poufne — mediator i strony zobowiązują się do zachowania poufności przebiegu mediacji. |
| Relacje między stronami | Często ulegają pogorszeniu z powodu adversarialnego charakteru postępowania. | Może być zachowana przyzwoita współpraca; jednak arbitraż ma charakter rozstrzygający i bywa konkurencyjny. | Sprzyja odbudowie relacji i poprawie komunikacji między stronami. |
| Elastyczność rozwiązań | Ograniczona — sąd stosuje przepisy prawa i wydaje orzeczenia zgodne z obowiązującymi normami. | Większa — strony i arbiter mogą kształtować rozwiązania bardziej elastycznie (np. uwzględniając zasady słuszności). | Bardzo duża — rozwiązania tworzone są według potrzeb stron (np. rozłożenie spłaty, warunki współpracy). |
| Kontrola orzeczenia / ugody | Możliwa apelacja i skarga kasacyjna (w zależności od rodzaju sprawy i instancji). | Ograniczona kontrola sądowa — skarga o uchylenie wyroku arbitrażowego jest możliwa w wąskim zakresie. | Brak standardowego środka zaskarżenia — strony same decydują o przyjęciu ugody; ugoda zatwierdzona przez sąd staje się wykonalna. |
| Wykonalność rozstrzygnięcia | Wyrok sądu powszechnego ma moc egzekucyjną i jest bezpośrednio wykonalny. | Wyrok arbitrażowy ma moc wykonalną — zwykle po nadaniu mu klauzuli wykonalności przez sąd (procedura uznania/egzekucji w zależności od jurysdykcji). | Ugoda zawarta w mediacji jest wykonalna po jej zatwierdzeniu przez sąd lub po sporządzeniu jej w formie mającej moc tytułu egzekucyjnego (np. ugoda sądowa, akt notarialny z klauzulą wykonalności). |
Co z tego wynika?
Mediacja może być nie tylko alternatywą dla procesu sądowego, lecz także jego uzupełnieniem — sądy coraz częściej kierują strony do mediacji już w trakcie procesu. Arbitraż zaś jest szczególnie przydatny w sporach gospodarczych, zwłaszcza międzynarodowych, gdy liczy się poufność i specjalistyczna wiedza arbitrów.
Można więc zadać pytanie, co jest najlepsze? Nie ma jednej odpowiedzi. Mediacja jest nakierowana na zachowanie bądź poprawę relacji i wspólne projektowanie rozwiązania problemu. W sądzie nie skupiamy się na jego rozwiązaniu, ale na walce z drugą stroną i prześciganiu się w tym, kto przekona sędziego do własnych racji. Tak więc, arbitraż jest rozwiązaniem pośrednim, ale moim zdaniem znacznie bliżej mu jednak do postępowania sądowego.
Szukacie źródeł do porównania mediacji, arbitrażu i postępowania sądowego?
Jeśli tak, możecie skorzystać ze źródeł, które dla Was przygotowałem. To zestaw najbardziej wiarygodnych źródeł, które warto poznać:
- „Mediation vs. Arbitration vs. Litigation: What’s the Difference?” – FindLaw (USA)
→ https://www.findlaw.com/adr/mediation/mediation-vs-arbitration-vs-litigation-whats-the-difference.htmlFindLaw - „Arbitration vs. Mediation – Explaining the Differences” – Office of Justice Programs / National Criminal Justice Reference Service (NCJRS)
→ https://www.ojp.gov/ncjrs/virtual-library/abstracts/arbitration-vs-mediation-explaining-differences Office of Justice Programs - „Litigation Dispute Resolution Comparative Guide – United States” – Mondaq
→ https://www.mondaq.com/unitedstates/litigation-mediation-arbitration/1076524/litigation-dispute-resolution-comparative-guide Mondaq - „Secondary Sources – Alternative Dispute Resolution (ADR)” – Arizona State University College of Law (ASU LibGuides)
→ https://libguides.law.asu.edu/ADR libguides.law.asu.edu - „Difference Between Arbitration, Mediation, and Litigation” – BrewerLong
→ https://brewerlong.com/information/difference-between-arbitration-mediation-and-litigation/
Różnice między mediacją arbitrażem a postępowaniem sądowym – artykuły naukowe
Oto trzy artykuły naukowe głównie z USA, które dotyczą porównania mediacji, arbitrażu i postępowania sądowego. Część może być dostępna w pełnym tekście (PDF) lub za pośrednictwem bibliotek:
- Evolving Perceptions and Use of Mediation, Arbitration, and Conflict Management: Survey and Commentary – T. J. Stipanowich. „Evolving Perceptions and Use of Mediation, Arbitration, and Conflict Management Practice and Research”. 2017. PDF dostępny. Journals Harvard Law
- Omówienie ewolucji mediacji i arbitrażu w USA.
- Review historyczny oraz analiza trendów w ADR.
- Link: [PDF] https://journals.law.harvard.edu/hnlr/wp-content/uploads/sites/91/19HarvNegotLRev1-Stipanowich-Lamare.pdf Journals Harvard Law
- Comparing Federal Government Litigation and ADR Outcomes – Autorzy: (nie podano w streszczeniu) „Dispute Resolution and the Vanishing Trial: Comparing Federal Government Litigation and ADR Outcomes”. 2009. PDF dostępny. sidley.com
- Analiza przypadków w USA: porównanie procesu sądowego i ADR w sprawach, w których uczestniczyła amerykańska administracja.
- Przydatny w kontekście: praktyczne konsekwencje wyboru ADR a proces sądowy.
- Link: [PDF] https://www.sidley.com/~/media/files/publications/2009/01/dispute-resolution-and-the-vanishing-trial-compa__/files/view-article/fileattachment/govlitadroutcomes.pdf sidley.com
- Med‑Arb and the Legalization of ADR – Brian A. Pappas. „Med-Arb and the Legalization of ADR”. Spring 2015 (USA). PDF dostępny. Journals Harvard Law
- Analiza hybrydowego procesu mediacji/arbitrażu („med-arb”) w kontekście USA.
- Link: [PDF] https://journals.law.harvard.edu/hnlr/wp-content/uploads/sites/91/HNR104_crop.pdf Journals Harvard Law
Jeśli potrzebujecie pomocy w rozwiązaniu sporu, skontaktujcie się z nami. Jesteśmy od tego, żeby Wam pomóc.
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Zapraszamy do współpracy!

WYJŚCIE WSPÓLNIKA ZE SPÓŁKI JAWNEJ
Jedno jest pewne – zakończenie współpracy między wspólnikami spółki jawnej jest znacznie trudniejsze i ciekawsze, niż jej rozpoczęcie. Niestety, większość osób zaczyna o tym myśleć dopiero, gdy zaczynają się problemy. Mogą one być związane z różnicą zdań między wspólnikami lub czynnikami zewnętrznymi. Bez względu na to, dlaczego wspólnik decyduje się na zakończenie współpracy, trzeba sobie odpowiedzieć na kilka bardzo ważnych pytań.
Wyjście ze spółki jawnej – czyli kto zostaje, a kto wychodzi?
Wyjście ze spółki jawnej – czyli… kto zostaje, a kto wychodzi? To jest kluczowe pytanie. Jak mamy rozumieć zakończenie współpracy? Ja odchodzę, a Ty bierzesz firmę? Czy może odwrotnie? W grę wchodzi również sprzedaż spółki lub jej majątku, a potem likwidacja i podział nadwyżki między wspólników. Trudność polega na tym, że wspólnicy mogą mieć różne plany i wizje. Nie powinno to dziwić, skoro dochodzi do zakończenia współpracy. Może być tak, że każdy z nich będzie chciał dalej prowadzić firmę i pozbyć się swojego wspólnika. W innym przypadku będzie odwrotnie – każdy z nich będzie chciał zostać spłacony przez drugiego i zająć się czymś innym.
Negocjacje mogą trwać długo, jednak metoda faktów dokonanych okazuje się tu nadzwyczaj skuteczna. Często impas będzie przerwany dopiero przez oświadczenie o wypowiedzeniu umowy spółki. Kiedy indziej przez żądanie wyłączenia wspólnika przez sąd albo żądanie rozwiązania spółki w trybie art. 63 k.s.h. Różnica między tymi trybami jest zasadnicza. Wszystkie prowadzą do zakończenia współpracy, ale są różne przesłanki ich uruchomienia i realizacji. W końcu – co może okazać się kluczowe, jeden z nich oznacza, że ja wychodzę, a Ty zostajesz. Drugi zaś – może skutkować rozwiązaniem odwrotnym.
Może wreszcie jeden ze wspólników będzie chciał zwyczajnie „sprzedać swoje udziały” osobie trzeciej? Używam cudzysłowu, bo ta umowa nie jest do końca umową sprzedaży, a już z pewnością nie dotyczy udziałów w rozumieniu, jakim kodeks spółek handlowych posługuje się w odniesieniu do spółki z o.o. Idea jest jednak podobna.
Wyjście ze spółki jawnej – o czym należy pamiętać?
Pieniądze są oczywiście ważne, ale równie ważna jest druga strona równania – tj. odpowiedź na pytanie – za co mają one być zapłacone? Wspólnicy powinni więc ustalić między innymi zasady odpowiedzialności za zobowiązania spółki – istniejące lub te, które ujawnią się dopiero w przyszłości. Koniecznie trzeba zająć się zakazem konkurencji i zachowaniem tajemnicy przedsiębiorstwa. Dobrze jest określić tryb spłaty, zabezpieczenie roszczeń, być może kary umowne na wypadek gdyby np. oświadczenia co do stanu spółki okazały się nieprawdziwe.
Negocjując kwotę rozliczenia trzeba mieć koniecznie na względzie te i inne elementy istotne dla całej transakcji. W przeciwnym razie targujemy się o cenę nie wiedząc, za co płacimy. Trzeba znać zasady określone przez k.s.h. i kodeks cywilny i wiedzieć, które z nich można zmienić w porozumieniu tak, aby lepiej zabezpieczały interesy stron transakcji. Inne będą zasady w przypadku zbycia ogółu praw i obowiązków w trybie art. 10 k.s.h. Jeszcze inne określać będą tryb i zasady rozliczenia z występującym wspólnikiem, który wypowiedział umowę spółki. Inaczej wygląda rozliczenie ze spadkobiercami zmarłego wspólnika. Jeszcze inaczej w końcu wygląda rozliczenie ze wspólnikiem wyłączonym na podstawie orzeczenia sądu z ważnych przyczyn leżących po jego stronie.
Przepisy, o których piszę, możecie sprawdzić w kodeksie spółek handlowych: 👉 https://isap.sejm.gov.pl/isap.nsf/download.xsp/WDU20000941037/U/D20001037Lj.pdf
Podstawowe informacje o spółce jawnej znajdziecie tutaj:
https://www.biznes.gov.pl/pl/portal/00161
Jeśli nie macie ochoty czytać, a wolicie posłuchać, polecę Wam odcinek mojego podcastu o przyczynach nieporozumień między wspólnikami:
W końcu, możecie przeczytać coś extra: Drivers of and barriers to partner switch in interfirm alliances: a conceptual model (Journal of Business Economics, 2020) – artykuł o tym, dlaczego i jak wspólnicy kończą współpracę oraz jakie mechanizmy temu sprzyjają. SpringerLink
To już jest pozycja naukowa z górnej półki. Podobnie, jak ta: https://link.springer.com/article/10.1007/s11573-019-00965-y?utm_source=chatgpt.com
Zaproszenie do kontaktu
Te uwagi są oczywiście bardzo ogólne. Starałem się pokazać Wam, że możliwości jest naprawdę wiele – o kilku nawet nie wspomniałem. Każdy z tych trybów rządzi się swoimi prawami i może być przeprowadzony na wiele różnych sposobów – w zależności od potrzeb, wyobraźni, możliwości i przebojowości wszystkich zainteresowanych.
Każdy przypadek zakończenia współpracy wspólników jest inny. Naszym zadaniem jest znaleźć rozwiązanie, które ochroni Twój interes – prawnie i finansowo.
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Chcecie przeczytać coś więcej o spółce jawnej? Proszę bardzo, oto kilka moich tekstów:
