
BADANIE: AI JAKO UKRYTY SOJUSZNIK W SPORACH?
Poniżej przedstawiamy raport z badania, jakie przeprowadziliśmy w styczniu 2026 roku. Jego przedmiotem było zebranie informacji o tym, jak ludzie korzystają z AI w analizie sporów, których są stronami. Wyniki okazały się bardzo interesujące.
Raport o roli AI w sporach ze stycznia 2026 roku. Ukryty doradca czy generator błędów? Co zrobiliśmy?
Przeprowadziliśmy ankietę, którą wypełniło 87 osób. Wśród nich są nasi klienci, zaprzyjaźnieni adwokaci, radcowie prawni, mediatorzy, biznesmeni, psychologowie, ludzie zajmujący się nauką i sztuką. Z pewnością nie jest to więc grupa reprezentatywna w rozumieniu badań ogólnopolskich, takich jak badania opinii publicznej. Jest to jednak grupa posiadająca wysoką świadomość istoty sporu i zdolność do krytycznej oceny własnego rozumowania.
Ankietę ułożyłem sam. Już po jej rozesłaniu kilka osób zwróciło mi uwagę na kwestie techniczne lub związane z formułowaniem niektórych pytań. Dziękuję za te uwagi – z pewnością uwzględnię je w następnych badaniach, które – już wiem – z pewnością przeprowadzę.
Co było przedmiotem ankiety o AI?
Pytania dotyczyły korzystania z AI w ogóle oraz wykorzystywania jej do analizy sytuacji rodzinnej / pracowniczej / biznesowej. Obejmuje etap również sprzed powstania sporu.
Kolejne pytania dotyczyły analizy intencji drugiej strony sporu. Jest to element najbardziej podatny na działanie podstawowego błędu atrybucji. W przypadku zetknięcia z AI – przez jej hiperdopasowanie – generuje to działanie tzw. feedback loop. Jest to pułapka potwierdzenia, która prowadzi do powstania myślenia tunelowego.
Następnie zapytałem wykorzystanie AI do ustalenia własnych działań – celowo nie doprecyzowałem, czy chodziło o pierwsze działanie, czy też o reakcję na postawę drugiej strony.
Jednakże najważniejsze było dla mnie pytanie o to, czy poinformowalibyśmy drugą stronę o tym, że korzystamy z AI do analizy jej działań / intencji lub przygotowania własnych ruchów. Tutaj ankieterzy wykazali się zdumiewającą wręcz zgodnością. Jest kwestią otwartą, jakie z tego wyciągniemy wnioski – nie chcę tego przesądzać.
Ostatnie dwa pytania dotyczyły zaufania do AI. Były bardzo podobne, ale jednak… ciekawe jest to, że nie pokrywają się wyniki zaufania do AI z oceną jej obiektywności. Tak, jakbyśmy wiedzieli, że nie jest obiektywna, ale mieli tendencję do tego, by jej ufać.
Jak odpowiadali uczestnicy?
Poniżej przedstawiamy „suche” pytania i odpowiedzi.








Raport o roli AI w sporach. Analiza odpowiedzi
Zdecydowana większość uczestników korzysta z AI. Z pewnością nie dotyczy do wszystkich w tym samym stopniu, ani tym bardziej – tematy poruszane nie są takie same, ani nawet podobne. Jednak fakt powszechnego korzystania z modeli językowych jest faktem.
Prawie połowa, bo 43% respondentów odpowiedziało, że używa modeli językowych do analizy swojej sytuacji rodzinnej, w miejscu pracy lub biznesie. Moim zdaniem, to bardzo dużo. Co ciekawe, najmniej osób potwierdziło analizę sytuacji rodzinnej, a najwięcej biznesowej. 29% osób wskazało też na inne obszary. Zostawiam tu link do artykułu o roli AI w sporach rodzinnych: https://jakubieciwspolnicy.pl/ai-w-sprawach-rodzinnych/
Znaczna większość, bo 81% osób nie próbowało ustalić intencji drugiej strony za pomocą AI. Czy to dużo? Spójrzmy z drugiej strony – prawie 20% osób próbuje to robić. Oznacza to, że co piąta osoba jest podatna na sprzężenie zwrotne wynikające ze wzmocnienia jej pierwotnego nastawienia przez AI, która ma tendencję do „potakiwania”.
25% osób potwierdziło, że ustala własne ruchy w sporze z wykorzystaniem sztucznej inteligencji. Ta rozbieżność z poprzednim pytaniem jest ciekawa. Można ja przemilczeć jako błąd statystyczny albo uznać, że 5% procent z nas korzysta z AI do ustalenia własnych ruchów w sporach bez analizy intencji drugiej strony. Oczywiście, nie wiem, czy to dokładnie te 5% uczestników.
Bardzo ciekawe jest to, że 80% z nas nie poinformowałoby drugiej strony, że korzysta z AI do analizy sporu, intencji drugiej strony lub formułowania własnych posunięć. Dlaczego? Czy uważamy to za nieuczciwe (jak doping)? A może podchodzimy do tego, jak do zabobonu i przesądu i trochę się wstydzimy (nie wiem, jak to działa, ale na wszelki wypadek posłucham, jednak nie będę się tym chwalić)? Może uważamy, że wyprzedziliśmy technologicznie i intelektualnie drugą stronę i nie chcemy ujawniać, że mamy tak potężną broń?
Czy ufamy AI?
Ostatnie dwa pytania dają wyniki zdumiewające. Z AI korzysta 75% z nas, ale 67% uważa, że nie jest ona obiektywna. Czemu więc korzystamy? Dla wzmocnienia własnych przekonań? – W końcu miło jest nam, gdy najpotężniejsza technologia w historii ludzkości zaczyna co drugie zdanie od: „To świetny pomysł, Andrzeju!”. A może zwyczajnie udajemy, że tego nie widzimy? A może uznajemy, że brak obiektywności nie oznacza, że AI nie udziela dobrych rad, tylko że jest po naszej stronie (i dobrze!)? Ciekawie koresponduje to z wynikami poprzedniego pytania, w którym ogromna większość odpowiedziała, że częściowo ufa AI.
Raport o roli AI w sporach. Wnioski
AI stała się powszechnym narzędziem i stanowi jeden z elementów kształtowania naszych postaw w wielu dziedzinach życia. Z pewnością, jej wpływ jest odczuwalny w sporach, które prowadzimy. Co ciekawe, również widzimy ją w analizie samej struktury sytuacji. Może to prowadzić do powstania potrzeby zmiany dotychczasowego układu, a to z kolei – do sporu.
Moje poprzednie publikacje o AI w sporach
Poniżej zostawiam Wam kilka linków do artykułów, w których poruszyłem rolę i wpływ AI na dynamikę sporów. Przedstawiłem w nich moją autorską koncepcję Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB). W tekstach tych znajdziecie odnośniki do najnowszych badań zamieszczonych w prestiżowych czasopismach naukowych. Dotyczą one psychologii, aspektów technologicznych AI i jej roli w powstawaniu myślenia tunelowego, utwierdzania pierwotnych uprzedzeń lub preferencji. Tutaj zostawiam link do jednego z najważniejszych artykułów na ten temat, autorstwa Yiran Du: Confirmation Bias in Generative AI Chatbots. Zawiera on analizę tychże mechanizmów błędu potwierdzenia w modelach AI. Przeczytamy w nim również o ryzykach związanych z tym sprzężeniem: https://arxiv.org/abs/2504.09343?
Ja nałożyłem te badania na sytuację, gdy z AI korzystają obie strony sporu, a działania jednej strony ustalone wspólnie z jej AI, stanowią punkt wyjścia do analizy drugiej strony (wspólnie z jej AI), co skłoni tę drugą stronę do przygotowania adekwatnej odpowiedzi. Eskalacja konfliktu wydaje się tu szczególnie niebezpieczna.
Dla zainteresowanych zostawiam również link do artykułu w wersji angielskiej, w którym rozwinąłem koncepcję sprzężonego błędu konfirmacji:
Zaproszenie do współpracy
Jeśli jesteście stroną sporu, potrzebujecie doradztwa strategicznego, nie tylko prawnego, możecie się do mnie odezwać. Ja i mój zespół zajmujemy się nie tylko prawem, ale prowadzimy negocjacje w oparciu o wiedzę z zakresu psychologii, ekonomii, sztuki negocjacji i analizy behawioralnej.
Jeśli macie własne doświadczenia z AI jako czynnikiem w sporach, odezwijcie się do nas. Chętnie wysłuchamy Waszej historii, być może posłuży ona nam jako wartościowy materiał do nauki lub badań. Zapewniamy oczywiście pełną anonimowość.
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Ostatnie wpisy
SPRAWY RODZINNE – WALKA CZY WSPÓŁPRACA?
Sprawy rodzinne są emocjonalnie trudne. Często wiążą się z wieloma pretensjami i krzywdami. Każda ze stron uważa najczęściej, że to jej dzieje się krzywda....
CYFROWY GASLIGHTING W NEGOCJACJACH
Negocjacje są grą psychologiczną. Ludzie zawsze próbowali wpływać na siebie, testować swoje granice, budować i wykorzystywać przewagi. Jednak dziś do tej...
BADANIE: AI JAKO UKRYTY SOJUSZNIK W SPORACH?
Poniżej przedstawiamy raport z badania, jakie przeprowadziliśmy w styczniu 2026 roku. Jego przedmiotem było zebranie informacji o tym, jak ludzie...
