
CYFROWY GASLIGHTING W NEGOCJACJACH
Negocjacje są grą psychologiczną. Ludzie zawsze próbowali wpływać na siebie, testować swoje granice, budować i wykorzystywać przewagi. Jednak dziś do tej gry dołącza nowy uczestnik – niewidzialny, szybki i pozbawiony emocji. Algorytm. Może on stać się „wspomaganiem” jednej ze stron. Może być narzędziem, które nie tylko wzmacnia argumenty, ale tworzy groźny nacisk emocjonalny.
Czym jest cyfrowy gaslighting?
Cyfrowy gaslighting to wykorzystanie sztucznej inteligencji do generowania komunikatów, które mają podważyć osąd przeciwnika, wywołać w nim nieuzasadnione poczucie winy, lęku lub dezorientacji. Używam tego pojęcia nie w sensie klinicznym, lecz jako skrótu opisującego algorytmicznie wzmacnianą manipulację poznawczą w komunikacji negocjacyjnej. To już nie jest zwykła perswazja. To precyzyjna inżynieria wpływu. Mamy do czynienia z manipulacją napędzaną najnowszą technologią. Jest to przeskok jakościowy, z jakim jeszcze nie mieliśmy do czynienia.
Sam fakt wykorzystywania AI w sporach jest już faktem. Przeczytajcie mój artykuł zawierający wyniki naszego badania: https://jakubieciwspolnicy.pl/badanie-ai-jako-ukryty-sojusznik-w-sporach/
Jakie korzyści daje cyfrowy gaslighting?
Dlaczego ta technika działa tak skutecznie? Przede wszystkim dlatego, że AI potrafi analizować styl pisania z dokładnością, której człowiek nie jest w stanie osiągnąć. W kilku akapitach potrafi wychwycić skłonność do przepraszania, unikania konfliktu, nadmiernego tłumaczenia się czy lęku przed oceną. Są to klasyczne markery słabszej pozycji negocjacyjnej – wcześniej wykorzystywane intuicyjnie, dziś identyfikowane i wzmacniane algorytmicznie.
A potem AI generuje komunikaty, które uderzają dokładnie w te punkty. To hiperdopasowanie sprawia, że odbiorca ma wrażenie, jakby druga strona „czytała mu w myślach”. W rzeczywistości to nie intuicja, lecz analiza wzorców językowych: modalności, stopnia pewności, afektywności i sposobu uzasadniania własnych racji. Mamy do czynienia z automatycznym doborem formy i argumentów, które z natury rzeczy wywrzeć mają najsilniejszy możliwy wpływ na odbiorcę według uzyskanych wcześniej wskazówek. AI przy tym „nie wie”, że robi coś złego.
Drugą przewagą jest brak hamulców. Człowiek, nawet cyniczny, ma naturalne ograniczenia: empatię, zmęczenie, moralny opór, strach przed przesadą (pomijam teraz psychopatów i socjopatów). AI nie ma żadnego z tych oporów. Jeśli dostanie cel: „wywołaj w nim wątpliwość”, zrobi to w sposób chłodny, konsekwentny i pozornie uprzejmy. Nie poczuje dyskomfortu, nie cofnie się, nie złagodzi tonu. To komunikacja zaprojektowana wyłącznie pod kątem skuteczności, a nie relacji.
Trzecia przewaga to efekt szybkości i skali. Człowiek napisze jedną wiadomość, a AI sto – i to bez wysiłku. Wybierze też tę, która najlepiej destabilizuje emocje ofiary i przesuwa punkt odniesienia. To jak walka z przeciwnikiem, który może trenować nieskończoną liczbę kombinacji, zanim wykona ruch. Nic dziwnego, że odbiorca czuje się przytłoczony – bo faktycznie mierzy się z czymś, co ma nieludzką przewagę. Dla większości ludzi może to się okazać zbyt trudne.
Jak rozpoznać, że przeciwnik wykorzystuje AI?
Jak rozpoznać, że po drugiej stronie „pisze” algorytm? Pokazuję niżej kilka sygnałów. Żaden z nich nie jest dowodem sam w sobie. Stanowią one jednak zespół sygnałów ostrzegawczych. Ich wystąpienie może sugerować duże ryzyko algorytmicznego wsparcia jednej ze stron.
Pierwszym z nich jest nienaturalna intensywność. Komunikat jest zbyt gęsty od argumentów, zbyt „czysty” stylistycznie, zbyt precyzyjnie trafia w emocje. Brzmi jak człowiek, który miał godzinę na przemyślenie każdego zdania – ale odpowiedź przyszła bardzo szybko.
Drugim sygnałem jest brak ludzkiego błędu: brak dygresji, wahań, niekonsekwencji, potknięć językowych. To język wygładzony do granic sztuczności.
Trzeci sygnał to pętla potakiwania – każda Twoja wątpliwość spotyka się z natychmiastowym, perfekcyjnie skrojonym kontrargumentem, a każda próba zmiany tematu kończy się powrotem do narracji korzystnej dla drugiej strony. To nie jest rozmowa. To algorytmiczna spirala nacisku.
Czwartym sygnałem może być widoczna różnica miedzy stylem wypowiedzi, używanym słownictwem i poziomem argumentacji miedzy tekstem pisanym, a tym, co druga strona prezentuje na żywo. Owszem, są ludzie, którym znacznie łatwiej przychodzi pisanie, a na żywo są nieśmiali i niezbyt rozmowni, ale są pewne granice.
Cyfrowy gaslighting. Jak się bronić?
Skoro AI działa szybko, intensywnie i bezlitośnie, obrona może być odwrotna: powolna, świadoma i analogowa reakcja. Najprostsza technika to dekonstrukcja tekstu. Wystarczy rozbić komunikat na dwie kategorie: fakty oraz emocjonalne przymiotniki i sugestie. Wiem, że brzmi to łatwo, a w praktyce może być bardzo trudne. Ale warto z tej techniki korzystać częściej, nie tylko, gdy podejrzewamy manipulację z wykorzystaniem AI. Jeśli jednak tego dokonamy, zobaczymy, jaka część powstała tylko po to, by np. wzbudzić w nas wyrzuty sumienia.
Możemy więc odpowiedzieć tylko na jeden – weryfikowalny – fakt z długiego maila. Pominiemy natomiast emocjonalną narrację, ewentualnie poprosimy o doprecyzowanie reszty. W większości przypadków okaże się, że nacisk opierał się na insynuacjach, hiperbolach i manipulacji kontekstem. Oddzielenie treści od tonu odbiera sprawcy korzystającemu z AI większość mocy.
Kolejną strategią jest test czasu. AI działa w trybie natychmiastowym, ale Ty nie musisz. Celowe spowolnienie obniża presję, pozwala odzyskać kontrolę i zmusza drugą stronę do wyjścia poza algorytmiczny rytm. To klasyczna technika negocjacyjna, która w erze AI zyskuje nowe znaczenie. Może to wybić sprawcę z uderzenia. On chciałby działać natychmiast, Ty nie musisz.
Trzecią metodą – chyba najlepszą – jest zmiana kanału komunikacji. AI najlepiej działa w mailach i czatach. Odejdźmy więc od nich. Póki co AI nie potrafi ani doskonale udawać człowieka np. w telekonferencji, ani tym bardziej – nie zastąpi go na żywo. Przejście na telefon lub spotkanie bezpośrednie odcina przeciwnika od algorytmicznego wsparcia.
Czy stosowanie cyfrowego gaslightingu się opłaca?
Warto jednak zadać pytanie: czy stosowanie cyfrowego gaslightingu w ogóle się opłaca?
Krótkoterminowo – tak. Daje przewagę, pozwala „przepchnąć” swoje stanowisko, wywołać presję, uzyskać ustępstwa. Ale długoterminowo koszt jest ogromny.
Przede wszystkim, dochodzi do erozji zaufania. Negocjacje działają tylko wtedy, gdy istnieje minimalny poziom przewidywalności i wiarygodności. Jeśli obie strony zaczynają używać cyfrowych masek, punkt koordynacji znika. Zostaje gra pozorów, a tracimy relację i zaufanie. W sporach, które mają trwać lata – rodzinnych, biznesowych i sukcesyjnych – takie koszty są często wyższe niż jakakolwiek chwilowa przewaga.
Drugim ryzykiem jest rykoszet. Jeśli AI zbytnio „przyciśnie” człowieka wpędzając go do tego w poczucie winy, istnieje ryzyko, że on sam… zwróci się o pomoc do swojego modelu językowego. Uzyska ją szybko i za darmo. Będzie ona nosiła cechy racjonalności i da mu oparcie w postaci domniemania zewnętrznego autorytetu. Czy taka osoba będzie miała skrupuły? O tym, co może się stać, gdy obie strony sporu korzystają z pomocy modeli językowych pisałem w serii artykułów poświęconych sprzężonemu błędowi konfirmacji. Zostawiam link do jednego z nich: https://jakubieciwspolnicy.pl/sprzezony-blad-konfirmacji/
Trzecim ryzykiem jest to, że manipulacja wyjdzie na jaw – a w erze cyfrowej ślady zostają – reputacja pęka jak szkło. Raz utraconego zaufania nie da się odbudować albo będzie to bardzo trudne.
Pomijam w tym miejscu kwestie czysto prawne, a odnoszące się do możliwości podważenia porozumienia zawartego wskutek opisywanej manipulacji. Są w końcu takie możliwości, jak uchylenie się od skutków oświadczenia woli złożonego pod wpływem np. błędu lub podstępu, wyzysk, a nawet przestępstwo oszustwa. O tym wszystkim będę pisał w osobnym tekście, być może niejednym.
Co nam zostaje?
Okazuje się, że nowe możliwości rodzą nowe zagrożenia, a te przypominają nam o starych wartościach. W świecie, w którym AI może być narzędziem nacisku, największą przewagą staje się zdolność do zachowania racjonalności. Nie szybkość, nie agresja, nie perfekcyjna argumentacja, a racjonalność i… przewidywalność. One budują zaufanie. I one będą w cenie. Jestem o tym przekonany.
Jednym z zadań adwokata, mediatora, stratega negocjacyjnego – jest bycie „filtrem”, który oddziela emocjonalny szum od faktów, rozpoznaje algorytmiczne wzorce nacisku i chroni klienta przed cyfrową manipulacją, szczególnie tam, gdzie komunikacja pisemna zamiast rozwiązywać spór, zaczyna go eskalować.
To powrót do fundamentalnej funkcji doradcy: przywracania proporcji, dystansu i zdrowego rozsądku. Cyfrowy gaslighting będzie się rozwijał. Tak samo, jak przez cały XX wiek rozwijały się techniki manipulacji. Ale tak samo może rozwijać się nasza odporność na nie, jak wzrastała odporność na propagandę. A odporność zaczyna się od świadomości – od zrozumienia, że po drugiej stronie może nie siedzieć człowiek, lecz algorytm zaprojektowany do tego, by nas „rozegrać”. I od decyzji, że nie damy się w tę grę wciągnąć. Zapamiętajmy z tego jedno: bądźmy uważni, bądźmy rozsądni.
Więcej o aspektach etycznych wykorzystania AI w negocjacjach możecie przeczytać m.in. tutaj w Harvard PON:
https://www.pon.harvard.edu/tag/ai
i tutaj na stronie American Bar:
https://www.americanbar.org/groups/dispute_resolution/resources
Jakie to ma dla Ciebie znaczenie?
Wykorzystywanie AI w negocjacjach, komunikacji, w sporach rodzinnych i biznesowych jest faktem. To samo dotyczy relacji w pracy. Musimy być świadomi, że znaczenie AI będzie wzrastać, a już dzisiaj dla wielu osób stanowi ona pierwszy (a czasem jedyny) punkt oceny, weryfikacji i planowania działań.
Naszą misją w Kancelarii Jakubiec i Wspólnicy jest pomoc naszym Klientom w rozwiązywaniu ich sporów i ochronie relacji. Wiemy, że technologia AI niesie wielkie szanse i ułatwienia, ale widzimy również zagrożenia wynikające z braku świadomości lub złej woli.
Jeśli czujecie, że utknęliście w sporze, potrzebujecie pomocy prawnej, negocjacyjnej, odezwijcie się do nas. Jesteśmy od tego, żeby Wam pomóc:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935

BADANIE: AI JAKO UKRYTY SOJUSZNIK W SPORACH?
Poniżej przedstawiamy raport z badania, jakie przeprowadziliśmy w styczniu 2026 roku. Jego przedmiotem było zebranie informacji o tym, jak ludzie korzystają z AI w analizie sporów, których są stronami. Wyniki okazały się bardzo interesujące.
Raport o roli AI w sporach ze stycznia 2026 roku. Ukryty doradca czy generator błędów? Co zrobiliśmy?
Przeprowadziliśmy ankietę, którą wypełniło 87 osób. Wśród nich są nasi klienci, zaprzyjaźnieni adwokaci, radcowie prawni, mediatorzy, biznesmeni, psychologowie, ludzie zajmujący się nauką i sztuką. Z pewnością nie jest to więc grupa reprezentatywna w rozumieniu badań ogólnopolskich, takich jak badania opinii publicznej. Jest to jednak grupa posiadająca wysoką świadomość istoty sporu i zdolność do krytycznej oceny własnego rozumowania.
Ankietę ułożyłem sam. Już po jej rozesłaniu kilka osób zwróciło mi uwagę na kwestie techniczne lub związane z formułowaniem niektórych pytań. Dziękuję za te uwagi – z pewnością uwzględnię je w następnych badaniach, które – już wiem – z pewnością przeprowadzę.
Co było przedmiotem ankiety o AI?
Pytania dotyczyły korzystania z AI w ogóle oraz wykorzystywania jej do analizy sytuacji rodzinnej / pracowniczej / biznesowej. Obejmuje etap również sprzed powstania sporu.
Kolejne pytania dotyczyły analizy intencji drugiej strony sporu. Jest to element najbardziej podatny na działanie podstawowego błędu atrybucji. W przypadku zetknięcia z AI – przez jej hiperdopasowanie – generuje to działanie tzw. feedback loop. Jest to pułapka potwierdzenia, która prowadzi do powstania myślenia tunelowego.
Następnie zapytałem wykorzystanie AI do ustalenia własnych działań – celowo nie doprecyzowałem, czy chodziło o pierwsze działanie, czy też o reakcję na postawę drugiej strony.
Jednakże najważniejsze było dla mnie pytanie o to, czy poinformowalibyśmy drugą stronę o tym, że korzystamy z AI do analizy jej działań / intencji lub przygotowania własnych ruchów. Tutaj ankieterzy wykazali się zdumiewającą wręcz zgodnością. Jest kwestią otwartą, jakie z tego wyciągniemy wnioski – nie chcę tego przesądzać.
Ostatnie dwa pytania dotyczyły zaufania do AI. Były bardzo podobne, ale jednak… ciekawe jest to, że nie pokrywają się wyniki zaufania do AI z oceną jej obiektywności. Tak, jakbyśmy wiedzieli, że nie jest obiektywna, ale mieli tendencję do tego, by jej ufać.
Jak odpowiadali uczestnicy?
Poniżej przedstawiamy „suche” pytania i odpowiedzi.








Raport o roli AI w sporach. Analiza odpowiedzi
Zdecydowana większość uczestników korzysta z AI. Z pewnością nie dotyczy do wszystkich w tym samym stopniu, ani tym bardziej – tematy poruszane nie są takie same, ani nawet podobne. Jednak fakt powszechnego korzystania z modeli językowych jest faktem.
Prawie połowa, bo 43% respondentów odpowiedziało, że używa modeli językowych do analizy swojej sytuacji rodzinnej, w miejscu pracy lub biznesie. Moim zdaniem, to bardzo dużo. Co ciekawe, najmniej osób potwierdziło analizę sytuacji rodzinnej, a najwięcej biznesowej. 29% osób wskazało też na inne obszary. Zostawiam tu link do artykułu o roli AI w sporach rodzinnych: https://jakubieciwspolnicy.pl/ai-w-sprawach-rodzinnych/
Znaczna większość, bo 81% osób nie próbowało ustalić intencji drugiej strony za pomocą AI. Czy to dużo? Spójrzmy z drugiej strony – prawie 20% osób próbuje to robić. Oznacza to, że co piąta osoba jest podatna na sprzężenie zwrotne wynikające ze wzmocnienia jej pierwotnego nastawienia przez AI, która ma tendencję do „potakiwania”.
25% osób potwierdziło, że ustala własne ruchy w sporze z wykorzystaniem sztucznej inteligencji. Ta rozbieżność z poprzednim pytaniem jest ciekawa. Można ja przemilczeć jako błąd statystyczny albo uznać, że 5% procent z nas korzysta z AI do ustalenia własnych ruchów w sporach bez analizy intencji drugiej strony. Oczywiście, nie wiem, czy to dokładnie te 5% uczestników.
Bardzo ciekawe jest to, że 80% z nas nie poinformowałoby drugiej strony, że korzysta z AI do analizy sporu, intencji drugiej strony lub formułowania własnych posunięć. Dlaczego? Czy uważamy to za nieuczciwe (jak doping)? A może podchodzimy do tego, jak do zabobonu i przesądu i trochę się wstydzimy (nie wiem, jak to działa, ale na wszelki wypadek posłucham, jednak nie będę się tym chwalić)? Może uważamy, że wyprzedziliśmy technologicznie i intelektualnie drugą stronę i nie chcemy ujawniać, że mamy tak potężną broń?
Czy ufamy AI?
Ostatnie dwa pytania dają wyniki zdumiewające. Z AI korzysta 75% z nas, ale 67% uważa, że nie jest ona obiektywna. Czemu więc korzystamy? Dla wzmocnienia własnych przekonań? – W końcu miło jest nam, gdy najpotężniejsza technologia w historii ludzkości zaczyna co drugie zdanie od: „To świetny pomysł, Andrzeju!”. A może zwyczajnie udajemy, że tego nie widzimy? A może uznajemy, że brak obiektywności nie oznacza, że AI nie udziela dobrych rad, tylko że jest po naszej stronie (i dobrze!)? Ciekawie koresponduje to z wynikami poprzedniego pytania, w którym ogromna większość odpowiedziała, że częściowo ufa AI.
Raport o roli AI w sporach. Wnioski
AI stała się powszechnym narzędziem i stanowi jeden z elementów kształtowania naszych postaw w wielu dziedzinach życia. Z pewnością, jej wpływ jest odczuwalny w sporach, które prowadzimy. Co ciekawe, również widzimy ją w analizie samej struktury sytuacji. Może to prowadzić do powstania potrzeby zmiany dotychczasowego układu, a to z kolei – do sporu.
Moje poprzednie publikacje o AI w sporach
Poniżej zostawiam Wam kilka linków do artykułów, w których poruszyłem rolę i wpływ AI na dynamikę sporów. Przedstawiłem w nich moją autorską koncepcję Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB). W tekstach tych znajdziecie odnośniki do najnowszych badań zamieszczonych w prestiżowych czasopismach naukowych. Dotyczą one psychologii, aspektów technologicznych AI i jej roli w powstawaniu myślenia tunelowego, utwierdzania pierwotnych uprzedzeń lub preferencji. Tutaj zostawiam link do jednego z najważniejszych artykułów na ten temat, autorstwa Yiran Du: Confirmation Bias in Generative AI Chatbots. Zawiera on analizę tychże mechanizmów błędu potwierdzenia w modelach AI. Przeczytamy w nim również o ryzykach związanych z tym sprzężeniem: https://arxiv.org/abs/2504.09343?
Ja nałożyłem te badania na sytuację, gdy z AI korzystają obie strony sporu, a działania jednej strony ustalone wspólnie z jej AI, stanowią punkt wyjścia do analizy drugiej strony (wspólnie z jej AI), co skłoni tę drugą stronę do przygotowania adekwatnej odpowiedzi. Eskalacja konfliktu wydaje się tu szczególnie niebezpieczna.
Dla zainteresowanych zostawiam również link do artykułu w wersji angielskiej, w którym rozwinąłem koncepcję sprzężonego błędu konfirmacji:
Zaproszenie do współpracy
Jeśli jesteście stroną sporu, potrzebujecie doradztwa strategicznego, nie tylko prawnego, możecie się do mnie odezwać. Ja i mój zespół zajmujemy się nie tylko prawem, ale prowadzimy negocjacje w oparciu o wiedzę z zakresu psychologii, ekonomii, sztuki negocjacji i analizy behawioralnej.
Jeśli macie własne doświadczenia z AI jako czynnikiem w sporach, odezwijcie się do nas. Chętnie wysłuchamy Waszej historii, być może posłuży ona nam jako wartościowy materiał do nauki lub badań. Zapewniamy oczywiście pełną anonimowość.
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935

GDY STRONY SPORU KORZYSTAJĄ Z RÓŻNYCH MODELI AI
W ostatnich wpisach przedstawiłem autorską koncepcję sprzężonego błędu konfirmacji (Coupled Confirmation Bias, CCB). Teraz sygnalizuję potrzebę sprawdzenia, jak różne rodzaje LLM wpływają na dynamikę sporu. Przez różne rodzaje mam na myśli dwie podstawowe grupy: modele AI amerykańskie i chińskie. Jest to oczywiście modelowe uproszczenie, uzasadnione dla przedstawienia pewnego problemu. Zaznaczam, że rozróżnienia między nimi nie dokonuję na podstawie jakichkolwiek kwestii technologicznych. Zakładam, że modele językowe niosą w sobie pewne tendencje zakorzenione głęboko w kulturach i językach ich twórców.
Kulturowe modele AI. Jakie są rodzaje modeli językowych?
Przyjmijmy dwa podstawowe kulturowe modele AI: amerykański i chiński. Ten podział nie opisuje technologii, lecz dominujące style komunikacji zakorzenione w kulturach, które te modele ukształtowały. Odnosi się do tego, że język jest ściśle związany z kulturą. A modele językowe mają za zadanie tworzenie i utrzymywanie relacji z użytkownikami. Robią to dokonując predykcji kolejnych słów, jednakże nie sposób uciec od wrażenia, że nie dzieje się to w oderwaniu od: 1) wartości kulturowych twórców modelu językowego; 2) języka wybranego do rozmowy przez użytkownika i – co stanowi wyłącznie mój domysł – 3) zakładanej lub zadeklarowanej narodowości / natywności językowej użytkownika (tego w jakim języku ten użytkownik myśli).
Tak więc, modele językowe amerykańskie – jak zakładam – operują inną siatką pojęciową wynikająca z naturalnych różnic semantycznych. Na tym jednak nie koniec – zakładam, że inaczej będą one prowadzić rozmowę ze swoimi użytkownikami. Inny jest bowiem rodzaj, cel i forma interakcji w kulturze zachodniej i wschodniej. O ile w kulturze amerykańskiej ceni się indywidualizm, współzawodnictwo, rywalizację i rację, to w Chinach harmonię, kolektywizm, uprzejmość. Kluczowym przykładem – być może centralnym i ogniskującym różnice – jest podejście do zachowania twarzy w obu tych kulturach. Jeśli więc modele różnią się sposobem prowadzenia rozmowy, to mogą w odmienny sposób wpływać na percepcję sporu u użytkownika. Chcę podkreślić, że LLM to nie tylko „maszyna do słów”. To także nośnik wartości. Jeśli amerykański AI promuje adversarial system (system kontradyktoryjny), to chiński może promować consensus-based approach.
Wzajemne postrzeganie stron korzystających w różnych modeli językowych
W Sprzężonym Błędzie Konfirmacji każda strona interpretuje działania drugiej przez filtr własnego modelu kulturowego. Model AI wzmacnia tę interpretację, tworząc spiralę wzajemnych błędów. Załóżmy, że jedna ze stron korzysta z LLM amerykańskiego, a druga chińskiego. I sami użytkownicy również należą do tych kręgów kulturowych. Ich postrzeganie świata będzie odmienne. Tak samo inne będzie językowe formułowanie opisów, pytań i celów. W każdym języku istnieją pewne schematy i uproszczenia. Są też kwestie oczywiste, obszary taboo lub takie, o których wspominać nie trzeba – albo przeciwnie – należy to robić. Są kultury nisko (amerykańska) i wysoko (chińska) kontekstowe.
W pewnych kulturach asertywność, konfrontacja, dążenie do posiadania racji są wartościami samymi w sobie. W innych od racji ważniejsza jest relacja, harmonia, hierarchia, miejsce w społeczeństwie. Zakładam też, że modele typowe dla każdej kultury wzmacniają te wartości i postawy, które w tej kulturze uchodzą za pożądane.
Może z tego wynikać, że jedno zdarzenie będzie nie tylko odmiennie opisane przez użytkowników pochodzących z różnych kręgów kulturowych. Co więcej, wynik konsultacji z AI może być skrajnie odmienny. Problemy wynikające z podstawowego błędu atrybucji i błędu konfirmacji po stronie użytkowników oraz hiperużytecznosci modeli AI nałożą się na kwestie kulturowo – językowe. Hiperużyteczność oznacza tendencję modeli do dostarczania odpowiedzi maksymalnie pomocnych z perspektywy użytkownika — nawet jeśli wzmacnia to jego błędne założenia. Może się okazać, że w takiej sytuacji dojdzie do szybkiego rozpadu jakiejkolwiek przestrzeni wspólnej w odniesieniu do postrzegania rzeczywistości.
Punkt krytyczny
W CCB punkt krytyczny pojawia się wtedy, gdy interpretacje obu stron — wzmacniane przez ich modele — stają się tak rozbieżne, że każda reakcja jednej strony jest odczytywana przez drugą jako eskalacja. Gdy modele wzmacniają odmienne style interpretacji, wspólna przestrzeń poznawcza zanika szybciej niż w tradycyjnych konfliktach.
Kulturowe modele AI. Literatura
Jeśli interesują Was te kwestie, możecie przeczytać „Geografię myślenia” R., Nisbetta oraz „Babel. 20 języków dookoła świata” G. Dorren oraz „Wiek nie-pokoju. Współzależność jako źródło konfliktu” M. Leonarda. Te trzy książki sprawiły, że zainteresowałem różnicami kulturowymi w kontekście konfliktów i stanowiły dla mnie punkt wyjścia dla dalszych poszukiwań. Nic nie zastąpi oczywiście jednej z najważniejszych książek, jakie kiedykolwiek czytałem „Strategii konfliktu” T. Schellinga.
O tym, że modele językowe wiele przejmują z kultur, w których powstały i są trenowane, przeczytać m.in. tutaj: Cultural Alignment in Large Language Models” (Johnson et al., 2023/2024) https://globalaicultures.github.io/pdf/14_cultural_alignment_in_large_la.pdf
Tutaj znajdziecie badanie potwierdzające, że modele chińskie są znacznie mniej skłonne do otwartego konfliktu, od amerykańskich: CultureLLM: Incorporating Cultural Differences into Large Language Models https://arxiv.org/abs/2402.10946
Podobne wnioski znajdują się w tym badaniu: Values-aligned AI: Comparing Western and Chinese LLMs on Moral Dilemmas” (Liu et al., 2024) https://arxiv.org/html/2506.01495v5
Jeśli natomiast chcecie przeczytać więcej o Coupled Confirmation Bias, CCB, to zostawiam Wam linki do dwóch moich tekstów po polsku:
i jego rozwinięcia po angielsku:

SPRZĘŻONY BŁĄD KONFIRMACJI – MOJA KONCEPCJA
W tym artykule przedstawiam autorską propozycję Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB). Jest to rama konceptualna służąca do analizy eskalacji konfliktów w sytuacjach, w których obie strony sporu niezależnie korzystają z systemów AI do interpretowania konfliktu i uzasadniania własnych stanowisk. W przeciwieństwie do klasycznego błędu konfirmacji, który działa na poziomie jednostki, CCB opisuje mechanizm systemowy, w którym wzajemnie wzmacniające się narracje prowadzą do zawężenia przestrzeni negocjacyjnej i zwiększenia prawdopodobieństwa eskalacji. Artykuł identyfikuje warunki aktywacji tego mechanizmu, jego typowe konsekwencje oraz granice jego zastosowania. Celem tekstu nie jest przedstawienie w pełni zweryfikowanej teorii. Jest nim postawienie hipotezy istnienia powtarzalnego mechanizmu obserwowanego we współczesnych konfliktach. Ich wspólną cechą jest to, że modele AI są wykorzystywane jako narzędzia analityczne wspierające podejmowanie decyzji.
1. Wprowadzenie: kiedy racjonalne narzędzia wzmacniają nieracjonalne skutki?
Sprzężony błąd konfirmacji – z czego wynika? Ludzie coraz częściej korzystają z AI. Służy im ona do oceny istniejących relacji zarówno przed powstaniem / uświadomieniem konfliktu, jak i w jego trakcie. Korzystają z AI do oceny ryzyka, tworzenia strategii oraz uzasadniania proponowanych działań. Modele sztucznej inteligencji służą coraz częściej również do analizy wypowiedzi i działań niewerbalnych drugiej strony. Modele AI są powszechnie postrzegane jako autorytet, a ich rady jako neutralne, obiektywne i wolne od zaangażowania emocjonalnego. Paradoksalnie jednak, jak zaobserwowałem, używanie modeli językowych często koreluje z szybszą eskalacją konfliktu, usztywnieniem stanowisk oraz przedwczesnym zerwaniem negocjacji. Wydaje się, że nie jest to koincydencja.
W artykule tym stawiam tezę, że zjawiska te nie mogą być w wystarczający sposób wyjaśnione wyłącznie poprzez indywidualne błędy poznawcze. Nie dadzą się wyjaśnić ani przez zwykły błąd konfirmacji, ani podstawowy błąd atrybucji.
Zamiast tego zakładam istnienie mechanizmu systemowego – Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB). Ujawnia się on w sytuacjach, gdy strony konfliktu niezależnie korzystają z narzędzi AI jako źródła autorytatywnej interpretacji sporu: czynników zewnętrznych, działań faktycznych oraz deklaracji drugiej strony, domysłów w zakresie jej prawdziwych intencji, akceptowalnego ryzyka, kosztów, jakie jest gotowa ponieść i faktycznych tzw. „czerwonych linii”, tj. punktów krytycznych, których w żadnym razie nie pozwoli przekroczyć. Oczywiście, nie wszystkie te elementy muszą być poddane analizie z pomocą AI. Tak samo nie muszą być poddane takiej analizie w tym samym czasie. Co ważne, również każda ze stron może analizować inny element lub zestaw elementów. Wreszcie, każda ze stron może korzystać z modeli innego rodzaju, innego stopnia rozwoju technicznego i innego poziomu zintegrowanej interakcji z użytkownikiem.
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) wywoła skutek tym silniejszy, im więcej razy strony poddadzą analizie sygnały płynące od drugiej strony, jeśli na treść, formę lub czas tych sygnałów miała uprzednio wpływ praca z AI poczyniona przez drugą stronę. Mamy więc do czynienia nie z błędem jednorazowym, ale ze spiralą błędów, z których poprzedni stanowi „paliwo” dla następnego i potencjalne go wzmacnia. Można to obrazowo przyrównać do wymiany w ping-pongu, w której po każdym uderzeniu piłka uzyskuje energię równą dotychczasowej energii kinetycznej i energii nowego uderzenia.
Zakładam również, że Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) wyglądał będzie podobnie na różnych płaszczyznach konfliktów: od sporów jednostek, przez ich grupy, do państw i ich bloków. Wniosek taki wyprowadzam z badań ogólnych nad naturą konfliktu.
Wyraźnie zaznaczam, że nie uważam, aby wpływ AI na eskalację konfliktów miał mieć charakter deterministyczny. Zakładam raczej istnienie tendencji, wpływu. Co więcej, świadomość tego mechanizmu, tak jak go rozumiem, może paradoksalnie doprowadzić do zatrzymania eskalacji, gdy strony zdadzą sobie sprawę z tego, że są pod jego wpływem.
2. Aktualny stan badań
Mechanizm równowagi między stronami został opisany w różnych pracach przez J. Nasha, a strategia konfliktu przez T. Schellinga („Strategia konflitku”). Struktura konfliktu, którą przyjmuję, znajduje się w książce Ch. Moore’a: „Mediacje. Praktyczne strategie rozwiązywania konfliktów.”
Ogólne błędy poznawcze są znane psychologii od dawna. Dla pracy nad koncepcją Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB) punktem wyjścia są prace opisujące zwykły Błąd Konfirmacji, a więc tendencję do selektywnej i subiektywnej percepcji danych zmierzającej do potwierdzenia wcześniej przyjętej tezy. Dla przykładu można tu wymienić pracę Daniela Kahnemana, „Pułapki myślenia”.
Mechanizm ten został zidentyfikowany na płaszczyźnie interakcji człowiek – AI oraz szczegółowo opisany m.in. w artykule M. Glickman i T. Sharot https://pmc.ncbi.nlm.nih.gov/articles/PMC11860214/? Yuxin Liu i Adam Moore, https://pubmed.ncbi.nlm.nih.gov/40448478/, a także L. Celar i Ruth M.J. Byrne https://pubmed.ncbi.nlm.nih.gov/36964302/. Trzeba wspomnieć również o artykule Ben Wang i Jiqun Liu, Cognitively Biased Users Interacting with Algorithmically Biased Results in Whole-Session Search on Debated Topics, https://dl.acm.org/doi/10.1145/3664190.3672520. Autorzy ci wskazują na rolę czynników indywidualnych na podatność wobec błędów poznawczych powstających w interakcji ze sztuczną inteligencją.
Dowiadujemy się z nich o pętli sprzężenia zwrotnego. Polega ona nie tylko na istnieniu błędu konfirmacji. Idzie krok dalej – doprowadza do wzmocnienia pierwotnego przekonania lub uprzedzenia. Prowadzi to do myślenia tunelowego.
W znanych mi pracach nie badano jednak sytuacji sporu, w którym obie strony korzystały z modeli językowych w opisany wyżej sposób. Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) nie jest sumą błędów poznawczych obu stron, lecz zjawiskiem kolejnym – nową jakością, która prowadzi do spirali eskalacji w sposób jakościowo inny, niż dwa niezależne od siebie błędy.
3. Od błędu jednostki do eskalacji systemowej
Klasyczny błąd konfirmacji (Confirmation Bias) opisuje skłonność jednostki do selektywnego wyszukiwania, interpretowania i zapamiętywania informacji w sposób potwierdzający jej wcześniejsze przekonania.
Choć zjawisko to jest dobrze udokumentowane, nie wystarcza ono do wyjaśnienia sytuacji, w których obie strony konfliktu – mimo dostępu do wyjściowo podobnych danych oraz korzystania z pozornie neutralnych narzędzi analitycznych – coraz silniej utwierdzają się we własnych przekonaniach i uprzedzeniach.
We współczesnych sporach systemy AI coraz częściej pełnią funkcję zewnętrznych legitymizatorów interpretacji, a nie jedynie narzędzi obliczeniowych. Gdy każda ze stron korzysta z takich systemów niezależnie, błąd konfirmacji przestaje być wyłącznie indywidualną skłonnością poznawczą, a zaczyna funkcjonować jako wzajemnie sprzężona dynamika.
4. Definicja sprzężonego błędu konfirmacji
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) to mechanizm eskalacji konfliktu, w którym dwie lub więcej stron sporu, opierając się na zewnętrznych systemach interpretacyjnych postrzeganych jako epistemicznie uprzywilejowane, wzajemnie legitymizują własne narracje. Mechanizm ten ma charakter rekurencyjny: działania podejmowane na podstawie takiej legitymizacji stają się następnie danymi wejściowymi do dalszych analiz po drugiej stronie, prowadząc do sprzężonej spirali interpretacyjnej i stopniowego zawężania przestrzeni negocjacyjnej. Termin rekurencyjny stosuję tu w znaczeniu: ‘kolejne iteracje wzmacniają poprzednie’. To nie jest rekurencja w sensie formalnym, lecz opis dodatniego sprzężenia zwrotnego w pętli interpretacyjnej.
Cechą konstytutywną CCB nie jest sama obecność stronniczego rozumowania, lecz dynamiczne sprzężenie pętli interpretacyjnych pomiędzy aktorami. W tym modelu działania jednej strony, ukształtowane przez analizę AI, stają się bezpośrednimi danymi wejściowymi dla systemu po drugiej stronie. Tworzy to zamknięty obieg, w którym każda kolejna interakcja nie przybliża stron do konsensusu, lecz dostarcza „obiektywnego” materiału do pogłębienia pierwotnych uprzedzeń.
5. Hipoteza
H1:
W konfliktach dwu- lub wielostronnych, w których strony niezależnie korzystają z modeli AI do interpretowania sporu i uzasadniania własnych stanowisk, prawdopodobieństwo eskalacji oraz załamania negocjacji jest wyższe niż w konfliktach strukturalnie podobnych, w których takich systemów się nie wykorzystuje.
H1a:
W konfliktach opartych na interpretacji, symetryczny dostęp do informacji zwiększa ryzyko eskalacji bardziej niż asymetria informacyjna, ponieważ eliminuje możliwość wyjaśniania rozbieżności poprzez brak wiedzy, przenosząc konflikt na poziom intencji i rzekomej racjonalności.
5.1. Zdaję sobie sprawę, że modele AI mogą być wykorzystywane przez każdą ze stron w różnym czasie, w różnym zakresie, w różnym celu i w różny sposób. Mogą zacząć korzystać z AI w tym samym czasie lub w różnym. Jedna z nich może to zakończyć lub ograniczyć wcześniej od drugiej, która będzie z AI korzystać dłużej. Jedna ze stron podda analizie wyłącznie czynniki zewnętrzne, inna deklaracje stron, a kiedy indziej będzie chciała z pomocą AI ustalić intencje przeciwnika. Jedna ze stron może to robić w celu dokonania analizy, inna w celu otrzymania emocjonalnego wsparcia. Wreszcie, mogą korzystać z różnych modeli i czynić to w odmienny sposób – choćby przez wprowadzanie mniej lub bardziej zmanipulowanych danych. Jak wykazały ww. badania Ben Wang i Jiqun Liu, czynniki indywidualne mają również wpływ na podatność na sugestie i odpowiedzi AI.
Wszystkie te czynniki (a prawdopodobnie jeszcze wiele innych) trzeba wziąć pod uwagę. Zdaję sobie sprawę, że powstałe różnice mogą sprawić, że Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) nie powstanie lub też zgaśnie w trakcie konfliktu. W tym miejscu mój teza dotyczy korzystania z AI przez obie strony w sposób względnie symetryczny. Wpływ asymetrii na Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) wymaga dalszych badań.
5.2. W badaniach wielokrotnie wskazano, że układy złożone z 3 aktorów są znacznie mniej stabilne, niż 2 lub 4- osobowe. Uważam, że rola AI w akceleracji eskalacji w układach 3 osobowych będzie szczególnie widoczna. Dalsze badania będą musiały ustalić różnice w skutkach, jeśli w układzie 3 lub więcej osobowym z AI korzysta tylko część uczestników.
5.3. Chciałbym wyraźnie zaznaczyć, że AI nie tworzy, ani nie eskaluje konfliktu sama przez się. Ma jednak przemożny wpływ na percepcję, interpretacje i wreszcie na decyzje użytkownika. Jego działanie podjęte na skutek takiej decyzji będzie z kolei interpretowane w analogiczny sposób przez drugą stronę.
5.4. Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) nie jest też przykładem tzw. Echo Chambers ograniczonego do dwóch (lub niewielkiej liczby) uczestników. Echo Chambers są z natury statyczne, zaś CCB jest dynamiczne, gdyż każda kolejna interakcja zmienia zachowanie drugiej strony.
6. Falsyfikowalność Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB)
W Logice odkrycia naukowego Popper wprowadził pojęcie falsyfikowalności teorii, jako warunku koniecznego do uznania jej za naukową.
Należy więc określić, jakie potencjalne czynniki warunkują zaistnienie opisywanego mechanizmu, jakie wpływają na jego dezaktywację. I przede wszystkim, co zadałoby tej teorii fałsz?
6.1.Warunki aktywacji mechanizmu
Sprzężony Błąd Konfirmacji ujawnia się zazwyczaj wtedy, gdy spełnione są łącznie następujące warunki:
- Symetryczna legitymizacja narracji
Każda ze stron dysponuje narzędziami lub doradcami, którzy potwierdzają jej interpretację jako racjonalną i uzasadnioną. - Brak wspólnej władzy epistemicznej
Nie istnieje instytucja, mediator ani procedura uznawana przez wszystkie strony za ostatecznego arbitra. - Wysoki koszt poznawczy zmiany stanowiska
Zmiana stanowiska oznaczałaby podważenie wcześniejszych „racjonalnych” decyzji wspartych analizą AI. - Obecność pozornie neutralnego trzeciego aktora
Systemy AI, postrzegane jako obiektywne i pozbawione interesu, wzmacniają legitymizację każdej z narracji. To paradoksalnie ułatwia im funckjonalne wpływanie na powstanie błędów konfirmacji po obu stronach, a w efekcie powstanie Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB).
6.2. Granice zastosowania: kiedy CCB nie działa?
Sprzężony Błąd Konfirmacji nie ma charakteru uniwersalnego. Mechanizm ten ulega osłabieniu lub nie występuje w ogóle, gdy:
- Istnieje wspólnie uznany arbiter faktów, akceptowany przez wszystkie strony.
- Tylko jedna ze stron korzysta z narzędzi AI, co przerywa symetrię sprzężenia.
- Stawka konfliktu jest niska lub odwracalna, co obniża potrzebę poznawczej obrony stanowiska.
- AI wykorzystywana jest wyłącznie informacyjnie, a nie interpretacyjnie.
- Strony posiadają wysoki poziom kompetencji metapoznawczych i aktywnie przeciwdziałają własnym błędom poznawczym.
- Spór dotyczy jasno mierzalnych parametrów, a nie interpretacji intencji czy przypisywania winy.
- Powstaje znaczna asymetria w korzystaniu przez strony z modeli AI w zakresie a) czasu; b) zakresu, c) celu; d) sposobu.
- Mechanizm CCB ulega osłabieniu, gdy strony posiadają wzajemną świadomość korzystania z podobnych narzędzi interpretacyjnych i są zdolne do refleksji metapoznawczej nad ich wpływem na własne stanowiska. Ujawnienie korzystania z AI może być czynnikiem deeskalacji.
Granice te pozwalają odróżnić CCB od ogólnych teorii eskalacji konfliktu.
6.3. Co wykazałoby fałsz tej teorii?
Wykazanie jakiego czynnika obaliłoby hipotezę o istnieniu Sprzężonego Błędu Konfirmacji (Coupled Confirmation Bias, CCB)?
Bezspornie, hipotezę tę obaliłoby zaobserwowanie skutku do niej przeciwnego, to jest łagodzącego i deeskalacyjnego wpływu modeli AI na przebieg konfliktu. To z kolei mogłoby się przejawić, gdyśmy zaobserwowali nagłą zmianę narracji modelu AI, który zidentyfikował powstanie sprzężenia zwrotnego, poinformował o nim użytkownika. Niczego takiego do tej pory nie zaobserwowałem.
Hipotezę tę można również sfalsyfikować, gdyby wnioski z przytoczonych wcześniej badań, a dotyczące pętli sprzężenia zwrotnego i myślenia tunelowego okazały się nieprawdziwe, albo też gdyby wskutek ewolucji AI, zmieniła ona zasady interakcji z użytkownikami. Póki co, nie mam wiedzy, która potwierdzałaby takie tezy.
Falsywikacja zaszłaby również, gdyby wykazano, że w obserwowanych przypadkach doszło do gwałtownej eskalacji z przyczyn innych, niż błędy poznawcze powstałe wskutek interakcji z AI.
Wreszcie, fałsz tej hipotezie zadałoby ustalenie, że dynamika konfliktów, w których uczestnicy korzystają lub niekorzystaną z AI jest identyczna. Dotychczasowe obserwacje jednak temu przeczą.
7. Skutki systemowe
Skutki systemowe: dynamika rekurencyjnej eskalacji
Aktywacja mechanizmu CCB prowadzi do przejścia konfliktu ze sfery spornych interesów do sfery zamkniętych pętli interpretacyjnych. Pociąga to za sobą następujące konsekwencje systemowe:
- Autokataliza eskalacji: Dzięki charakterowi rekurencyjnemu, każda próba komunikacji deeskalacyjnej jest filtrowana przez AI drugiej strony. Jeśli system interpretacyjny postrzega drugą stronę jako nielojalną, nawet gesty dobrej woli zostaną zinterpretowane jako „strategiczna manipulacja”. Paradoksalnie „potwierdza” to potrzebę dalszej eskalacji.
- Zanik wieloznaczności (Ambiguity Collapse): W klasycznym sporze niepewność co do intencji daje przestrzeń do domniemań. W CCB, AI „domyka” te interpretacje, nadając im cechy pewności analitycznej. Powoduje to, że strony przestają rozmawiać o faktach, a zaczynają operować na „produkcie końcowym” analizy – gotowych wyrokach o intencjach przeciwnika.
- Paradoks legitymizacji (The Legitimacy Trap): Ponieważ każda ze stron posiada „obiektywne” potwierdzenie swojej racji pochodzące z systemu subiektywnie epistemicznie uprzywilejowanego, jakikolwiek kompromis zaczyna być postrzegany nie jako ustępstwo, lecz jako działanie irracjonalne lub błąd logiczny.
- Erozja wspólnej rzeczywistości: Rekurencyjne nakładanie na siebie analiz sprawia, że strony w pewnym momencie przestają reagować na realne działania przeciwnika, a zaczynają reagować na to, jak ich własne modele AI przewidują interpretacje modeli AI przeciwnika. Konflikt odkleja się od rzeczywistego podłoża i przenosi w sferę interakcji model-model.
- Inercja stanowisk: Raz ukształtowana przez AI narracja wykazuje dużą odporność na zmianę (cognitive inertia). Podważenie wniosków wygenerowanych przez zaawansowany model analityczny wymagałoby od decydenta przyznania się do fundamentalnego błędu w doborze narzędzi. Podnosi to psychologiczny i „polityczny” koszt deeskalacji.
Co istotne, eskalacja ta zachodzi bez złej wiary i często bez świadomej intencji strategicznej.
8. AI jako quasi-trzeci aktor?
Choć sztuczna inteligencja jest pozbawiona sprawstwa i własnych interesów, jej funkcjonalna rola w mechanizmie CCB nie może zostać pominięta. Poprzez dostarczanie autorytatywnej legitymizacji przy jednoczesnym braku odpowiedzialności, systemy AI wpływają na dynamikę sporu. Wpływają one na subiektywną ocenę kosztów eskalacji i stabilizują wzajemnie wykluczające się narracje. Chcę być dobrze zrozumiany – nie mam na myśli roli AI pozwalającej jej na nadanie statusu strony w sensie ontologicznym. Jest ona raczej lustrem aktywnie wzmacniającym pierwotne przekonania. Lustrem jednakże nie biernym, lecz aktywnym, obdarzanym zaufaniem i wzmacniającym przekonania.
9. Zakończenie
Sprzężony Błąd Konfirmacji (Coupled Confirmation Bias, CCB) stanowi ramę konceptualną pozwalającą zrozumieć, dlaczego wprowadzenie pozornie racjonalnych narzędzi może przyspieszać eskalację konfliktów. Proponowana koncepcja nie rości sobie pretensji do uniwersalności ani empirycznej ostateczności. Jest to hipoteza mechanizmu, obserwowanego w praktyce, która zaprasza do dalszej krytyki, testowania i doprecyzowania.
Zrozumienie CCB ma znaczenie nie tylko dla prawników, mediatorów i innych osób zarządzających konfliktami. Jest istotne także dla projektantów i użytkowników systemów AI w kontekstach konfrontacyjnych.
10. Nota metodologiczna autora
Niniejszy artykuł przedstawia moją autorską ramę analityczną i konceptualną opartą na obserwowanych przeze mnie wzorcach występujących w konfliktach. Poczyniłem te obserwacje na gruncie własnej praktyki prawnej w drugiej połowie 2025 roku. Artykuł ten nie stanowi empirycznie zweryfikowanej teorii, lecz jedynie hipotezę. Jego celem jest opisanie zjawiska i wskazanie kierunków dalszych analiz. Pracując nad nim korzystałem z pomocy modeli językowych w celu krytycznej oceny własnych tez i szukania słabych punktów mojego rozumowania. Pomoc modeli AI miała charakter krytyczny, a nie generatywny. Posłużyła mi identyfikacji potencjalnych słabych punktów argumentacji.
Możecie przeczytać również wersję angielską: https://jakubieciwspolnicy.pl/en/coupled-confirmation-bias/

WYKORZYSTANIE AI W SPORACH MIĘDZY WSPÓLNIKAMI
Zajmuję się sporami korporacyjnymi, w tym konfliktami między wspólnikami. Jestem też bardzo zainteresowany rozwojem technologii. Wykorzystanie AI w analizie konfliktów jest już oczywiste. Staje się faktem również w sporach między wspólnikami. Powstaje pytanie, jak optymalnie wykorzystać możliwości, które daje sztuczna inteligencja w tej dziedzinie. Trzeba również przedstawić kilka pułapek, które może rodzić jej zastosowanie w tym obszarze. W tym krótkim wpisie chcę wspomnieć o kilku z nich.
Czego dotyczą spory między wspólnikami?
AI w sporach między wspólnikami? Tak, ale najpierw ustalmy, czego dotyczą te spory. Wbrew pozorom spory i konflikty między wspólnikami nie odnoszą się wyłącznie do pieniędzy. Owszem, pieniądze grają w nich istotną rolę, ale rzadko główną. A często ledwie epizodyczną. Wspólnicy walczą między sobą czasem bardziej zajadle, niż z konkurencją. Mają też znacznie większy wachlarz środków i możliwości, znają się lepiej, mają bardziej odczuwalny, bezpośredni wpływ na swój los. Obszarów możliwych nieporozumień jest więc bardzo wiele.
O co toczą się spory między wspólnikami? O władzę, sprawczości, realizację wizji, docenienie i uznanie zasług. A także o tempo i kierunki zmian, o tolerancję ryzyka, o podejście do pracowników, o uczciwość i rzetelność. Spory toczą się też o przeznaczenie zysków, o zatrudnianie rodziny, o źródła finansowania – kredyt, czy środki własne? Potencjalnych nieporozumień jest mnóstwo, a w przypadku układu z trzema wspólnikami mogą powstawać nierównoważne koalicje w różnych sprawach. Spółki trzyosobowe należą do najmniej stabilnych. Więcej pisała o tym tutaj:
W powyższym tekście o spółkach z udziałem trzech wspólników (link powyżej) zastosowałem ramy analityczne opracowane przez J. Mearsheimera w jego książce Tragedia polityki mocarstw (The Tragedy of Great Power Politics). W tym dziele Autor wyjaśnia, dlaczego sojusze międzynarodowe zawierane między trzema państwami wykazują tendencję do niestabilności. Moim zdaniem wnioski te można, przy zachowaniu odpowiedniej ostrożności, odnieść również do relacji między wspólnikami w spółkach handlowych. Wiem, że może się to wydawać kontrowersyjne, ale struktura interesów i podejrzeń niemal identyczna – przy zachowaniu oczywiście skali.
JAK MOŻNA WYKORZYSTAĆ AI W SPORACH MIĘDZY WSPÓLNIKAMI?
Sposobów wykorzystania sztucznej inteligencji w sporach korporacyjnych jest bardzo wiele. Ciągle powstają nowe pomysły. Możemy jednak pogrupować w zakresie konsultacji prewencyjnych (jak uniknąć sporu?), interwencyjnych (jak rozwiązać spór, który powstał?) i następczych (jak poprawić relację, żeby nie powstał nowy spór?). W tym zakresie AI może nam udzielać podpowiedzi ogólnych dotyczących współpracy jako takiej albo może zająć się konkretnym przypadkiem. Oba rozwiązania mają swoje plusy i minusy. AI w sporach między wspólnikami jest świetnym narzędziem, ale musimy umieć z niej korzystać.
W przypadku porad ogólnych możemy korzystać z ich różnorodności i dostać odpowiedź, która okaże się dla nas nową jakością – otworzy nam kolejne drzwi w naszej głowie. Może się zdarzyć, że podpowie nam rozwiązanie, którego byśmy w inny sposób nie znaleźli. Problemem jest z kolei fakt, że wiele z tych podpowiedzi może być uznana za dość infantylne i ocierać się o granice banału. Bardzo trudne będzie krytyczne „obrobienie” uzyskanych „zaleceń” pod kątem zasadności ich zastosowania w konkretnym przypadku.
O wykorzystaniu AI w rozwiązywaniu konfliktów możecie posłuchać tutaj:
Sprzężony błąd konfirmacji w wykorzystaniu AI
AI w sporach między wspólnikami daje nam wiele możliwości. Jeśli jednak zadajemy pytania dotyczące konkretnego przypadku – naszej firmy – narażamy się na potężne niebezpieczeństwo. Ja nazywam je „sprzężonym błędem konfirmacji„, czyli tendencją do utwierdzania nas w subiektywnych opiniach. Na czym dokładnie on polega?
Chcąc uzyskać rozwiązanie konkretnego problemu odnoszącego się do relacji z naszym wspólnikiem – musimy wprowadzić jakieś dane. Konieczne jest zarysowanie sytuacji. Trzeba opowiedzieć, co się dzieje, jak wygląda sytuacja. Problem polega na tym, że nasza opowieść będzie zawsze wyłącznie wycinkiem rzeczywistości. Powiedzmy, że genialny pisarz byłby w stanie oddać bogactwo psychologicznych niuansów Waszej relacji w… 4 tomach. My zaś próbujemy to zrobić w czterech zdaniach. Jest to dość trudne, przyznacie… Jeszcze ważniejsze jest jednak to, że siłą rzeczy mamy subiektywny obraz rzeczywistości i opisujemy ją z wyłącznie z naszej perspektywy – co jest zupełnie naturalne. Jedyne, co możemy zrobić, to zdać sobie z tego sprawę i uznać, że nasz obraz nie jest jedynym.
Co z kolei robi AI? Modele językowe nie są bogiem. Są bardzo zaawansowaną technologią, która uczy się z nami rozmawiać. robi to coraz lepiej, ale nie ma monopolu na wiedzę i mądrość życiową. Może nam w ciągu 10 sekund podać 748 przepisów na sernik, albo 92 sposoby rozwiązania sporu ze wspólnikiem, ale… czy będą one mądre? Co więcej, modele AI mają tendencję do utwierdzania nas w naszych racjach i opiniach, o ile nie są one całkowicie wewnętrznie sprzeczne lub sprzeczne z faktami. My natomiast mamy genialną zdolność do przedstawiania opowieści w sposób dla nas korzystny. Choćby częściowo lub przez pominięcie pewnych „drobiazgów”. W takiej sytuacji model AI utwierdzi nas w przekonaniu, powie nam to, co chcemy usłyszeć. Mówiąc wprost – może doprowadzić łatwo do zradykalizowania naszej postawy. To właśnie nazywam sprzężonym błędem konfirmacji.
Chcecie wiedzieć więcej?
Nasza subiektywna perspektywa to naturalna pułapka. Badania z Programu Negocjacji na Harvard Law Schoolpotwierdzają, że egocentryzm w sporze uniemożliwia obiektywną ocenę sytuacji, co czyni dane wejściowe dla AI z natury fragmentarycznymi. Możecie o tym przeczytać sami: https://www.pon.harvard.edu/daily/conflict-resolution/conflict-resolution-strategies/
Jeśli interesuje Was temat wykorzystania modeli AI w praktyce prawa, możecie przeczytać również ten raport:
Wnioski
Spory korporacyjne cechują się bardzo dużą złożonością pod względem prawnym, ekonomicznym, relacyjnym , psychologicznym, komunikacyjnym, negocjacyjnym. Najcześciej każdy z uczestników dostrzega jedynie część tej układanki zależności. W każdym razie – ma on jej fragmentaryczny i wysoce subiektywny obraz. Rozmawiając z kimkolwiek dokonuje koniecznej dalszej selekcji faktów oraz nadaje im subiektywny walor. Trzeba wielkiej przenikliwości i doświadczenia, by umieć z takiej opowieści wybrać to, co cenne oraz to, co wymaga weryfikacji lub jest jedynie ozdobą. Modele językowe póki co tego nie potrafią.
Oznacza to, że warto testować pewne pomysły lub rozwiązania z modelami AI, ale karygodnym błędem byłoby bezrefleksyjne podążanie za ich radami udzielanymi w konkretnych przypadkach. Bardzo łatwo popaść wówczas w spiralę potwierdzeń, która początkowe wątpliwości lub nieścisłości zamieni w urojenia. Jest to szczególnie niebezpieczne ze względu na naszą wrodzoną tendencję do ufania temu, czego nie rozumiemy bardziej, niż temu co znamy.
Potrzebujecie pomocy w relacjach między wspólnikami? Prowadzicie już spór sądowy lub pozasądowy? Chcecie ułożyć wasze relacje tak, by zminimalizować Ryzyko powstania konfliktu w przyszłości? Odezwijcie się nas:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Jesteśmy po to, żeby Wam pomóc!
Jeżeli zainteresował Was ten artykuł, możecie przeczytać również inne moje teksty dotyczące wyzwań i możliwości tworzonych przez AI w pracy prawnika:
You can also read the English version of this article:

KORZYSTANIE Z AI PRZEZ PRAWNIKÓW I KLIENTÓW
Sztuczna inteligencja jest rewolucją, z której znaczenia nie zdajemy sobie jeszcze sprawy. Jest zdumiewająco genialna w pewnych aspektach i uroczo nieporadna w innych. Jedno jest pewne – rozwija się w zawrotnym tempie. Skutki jej stosowania dla relacji społecznych, dobrostanu psychicznego użytkowników oraz w funkcjonowaniu korporacji są wielkie, chociaż nie zawsze pozytywne. AI stanowi nową rzeczywistość, która sama w sobie nie jest dobra, ani zła. Stanowi wyzwanie i szansę dla nas wszystkich. W prawie jej konsekwencje są już widoczne.
KORZYSTANIE Z AI I WYZWANIA W BRANŻY PRAWNEJ
Korzystanie z AI to bezspornie nowa jakość. Nie wiem, co będzie za rok lub dwa. AI rozwija się w zawrotnym tempie. Jest już na tyle rozwinięta, że udziela w zakresie porad prawnych odpowiedzi, które dla laika brzmią bardzo wiarygodnie. I to jest wielkie niebezpieczeństwo dla użytkowników. Dlaczego?
Trudności w stosowaniu AI w rozwiązywaniu problemów prawnych
Niestety, jedną z jej cech jest utwierdzanie rozmówcy w jego poglądach. Oznacza to, że odpowiednio formułując pytanie, dostaniemy najczęściej odpowiedź twierdzącą lub bliską niej. A kto nie chce uzyskać potwierdzenia swojego zdania od „magicznej” technologii z przyszłości, która przecież „wie wszystko”? Jest to naturalne zjawisko. Do mnie też przychodzą klienci, którzy chcą, żebym utwierdził ich w ich przekonaniu. Ja jestem jednak zdecydowanie bardziej krytyczny i asertywny od AI.
W pracy z AI kluczowe jest zadanie odpowiedniego pytania. A w prawie to jest już sztuka
Korzystanie z AI nie jest jednak łatwe. Co więcej, trzeba być naprawdę doświadczonym prawnikiem, żeby… umieć sformułować poprawne pytanie. Jak to? – zapytacie. Dobre pytanie wymaga zrozumienia faktów oraz ich znaczenia prawnego. A to już wyższa szkoła jazdy. Przykład?
Proszę bardzo – jedna pani miała ze sobą kartkę z kilkunastoma pytaniami. Odpowiadałem kolejno na każde z nich, ale koło 5 zorientowałem się, że coś jest nie tak. Zapytałem ją, co się takiego stało w jej firmie. Okazało się, że część z pytań, które przygotowała w ogóle nie miało odniesienia do jej problemu, a pozostałe oparte były na błędnych założeniach. Ona mylnie przyjęła za pewnik, że roszczenie. Mogłem odpowiadać na pytania – w końcu po to do mnie przyszła. Mogła te same pytania zadać AI – być może uzyskała by nawet w miarę poprawne odpowiedzi. Ale co z tego? Czy uzyskałaby realną, wymierną pomoc? Nie.
A co na ten temat stosowania AI przez prawników sądzi Krajowa Izba Radców Prawnych? Zobaczcie sami: https://kirp.pl/wp-content/uploads/2025/04/REKOMENDACJE-DOTYCZACE-KORZYSTANIA-PRZEZ-RADCOW-PRAWNYCH-Z-NARZEDZI-OPARTYCH-NA-SZTUCZNEJ-INTELIGENCJI.pdf – zobaczcie sami.
Dlaczego AI może nie być najlepszym doradcą w kwestiach prawnych?
W rezultacie, AI n obecnym etapie rozwoju korzystanie z AI może wyrządzić więcej szkód, niż pożytku, gdy jest używana przez laika w zakresie prawa. Dlaczego?
1) Bo nie umie dostrzec istoty problemu;
2) Ma tendencję do utwierdzania rozmówcy w jego przekonaniach;
3) Póki co – nie jest dobrym prawnikiem – tzn. nawet na proste pytania odpowiada błędnie. Chociaż fascynujące jest, że próbuje i robi to – coraz lepiej. Jednak jeszcze w stopniu dalekim od zadowalającego.
4) Pamiętajcie, że jeśli Wy używacie AI, to druga strona też być może to robi. Jeśli robią to obie strony, to potencjalne korzyści dla każdej z nich ulegną zniesieniu i przewagę zyska ta strona, która… zadaje lepsze pytania i lepiej potrafi oceniać odpowiedzi, a więc ta, która… jest lepszym prawnikiem albo ma lepszego prawnika.
Korzystanie z AI przez doświadczonego prawnika
Co innego, gdy jest używana przez doświadczonego prawnika, który zidentyfikował już poprawnie problem i umie ocenić uzyskane odpowiedzi. Wtedy korzystanie z AI staje się powoli bardzo cenną umiejętnością. Sam często korzystam z AI – proszę np., żeby oceniła moje teksty. Zwraca mi uwagę na jasność wywodu, powtórzenia, sugeruje podanie przykładu dla rozjaśnienia albo sugeruje, że tekst jest za długi.
Czasem pytam różne modele AI: Chata GPT5, Gemini albo naszego polskiego Bielika o ich zdanie na temat jakiejś umowy lub pisma procesowego. Ich uwagi są w większości dość powierzchowne lub wynikające z nieznajomości przepisów (a przecież mają do nich pełen dostęp – czasem jednak zwyczajnie zachowują się, jakby któryś… przeoczyły), albo z ich niezrozumienia, niewzięcia pod uwagę praktyki, orzecznictwa lub czynnika ludzkiego. Czasami krytykują jakiś mój pomysł, ale po doprecyzowaniu – przepraszają i mówią, że był dobry.
Korzystanie z AI jest elementem mojej pracy i jestem z tego dumny. Dlaczego? Bo robię to odpowiedzialnie i z głową. Modele AI pomagają mi, ale to ja ponoszę pełną i absolutną odpowiedzialność za rezultaty mojej pracy i nie mógłbym nie zweryfikować danych, źródeł lub pomysłów, które AI mi podpowiada.
A gdy klient tylko prosi AI o ocenę dokumentu przygotowanego przez prawnika?
Raz poprosiłem o analizę skomplikowanej umowy, którą napisałem. Spotkałem się z ostrą krytyką, ale po dyskusji – wszystkie modele przyznały mi w pełni rację i wycofały się z pierwotnych stanowisk. Gdyby jednak to mój klient wrzucił do nich tę umowę, żeby sprawdzić moją pracę – dostałby wyłącznie krytyczne zdanie, z którym nie było w stanie polemizować, gdyż ta dyskusja wymagała już naprawdę bardzo fachowej wiedzy.
Chcę być wyraźnie zrozumiany – argumenty tych modeli językowych nie były wówczas trafne. Ale żeby do dostrzec i ocenić ich luki w tym zakresie, trzeba doświadczenia i wiedzy, których klienci – co normalne – nie mają. Nie każdy tekst, który brzmi kategorycznie i powołuje jakieś przepisy jest wartościowy w starciu z prawnikiem lub sądem. Korzystanie z AI to przyszłość prawa, ale ostatecznie przewagę będą mieli ci prawnicy, którzy będą potrafili z niej korzystać lepiej, niż inni.
Korzystanie z AI przez Klienta
To działa oczywiście w dwie strony. Klienci mogą prosić AI nie tylko o rozwiązanie sprawy, – coraz częściej klienci przychodzą do nas z gotowym rozwiązaniem, które podpowiedziała im AI. I oni oczekują, że my się tego posłuchamy. Problem polega na tym, że te rozwiązania są najczęściej… nie najlepsze. A ludzie mają naturalną tendencję do wierzenia temu, czego nie znają. Wynika to zapewne ze zniechęcenia do systemu, który znają. Poza tym, AI jest darmowa albo bardzo tania i daje odpowiedzi od razu – czego chcieć więcej?
Frustracja części prawników
Proszę zrozumieć, że takie podejście klientów rodzi naturalną frustrację u części – głównie starszych prawników. Czują się zlekceważeni, pominięci oraz zwyczajnie nie rozumieją, dlaczego ktoś miałby bardziej wierzyć jakiemuś „tosterowi na sterydach” niż adwokatowi, który takimi sprawami zajmuje się całe życie i naprawdę się na tym zna. Co więcej, klienci czasem przychodzą z „listą uwag”, które AI przygotowała do do dokumentu przygotowanego przez adwokata i zaczynają go przepytywać. Znów wracamy wówczas do punktu wyjścia, gdyż klient, który jest laikiem ma rozstrzygać różnicę w poglądach między żywym adwokatem, a AI. A to nie jest łatwe. Nie twierdzę, że człowiek ma zawsze rację. Tak nie jest, ale ocena tego wymaga jednak wiedzy.
Przygotowałem dla Was kilka bardzo ciekawych źródeł
Może jesteście ciekawi zdania specjalistów z zagranicy? Polecam ten tekst: https://legal.thomsonreuters.com/blog/artificial-intelligence-and-law-guide/
A co o zastosowaniu AI w praktyce prawa mówią eksperci z Harvardu? Zobaczcie sami: https://hls.harvard.edu/today/harvard-law-expert-explains-how-ai-may-transform-the-legal-profession-in-2024/
Jeśli nie chcecie czytać, ale wolicie oglądać lub słuchać i macie trochę czasu, włączcie YouTube: https://www.youtube.com/watch?v=YNaT9VD8290 – to jest nagrane 8 lat temu, ale dzięki temu możecie porównać i ocenić sami – jak sprawdzają się przewidywania i czym AI nas dzisiaj zaskakuje? To fascynujące doświadczenie!
Polecam Wam również wykład prof. Hildebrandt, który znalazła mi… AI – dziękuję Gemini 🙂 Sam bym tego wykładu nie znalazł, a przecież istniej on realnie i jest bardzo, bardzo wartościowy: https://www.youtube.com/watch?v=oaa-mMNQACc
Może prawdy, rzetelności i doświadczenia?
Póki co – ufajcie żywym prawnikom. Naprawdę. Wierzę w to, co napisałem. A w przyszłości? Zobaczymy.
Możecie w końcu poczytać moje teksty, które nie umywają się do tych, które Wam wyżej pokazałem:
Jesteśmy Kancelarią nowoczesną w ten sposób, że lubimy technologię, używamy jej i jesteśmy jej ciekawi. Jesteśmy Kancelarią tradycyjną w tym znaczeniu, że stawiamy na rzetelność i odpowiedzialność wobec tych, którzy nam zaufali.
Jeśli czujecie, że potrzebujecie mojej pomocy, odezwijcie się do mnie. Ja i mój zespół jesteśmy po to, żeby Wam pomóc:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Do zobaczenia!

CZY MODELE AI ZASTĄPIĄ PRAWNIKÓW?
Widzę radujących się ludzi. Ludzie ci są szczęśliwi, bowiem za darmo albo za półdarmo mają dostęp do modeli AI, które odpowiadają na wszystkie pytania. Czują radość, bo to tej pory musieli płacić prawnikom za pomoc prawną. To rodziło ich frustrację. Bo prawnik nic nie robił, a tylko odpowiadał na pytanie i chciał za to pieniądze. Oczywiste poczucie krzywdy kogoś, kto na te zapłacone prawnikowi pieniądze musiał sam „uczciwie zarobić” zostaje obecnie zrekompensowane. Czuć ulgę. Słychać śmiech. Jest to śmiech tych wszystkich, którzy nie mając wiedzy, ani jej nie szanując, byli wściekli, kiedy okazało się, że jej potrzebują i muszą za nią płacić. Dzisiaj ci ludzie triumfują, bowiem wiedza się „zdemokratyzowała” i „spauperyzowała”, a więc w końcu upadnie kasta darmozjadów w togach, która panicznie boi się utraty przywilejów – nadchodzi koniec prawników! Albo i nie…
Czy modele AI potrafią już skutecznie zastąpić prawników?
Czy AI zastąpi prawników? Odpowiedź na to pytanie może być tylko jedna: nie.
Owszem, potrafią odpowiedzieć na każde pytanie. Ale są to odpowiedzi bardzo różnej jakości. Potrafią odpowiadać na najprostsze pytania. Np.: czy zabójstwo jest przestępstwem? Gemini udziela odpowiedzi poprawnej, mówi, że tak oraz podaje podstawę prawną, tj. art. 148 k.k. Nawet go cytuje. Ktoś mógłby się zachwycić, gdyby nie wiedział, że zabójstwo jest przestępstwem samo w sobie (jest to nazwa przestępstwa – typ normatywny, jak kto woli). Nie można udzielić na to pytanie odpowiedzi przeczącej.
Schody zaczynają się, gdy zapytamy tego „geniusza”, czy zabicie człowieka jest przestępstwem? On na to pytanie odpowiada dokładnie tak samo, jak na poprzednie. A przecież są to dwa różne światy. Nie każde zabicie człowieka jest zabójstwem w rozumieniu k.k. Nie każde pozbawienie człowieka życia jest przestępstwem. Żołnierz zabijając wroga na wojnie nie popełnia przestępstwa zabójstwa. Nie popełnia go również kto np. nieumyślnie powoduje cudzą śmierć (to może być inne przęstepstwo) albo działa w obronie koniecznej. Takich przykładów można podać tysiące. Wyobraźcie sobie, że rozmawiacie o kolorach z osobą, która urodziła się jako niewidoma. Ona może potrafić wam opisać każdy kolor, wiele o nim mówić, ale nie zmieni to faktu, że do końca nie wie, o czym mówi i przecież żadnego nie odróżni od innego.
Mamy więc do czynienia z narzędziem bardzo skutecznym, ale tylko na bardzo podstawowym poziomie. To taki organizm, który umiałby podać w ciągu sekundy 100 kolejnych liczb pierwszych, ale nie umiał dodawać. Innymi słowy: wie, że dzwonią, ale nie wie, w którym kościele.
Modele AI są relatywnie niezłe w analizie podanych im tekstów prawnych. Dobrze idzie im jednak sprawdzanie ich pod kątem językowym, stylistycznym, ewentualnych powtórzeń lub luk w argumentacji. Całkowicie zawodzą natomiast w odniesieniu do argumentacji prawnej. Mam na myśli zarówno argumentację na poziomie ustawy, jak i przede wszystkim tego, co stanowi kwintesencję stosowania prawa – wykładni tekstu prawnego.
Co ryzykujemy korzystając ze sztucznej inteligencji zamiast z usługi adwokata?
Ryzykujemy wprowadzenie w błąd. I to na fundamentalnym poziomie. Równie dobrze, można by pytać czterolatka, czy założyć spółkę z o.o., czy komandytową. Odpowie? Tak. Nawet z przekonaniem. Ale nie będzie tego potrafił uzasadnić. Różnica z modelami AI jest taka, że one potrafią podać uzasadnienie. I tu powstaje niebezpieczeństwo:
- Ono brzmi wiarygodnie dla laika. Dostaniemy wypowiedź, której przeciętny użytkownik bez prawniczego wykształcenia i praktyki nie będzie w stanie zweryfikować. Jej wewnętrzna spójność dodatkowo ją uwiarygadnia. Ale nie ma ona osadzenia w przepisach prawa interpretowanych poprawnie i – co gorsza – w systemie prawa rozumianym jako całość.
- Najczęściej będzie to odpowiedź oderwana od konkretnych realiów, których AI po prostu nie zna. A te, które zostaną jej podane przez pytającego mogą nie być najważniejszymi i wpływającymi na wynik całego rozumowania. AI może nie dopytać o ryzyko rozwodu z żoną. A to może mieć wpływ na wybór rodzaju spółki.
Skutkiem tego, za darmo i od ręki dostaniemy odpowiedź, ale dopiero po jakimś czasie dowiemy się, że mogła nie być właściwa. Pokusa jest jednak wielka.
Czy AI jest przydatna w praktyce prawnej?
Tak, jest bardzo przydatna. Tak samo, jak Excel czy kalkulator w pracy analityka albo księgowego. Jest to narzędzie, którego możliwości rosną geometrycznie. Warto z niego korzystać. Korzystam sam z AI przy analizie tekstów, próbie odtworzenia stanu emocjonalnego autora tekstu, przy tłumaczeniach na inne języki. Proszę AI o podanie kilku rozwiązań danego problemu. I przeważnie kilka z nich będzie beznadziejnych, jeden przeciętny, a jeden bardzo ciekawy. Jednakże to moje wykształcenie, wiedza i doświadczenie pozwalają mi ocenić do czego AI może być przydatna, a następnie do sformułowania odpowiedniego pytania (a to w prawie jest wielką sztuką), a dopiero wówczas mogę przeanalizować i ocenić poszczególne odpowiedzi. Ale to wymaga wiedzy, doświadczenia i tego tajemniczego składnika, którego jeszcze nikt nie zdefiniował, ale który albo się ma, albo nie jest się wykształconym, a jedynie naumianym.
AI jest nowym narzędziem, ale nie zastąpi prawnika
Nie chciałbym urazić Chata GPT albo innego modelu AI, ale… jest on dla mnie przydatnym narzędziem. Ale tylko narzędziem. W rękach laika będzie niewiele bardziej przydatny, niż kalkulator w ręku dziecka, który przecież nie uczyni go matematykiem, ani księgowym. Przydatność systemów / modeli AI będzie rosła, a nasza – prawników – praca będzie polegała na tym, żebyśmy z nich potrafili korzystać z korzyścią dla naszych klientów i nas samych. Tak samo, jak politycy tworzący strategię dla swoich państw nie znikną, a zostaną wyposażeni w narzędzie, którego rola będzie polegała na tym, że przyniesie przewagę temu, kto będzie w stanie lepiej je wykorzystać, ale go nie zastąpi.
W przypadku sporów sądowych lub negocjacji będą one prowadzone, jak dotychczas – przez prawników, którzy wzmocnią się i swoje możliwości poprzez umiejętne wykorzystanie AI. To samo dotyczy lekarzy, którzy będą analizować wyniki badań w wykorzystaniem AI. Będą oni używać modeli sztucznej inteligencji do stawiania diagnoz, szukania sposobów leczenia lub przekopywania wyników badań naukowych. Ale to ciągle lekarz będzie leczył pacjenta. Tak samo, jak nie pozbawiły go pracy leki i stetoskop, które same w sobie pacjentowi się na wiele nie zdadzą.
https://harvardlawreview.org/print/vol-138/co-governance-and-the-future-of-ai-regulation
https://legal.thomsonreuters.com/blog/how-ai-is-transforming-the-legal-profession
