
WYKORZYSTANIE AI W SPORACH MIĘDZY WSPÓLNIKAMI
Zajmuję się sporami korporacyjnymi, w tym konfliktami między wspólnikami. Jestem też bardzo zainteresowany rozwojem technologii. Wykorzystanie AI w analizie konfliktów jest już oczywiste. Staje się faktem również w sporach między wspólnikami. Powstaje pytanie, jak optymalnie wykorzystać możliwości, które daje sztuczna inteligencja w tej dziedzinie. Trzeba również przedstawić kilka pułapek, które może rodzić jej zastosowanie w tym obszarze. W tym krótkim wpisie chcę wspomnieć o kilku z nich.
Czego dotyczą spory między wspólnikami?
AI w sporach między wspólnikami? Tak, ale najpierw ustalmy, czego dotyczą te spory. Wbrew pozorom spory i konflikty między wspólnikami nie odnoszą się wyłącznie do pieniędzy. Owszem, pieniądze grają w nich istotną rolę, ale rzadko główną. A często ledwie epizodyczną. Wspólnicy walczą między sobą czasem bardziej zajadle, niż z konkurencją. Mają też znacznie większy wachlarz środków i możliwości, znają się lepiej, mają bardziej odczuwalny, bezpośredni wpływ na swój los. Obszarów możliwych nieporozumień jest więc bardzo wiele.
O co toczą się spory między wspólnikami? O władzę, sprawczości, realizację wizji, docenienie i uznanie zasług. A także o tempo i kierunki zmian, o tolerancję ryzyka, o podejście do pracowników, o uczciwość i rzetelność. Spory toczą się też o przeznaczenie zysków, o zatrudnianie rodziny, o źródła finansowania – kredyt, czy środki własne? Potencjalnych nieporozumień jest mnóstwo, a w przypadku układu z trzema wspólnikami mogą powstawać nierównoważne koalicje w różnych sprawach. Spółki trzyosobowe należą do najmniej stabilnych. Więcej pisała o tym tutaj:
W powyższym tekście o spółkach z udziałem trzech wspólników (link powyżej) zastosowałem ramy analityczne opracowane przez J. Mearsheimera w jego książce Tragedia polityki mocarstw (The Tragedy of Great Power Politics). W tym dziele Autor wyjaśnia, dlaczego sojusze międzynarodowe zawierane między trzema państwami wykazują tendencję do niestabilności. Moim zdaniem wnioski te można, przy zachowaniu odpowiedniej ostrożności, odnieść również do relacji między wspólnikami w spółkach handlowych. Wiem, że może się to wydawać kontrowersyjne, ale struktura interesów i podejrzeń niemal identyczna – przy zachowaniu oczywiście skali.
JAK MOŻNA WYKORZYSTAĆ AI W SPORACH MIĘDZY WSPÓLNIKAMI?
Sposobów wykorzystania sztucznej inteligencji w sporach korporacyjnych jest bardzo wiele. Ciągle powstają nowe pomysły. Możemy jednak pogrupować w zakresie konsultacji prewencyjnych (jak uniknąć sporu?), interwencyjnych (jak rozwiązać spór, który powstał?) i następczych (jak poprawić relację, żeby nie powstał nowy spór?). W tym zakresie AI może nam udzielać podpowiedzi ogólnych dotyczących współpracy jako takiej albo może zająć się konkretnym przypadkiem. Oba rozwiązania mają swoje plusy i minusy. AI w sporach między wspólnikami jest świetnym narzędziem, ale musimy umieć z niej korzystać.
W przypadku porad ogólnych możemy korzystać z ich różnorodności i dostać odpowiedź, która okaże się dla nas nową jakością – otworzy nam kolejne drzwi w naszej głowie. Może się zdarzyć, że podpowie nam rozwiązanie, którego byśmy w inny sposób nie znaleźli. Problemem jest z kolei fakt, że wiele z tych podpowiedzi może być uznana za dość infantylne i ocierać się o granice banału. Bardzo trudne będzie krytyczne „obrobienie” uzyskanych „zaleceń” pod kątem zasadności ich zastosowania w konkretnym przypadku.
O wykorzystaniu AI w rozwiązywaniu konfliktów możecie posłuchać tutaj:
Sprzężony błąd konfirmacji w wykorzystaniu AI
AI w sporach między wspólnikami daje nam wiele możliwości. Jeśli jednak zadajemy pytania dotyczące konkretnego przypadku – naszej firmy – narażamy się na potężne niebezpieczeństwo. Ja nazywam je „sprzężonym błędem konfirmacji„, czyli tendencją do utwierdzania nas w subiektywnych opiniach. Na czym dokładnie on polega?
Chcąc uzyskać rozwiązanie konkretnego problemu odnoszącego się do relacji z naszym wspólnikiem – musimy wprowadzić jakieś dane. Konieczne jest zarysowanie sytuacji. Trzeba opowiedzieć, co się dzieje, jak wygląda sytuacja. Problem polega na tym, że nasza opowieść będzie zawsze wyłącznie wycinkiem rzeczywistości. Powiedzmy, że genialny pisarz byłby w stanie oddać bogactwo psychologicznych niuansów Waszej relacji w… 4 tomach. My zaś próbujemy to zrobić w czterech zdaniach. Jest to dość trudne, przyznacie… Jeszcze ważniejsze jest jednak to, że siłą rzeczy mamy subiektywny obraz rzeczywistości i opisujemy ją z wyłącznie z naszej perspektywy – co jest zupełnie naturalne. Jedyne, co możemy zrobić, to zdać sobie z tego sprawę i uznać, że nasz obraz nie jest jedynym.
Co z kolei robi AI? Modele językowe nie są bogiem. Są bardzo zaawansowaną technologią, która uczy się z nami rozmawiać. robi to coraz lepiej, ale nie ma monopolu na wiedzę i mądrość życiową. Może nam w ciągu 10 sekund podać 748 przepisów na sernik, albo 92 sposoby rozwiązania sporu ze wspólnikiem, ale… czy będą one mądre? Co więcej, modele AI mają tendencję do utwierdzania nas w naszych racjach i opiniach, o ile nie są one całkowicie wewnętrznie sprzeczne lub sprzeczne z faktami. My natomiast mamy genialną zdolność do przedstawiania opowieści w sposób dla nas korzystny. Choćby częściowo lub przez pominięcie pewnych „drobiazgów”. W takiej sytuacji model AI utwierdzi nas w przekonaniu, powie nam to, co chcemy usłyszeć. Mówiąc wprost – może doprowadzić łatwo do zradykalizowania naszej postawy. To właśnie nazywam sprzężonym błędem konfirmacji.
Chcecie wiedzieć więcej?
Nasza subiektywna perspektywa to naturalna pułapka. Badania z Programu Negocjacji na Harvard Law Schoolpotwierdzają, że egocentryzm w sporze uniemożliwia obiektywną ocenę sytuacji, co czyni dane wejściowe dla AI z natury fragmentarycznymi. Możecie o tym przeczytać sami: https://www.pon.harvard.edu/daily/conflict-resolution/conflict-resolution-strategies/
Jeśli interesuje Was temat wykorzystania modeli AI w praktyce prawa, możecie przeczytać również ten raport:
Wnioski
Spory korporacyjne cechują się bardzo dużą złożonością pod względem prawnym, ekonomicznym, relacyjnym , psychologicznym, komunikacyjnym, negocjacyjnym. Najcześciej każdy z uczestników dostrzega jedynie część tej układanki zależności. W każdym razie – ma on jej fragmentaryczny i wysoce subiektywny obraz. Rozmawiając z kimkolwiek dokonuje koniecznej dalszej selekcji faktów oraz nadaje im subiektywny walor. Trzeba wielkiej przenikliwości i doświadczenia, by umieć z takiej opowieści wybrać to, co cenne oraz to, co wymaga weryfikacji lub jest jedynie ozdobą. Modele językowe póki co tego nie potrafią.
Oznacza to, że warto testować pewne pomysły lub rozwiązania z modelami AI, ale karygodnym błędem byłoby bezrefleksyjne podążanie za ich radami udzielanymi w konkretnych przypadkach. Bardzo łatwo popaść wówczas w spiralę potwierdzeń, która początkowe wątpliwości lub nieścisłości zamieni w urojenia. Jest to szczególnie niebezpieczne ze względu na naszą wrodzoną tendencję do ufania temu, czego nie rozumiemy bardziej, niż temu co znamy.
Potrzebujecie pomocy w relacjach między wspólnikami? Prowadzicie już spór sądowy lub pozasądowy? Chcecie ułożyć wasze relacje tak, by zminimalizować Ryzyko powstania konfliktu w przyszłości? Odezwijcie się nas:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Jesteśmy po to, żeby Wam pomóc!
Jeżeli zainteresował Was ten artykuł, możecie przeczytać również inne moje teksty dotyczące wyzwań i możliwości tworzonych przez AI w pracy prawnika:
You can also read the English version of this article:

KORZYSTANIE Z AI PRZEZ PRAWNIKÓW I KLIENTÓW
Sztuczna inteligencja jest rewolucją, z której znaczenia nie zdajemy sobie jeszcze sprawy. Jest zdumiewająco genialna w pewnych aspektach i uroczo nieporadna w innych. Jedno jest pewne – rozwija się w zawrotnym tempie. Skutki jej stosowania dla relacji społecznych, dobrostanu psychicznego użytkowników oraz w funkcjonowaniu korporacji są wielkie, chociaż nie zawsze pozytywne. AI stanowi nową rzeczywistość, która sama w sobie nie jest dobra, ani zła. Stanowi wyzwanie i szansę dla nas wszystkich. W prawie jej konsekwencje są już widoczne.
KORZYSTANIE Z AI I WYZWANIA W BRANŻY PRAWNEJ
Korzystanie z AI to bezspornie nowa jakość. Nie wiem, co będzie za rok lub dwa. AI rozwija się w zawrotnym tempie. Jest już na tyle rozwinięta, że udziela w zakresie porad prawnych odpowiedzi, które dla laika brzmią bardzo wiarygodnie. I to jest wielkie niebezpieczeństwo dla użytkowników. Dlaczego?
Trudności w stosowaniu AI w rozwiązywaniu problemów prawnych
Niestety, jedną z jej cech jest utwierdzanie rozmówcy w jego poglądach. Oznacza to, że odpowiednio formułując pytanie, dostaniemy najczęściej odpowiedź twierdzącą lub bliską niej. A kto nie chce uzyskać potwierdzenia swojego zdania od „magicznej” technologii z przyszłości, która przecież „wie wszystko”? Jest to naturalne zjawisko. Do mnie też przychodzą klienci, którzy chcą, żebym utwierdził ich w ich przekonaniu. Ja jestem jednak zdecydowanie bardziej krytyczny i asertywny od AI.
W pracy z AI kluczowe jest zadanie odpowiedniego pytania. A w prawie to jest już sztuka
Korzystanie z AI nie jest jednak łatwe. Co więcej, trzeba być naprawdę doświadczonym prawnikiem, żeby… umieć sformułować poprawne pytanie. Jak to? – zapytacie. Dobre pytanie wymaga zrozumienia faktów oraz ich znaczenia prawnego. A to już wyższa szkoła jazdy. Przykład?
Proszę bardzo – jedna pani miała ze sobą kartkę z kilkunastoma pytaniami. Odpowiadałem kolejno na każde z nich, ale koło 5 zorientowałem się, że coś jest nie tak. Zapytałem ją, co się takiego stało w jej firmie. Okazało się, że część z pytań, które przygotowała w ogóle nie miało odniesienia do jej problemu, a pozostałe oparte były na błędnych założeniach. Ona mylnie przyjęła za pewnik, że roszczenie. Mogłem odpowiadać na pytania – w końcu po to do mnie przyszła. Mogła te same pytania zadać AI – być może uzyskała by nawet w miarę poprawne odpowiedzi. Ale co z tego? Czy uzyskałaby realną, wymierną pomoc? Nie.
A co na ten temat stosowania AI przez prawników sądzi Krajowa Izba Radców Prawnych? Zobaczcie sami: https://kirp.pl/wp-content/uploads/2025/04/REKOMENDACJE-DOTYCZACE-KORZYSTANIA-PRZEZ-RADCOW-PRAWNYCH-Z-NARZEDZI-OPARTYCH-NA-SZTUCZNEJ-INTELIGENCJI.pdf – zobaczcie sami.
Dlaczego AI może nie być najlepszym doradcą w kwestiach prawnych?
W rezultacie, AI n obecnym etapie rozwoju korzystanie z AI może wyrządzić więcej szkód, niż pożytku, gdy jest używana przez laika w zakresie prawa. Dlaczego?
1) Bo nie umie dostrzec istoty problemu;
2) Ma tendencję do utwierdzania rozmówcy w jego przekonaniach;
3) Póki co – nie jest dobrym prawnikiem – tzn. nawet na proste pytania odpowiada błędnie. Chociaż fascynujące jest, że próbuje i robi to – coraz lepiej. Jednak jeszcze w stopniu dalekim od zadowalającego.
4) Pamiętajcie, że jeśli Wy używacie AI, to druga strona też być może to robi. Jeśli robią to obie strony, to potencjalne korzyści dla każdej z nich ulegną zniesieniu i przewagę zyska ta strona, która… zadaje lepsze pytania i lepiej potrafi oceniać odpowiedzi, a więc ta, która… jest lepszym prawnikiem albo ma lepszego prawnika.
Korzystanie z AI przez doświadczonego prawnika
Co innego, gdy jest używana przez doświadczonego prawnika, który zidentyfikował już poprawnie problem i umie ocenić uzyskane odpowiedzi. Wtedy korzystanie z AI staje się powoli bardzo cenną umiejętnością. Sam często korzystam z AI – proszę np., żeby oceniła moje teksty. Zwraca mi uwagę na jasność wywodu, powtórzenia, sugeruje podanie przykładu dla rozjaśnienia albo sugeruje, że tekst jest za długi.
Czasem pytam różne modele AI: Chata GPT5, Gemini albo naszego polskiego Bielika o ich zdanie na temat jakiejś umowy lub pisma procesowego. Ich uwagi są w większości dość powierzchowne lub wynikające z nieznajomości przepisów (a przecież mają do nich pełen dostęp – czasem jednak zwyczajnie zachowują się, jakby któryś… przeoczyły), albo z ich niezrozumienia, niewzięcia pod uwagę praktyki, orzecznictwa lub czynnika ludzkiego. Czasami krytykują jakiś mój pomysł, ale po doprecyzowaniu – przepraszają i mówią, że był dobry.
Korzystanie z AI jest elementem mojej pracy i jestem z tego dumny. Dlaczego? Bo robię to odpowiedzialnie i z głową. Modele AI pomagają mi, ale to ja ponoszę pełną i absolutną odpowiedzialność za rezultaty mojej pracy i nie mógłbym nie zweryfikować danych, źródeł lub pomysłów, które AI mi podpowiada.
A gdy klient tylko prosi AI o ocenę dokumentu przygotowanego przez prawnika?
Raz poprosiłem o analizę skomplikowanej umowy, którą napisałem. Spotkałem się z ostrą krytyką, ale po dyskusji – wszystkie modele przyznały mi w pełni rację i wycofały się z pierwotnych stanowisk. Gdyby jednak to mój klient wrzucił do nich tę umowę, żeby sprawdzić moją pracę – dostałby wyłącznie krytyczne zdanie, z którym nie było w stanie polemizować, gdyż ta dyskusja wymagała już naprawdę bardzo fachowej wiedzy.
Chcę być wyraźnie zrozumiany – argumenty tych modeli językowych nie były wówczas trafne. Ale żeby do dostrzec i ocenić ich luki w tym zakresie, trzeba doświadczenia i wiedzy, których klienci – co normalne – nie mają. Nie każdy tekst, który brzmi kategorycznie i powołuje jakieś przepisy jest wartościowy w starciu z prawnikiem lub sądem. Korzystanie z AI to przyszłość prawa, ale ostatecznie przewagę będą mieli ci prawnicy, którzy będą potrafili z niej korzystać lepiej, niż inni.
Korzystanie z AI przez Klienta
To działa oczywiście w dwie strony. Klienci mogą prosić AI nie tylko o rozwiązanie sprawy, – coraz częściej klienci przychodzą do nas z gotowym rozwiązaniem, które podpowiedziała im AI. I oni oczekują, że my się tego posłuchamy. Problem polega na tym, że te rozwiązania są najczęściej… nie najlepsze. A ludzie mają naturalną tendencję do wierzenia temu, czego nie znają. Wynika to zapewne ze zniechęcenia do systemu, który znają. Poza tym, AI jest darmowa albo bardzo tania i daje odpowiedzi od razu – czego chcieć więcej?
Frustracja części prawników
Proszę zrozumieć, że takie podejście klientów rodzi naturalną frustrację u części – głównie starszych prawników. Czują się zlekceważeni, pominięci oraz zwyczajnie nie rozumieją, dlaczego ktoś miałby bardziej wierzyć jakiemuś „tosterowi na sterydach” niż adwokatowi, który takimi sprawami zajmuje się całe życie i naprawdę się na tym zna. Co więcej, klienci czasem przychodzą z „listą uwag”, które AI przygotowała do do dokumentu przygotowanego przez adwokata i zaczynają go przepytywać. Znów wracamy wówczas do punktu wyjścia, gdyż klient, który jest laikiem ma rozstrzygać różnicę w poglądach między żywym adwokatem, a AI. A to nie jest łatwe. Nie twierdzę, że człowiek ma zawsze rację. Tak nie jest, ale ocena tego wymaga jednak wiedzy.
Przygotowałem dla Was kilka bardzo ciekawych źródeł
Może jesteście ciekawi zdania specjalistów z zagranicy? Polecam ten tekst: https://legal.thomsonreuters.com/blog/artificial-intelligence-and-law-guide/
A co o zastosowaniu AI w praktyce prawa mówią eksperci z Harvardu? Zobaczcie sami: https://hls.harvard.edu/today/harvard-law-expert-explains-how-ai-may-transform-the-legal-profession-in-2024/
Jeśli nie chcecie czytać, ale wolicie oglądać lub słuchać i macie trochę czasu, włączcie YouTube: https://www.youtube.com/watch?v=YNaT9VD8290 – to jest nagrane 8 lat temu, ale dzięki temu możecie porównać i ocenić sami – jak sprawdzają się przewidywania i czym AI nas dzisiaj zaskakuje? To fascynujące doświadczenie!
Polecam Wam również wykład prof. Hildebrandt, który znalazła mi… AI – dziękuję Gemini 🙂 Sam bym tego wykładu nie znalazł, a przecież istniej on realnie i jest bardzo, bardzo wartościowy: https://www.youtube.com/watch?v=oaa-mMNQACc
Może prawdy, rzetelności i doświadczenia?
Póki co – ufajcie żywym prawnikom. Naprawdę. Wierzę w to, co napisałem. A w przyszłości? Zobaczymy.
Możecie w końcu poczytać moje teksty, które nie umywają się do tych, które Wam wyżej pokazałem:
Jesteśmy Kancelarią nowoczesną w ten sposób, że lubimy technologię, używamy jej i jesteśmy jej ciekawi. Jesteśmy Kancelarią tradycyjną w tym znaczeniu, że stawiamy na rzetelność i odpowiedzialność wobec tych, którzy nam zaufali.
Jeśli czujecie, że potrzebujecie mojej pomocy, odezwijcie się do mnie. Ja i mój zespół jesteśmy po to, żeby Wam pomóc:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
Do zobaczenia!
