
CYFROWY GASLIGHTING W NEGOCJACJACH
Negocjacje są grą psychologiczną. Ludzie zawsze próbowali wpływać na siebie, testować swoje granice, budować i wykorzystywać przewagi. Jednak dziś do tej gry dołącza nowy uczestnik – niewidzialny, szybki i pozbawiony emocji. Algorytm. Może on stać się „wspomaganiem” jednej ze stron. Może być narzędziem, które nie tylko wzmacnia argumenty, ale tworzy groźny nacisk emocjonalny.
Czym jest cyfrowy gaslighting?
Cyfrowy gaslighting to wykorzystanie sztucznej inteligencji do generowania komunikatów, które mają podważyć osąd przeciwnika, wywołać w nim nieuzasadnione poczucie winy, lęku lub dezorientacji. Używam tego pojęcia nie w sensie klinicznym, lecz jako skrótu opisującego algorytmicznie wzmacnianą manipulację poznawczą w komunikacji negocjacyjnej. To już nie jest zwykła perswazja. To precyzyjna inżynieria wpływu. Mamy do czynienia z manipulacją napędzaną najnowszą technologią. Jest to przeskok jakościowy, z jakim jeszcze nie mieliśmy do czynienia.
Sam fakt wykorzystywania AI w sporach jest już faktem. Przeczytajcie mój artykuł zawierający wyniki naszego badania: https://jakubieciwspolnicy.pl/badanie-ai-jako-ukryty-sojusznik-w-sporach/
Jakie korzyści daje cyfrowy gaslighting?
Dlaczego ta technika działa tak skutecznie? Przede wszystkim dlatego, że AI potrafi analizować styl pisania z dokładnością, której człowiek nie jest w stanie osiągnąć. W kilku akapitach potrafi wychwycić skłonność do przepraszania, unikania konfliktu, nadmiernego tłumaczenia się czy lęku przed oceną. Są to klasyczne markery słabszej pozycji negocjacyjnej – wcześniej wykorzystywane intuicyjnie, dziś identyfikowane i wzmacniane algorytmicznie.
A potem AI generuje komunikaty, które uderzają dokładnie w te punkty. To hiperdopasowanie sprawia, że odbiorca ma wrażenie, jakby druga strona „czytała mu w myślach”. W rzeczywistości to nie intuicja, lecz analiza wzorców językowych: modalności, stopnia pewności, afektywności i sposobu uzasadniania własnych racji. Mamy do czynienia z automatycznym doborem formy i argumentów, które z natury rzeczy wywrzeć mają najsilniejszy możliwy wpływ na odbiorcę według uzyskanych wcześniej wskazówek. AI przy tym „nie wie”, że robi coś złego.
Drugą przewagą jest brak hamulców. Człowiek, nawet cyniczny, ma naturalne ograniczenia: empatię, zmęczenie, moralny opór, strach przed przesadą (pomijam teraz psychopatów i socjopatów). AI nie ma żadnego z tych oporów. Jeśli dostanie cel: „wywołaj w nim wątpliwość”, zrobi to w sposób chłodny, konsekwentny i pozornie uprzejmy. Nie poczuje dyskomfortu, nie cofnie się, nie złagodzi tonu. To komunikacja zaprojektowana wyłącznie pod kątem skuteczności, a nie relacji.
Trzecia przewaga to efekt szybkości i skali. Człowiek napisze jedną wiadomość, a AI sto – i to bez wysiłku. Wybierze też tę, która najlepiej destabilizuje emocje ofiary i przesuwa punkt odniesienia. To jak walka z przeciwnikiem, który może trenować nieskończoną liczbę kombinacji, zanim wykona ruch. Nic dziwnego, że odbiorca czuje się przytłoczony – bo faktycznie mierzy się z czymś, co ma nieludzką przewagę. Dla większości ludzi może to się okazać zbyt trudne.
Jak rozpoznać, że przeciwnik wykorzystuje AI?
Jak rozpoznać, że po drugiej stronie „pisze” algorytm? Pokazuję niżej kilka sygnałów. Żaden z nich nie jest dowodem sam w sobie. Stanowią one jednak zespół sygnałów ostrzegawczych. Ich wystąpienie może sugerować duże ryzyko algorytmicznego wsparcia jednej ze stron.
Pierwszym z nich jest nienaturalna intensywność. Komunikat jest zbyt gęsty od argumentów, zbyt „czysty” stylistycznie, zbyt precyzyjnie trafia w emocje. Brzmi jak człowiek, który miał godzinę na przemyślenie każdego zdania – ale odpowiedź przyszła bardzo szybko.
Drugim sygnałem jest brak ludzkiego błędu: brak dygresji, wahań, niekonsekwencji, potknięć językowych. To język wygładzony do granic sztuczności.
Trzeci sygnał to pętla potakiwania – każda Twoja wątpliwość spotyka się z natychmiastowym, perfekcyjnie skrojonym kontrargumentem, a każda próba zmiany tematu kończy się powrotem do narracji korzystnej dla drugiej strony. To nie jest rozmowa. To algorytmiczna spirala nacisku.
Czwartym sygnałem może być widoczna różnica miedzy stylem wypowiedzi, używanym słownictwem i poziomem argumentacji miedzy tekstem pisanym, a tym, co druga strona prezentuje na żywo. Owszem, są ludzie, którym znacznie łatwiej przychodzi pisanie, a na żywo są nieśmiali i niezbyt rozmowni, ale są pewne granice.
Cyfrowy gaslighting. Jak się bronić?
Skoro AI działa szybko, intensywnie i bezlitośnie, obrona może być odwrotna: powolna, świadoma i analogowa reakcja. Najprostsza technika to dekonstrukcja tekstu. Wystarczy rozbić komunikat na dwie kategorie: fakty oraz emocjonalne przymiotniki i sugestie. Wiem, że brzmi to łatwo, a w praktyce może być bardzo trudne. Ale warto z tej techniki korzystać częściej, nie tylko, gdy podejrzewamy manipulację z wykorzystaniem AI. Jeśli jednak tego dokonamy, zobaczymy, jaka część powstała tylko po to, by np. wzbudzić w nas wyrzuty sumienia.
Możemy więc odpowiedzieć tylko na jeden – weryfikowalny – fakt z długiego maila. Pominiemy natomiast emocjonalną narrację, ewentualnie poprosimy o doprecyzowanie reszty. W większości przypadków okaże się, że nacisk opierał się na insynuacjach, hiperbolach i manipulacji kontekstem. Oddzielenie treści od tonu odbiera sprawcy korzystającemu z AI większość mocy.
Kolejną strategią jest test czasu. AI działa w trybie natychmiastowym, ale Ty nie musisz. Celowe spowolnienie obniża presję, pozwala odzyskać kontrolę i zmusza drugą stronę do wyjścia poza algorytmiczny rytm. To klasyczna technika negocjacyjna, która w erze AI zyskuje nowe znaczenie. Może to wybić sprawcę z uderzenia. On chciałby działać natychmiast, Ty nie musisz.
Trzecią metodą – chyba najlepszą – jest zmiana kanału komunikacji. AI najlepiej działa w mailach i czatach. Odejdźmy więc od nich. Póki co AI nie potrafi ani doskonale udawać człowieka np. w telekonferencji, ani tym bardziej – nie zastąpi go na żywo. Przejście na telefon lub spotkanie bezpośrednie odcina przeciwnika od algorytmicznego wsparcia.
Czy stosowanie cyfrowego gaslightingu się opłaca?
Warto jednak zadać pytanie: czy stosowanie cyfrowego gaslightingu w ogóle się opłaca?
Krótkoterminowo – tak. Daje przewagę, pozwala „przepchnąć” swoje stanowisko, wywołać presję, uzyskać ustępstwa. Ale długoterminowo koszt jest ogromny.
Przede wszystkim, dochodzi do erozji zaufania. Negocjacje działają tylko wtedy, gdy istnieje minimalny poziom przewidywalności i wiarygodności. Jeśli obie strony zaczynają używać cyfrowych masek, punkt koordynacji znika. Zostaje gra pozorów, a tracimy relację i zaufanie. W sporach, które mają trwać lata – rodzinnych, biznesowych i sukcesyjnych – takie koszty są często wyższe niż jakakolwiek chwilowa przewaga.
Drugim ryzykiem jest rykoszet. Jeśli AI zbytnio „przyciśnie” człowieka wpędzając go do tego w poczucie winy, istnieje ryzyko, że on sam… zwróci się o pomoc do swojego modelu językowego. Uzyska ją szybko i za darmo. Będzie ona nosiła cechy racjonalności i da mu oparcie w postaci domniemania zewnętrznego autorytetu. Czy taka osoba będzie miała skrupuły? O tym, co może się stać, gdy obie strony sporu korzystają z pomocy modeli językowych pisałem w serii artykułów poświęconych sprzężonemu błędowi konfirmacji. Zostawiam link do jednego z nich: https://jakubieciwspolnicy.pl/sprzezony-blad-konfirmacji/
Trzecim ryzykiem jest to, że manipulacja wyjdzie na jaw – a w erze cyfrowej ślady zostają – reputacja pęka jak szkło. Raz utraconego zaufania nie da się odbudować albo będzie to bardzo trudne.
Pomijam w tym miejscu kwestie czysto prawne, a odnoszące się do możliwości podważenia porozumienia zawartego wskutek opisywanej manipulacji. Są w końcu takie możliwości, jak uchylenie się od skutków oświadczenia woli złożonego pod wpływem np. błędu lub podstępu, wyzysk, a nawet przestępstwo oszustwa. O tym wszystkim będę pisał w osobnym tekście, być może niejednym.
Co nam zostaje?
Okazuje się, że nowe możliwości rodzą nowe zagrożenia, a te przypominają nam o starych wartościach. W świecie, w którym AI może być narzędziem nacisku, największą przewagą staje się zdolność do zachowania racjonalności. Nie szybkość, nie agresja, nie perfekcyjna argumentacja, a racjonalność i… przewidywalność. One budują zaufanie. I one będą w cenie. Jestem o tym przekonany.
Jednym z zadań adwokata, mediatora, stratega negocjacyjnego – jest bycie „filtrem”, który oddziela emocjonalny szum od faktów, rozpoznaje algorytmiczne wzorce nacisku i chroni klienta przed cyfrową manipulacją, szczególnie tam, gdzie komunikacja pisemna zamiast rozwiązywać spór, zaczyna go eskalować.
To powrót do fundamentalnej funkcji doradcy: przywracania proporcji, dystansu i zdrowego rozsądku. Cyfrowy gaslighting będzie się rozwijał. Tak samo, jak przez cały XX wiek rozwijały się techniki manipulacji. Ale tak samo może rozwijać się nasza odporność na nie, jak wzrastała odporność na propagandę. A odporność zaczyna się od świadomości – od zrozumienia, że po drugiej stronie może nie siedzieć człowiek, lecz algorytm zaprojektowany do tego, by nas „rozegrać”. I od decyzji, że nie damy się w tę grę wciągnąć. Zapamiętajmy z tego jedno: bądźmy uważni, bądźmy rozsądni.
Więcej o aspektach etycznych wykorzystania AI w negocjacjach możecie przeczytać m.in. tutaj w Harvard PON:
https://www.pon.harvard.edu/tag/ai
i tutaj na stronie American Bar:
https://www.americanbar.org/groups/dispute_resolution/resources
Jakie to ma dla Ciebie znaczenie?
Wykorzystywanie AI w negocjacjach, komunikacji, w sporach rodzinnych i biznesowych jest faktem. To samo dotyczy relacji w pracy. Musimy być świadomi, że znaczenie AI będzie wzrastać, a już dzisiaj dla wielu osób stanowi ona pierwszy (a czasem jedyny) punkt oceny, weryfikacji i planowania działań.
Naszą misją w Kancelarii Jakubiec i Wspólnicy jest pomoc naszym Klientom w rozwiązywaniu ich sporów i ochronie relacji. Wiemy, że technologia AI niesie wielkie szanse i ułatwienia, ale widzimy również zagrożenia wynikające z braku świadomości lub złej woli.
Jeśli czujecie, że utknęliście w sporze, potrzebujecie pomocy prawnej, negocjacyjnej, odezwijcie się do nas. Jesteśmy od tego, żeby Wam pomóc:
📩 kancelaria@jakubieciwspolnicy.pl
📞 536 270 935
