Zaufanie. Empatia. Wiarygodność - w dobie AI – relacja z debaty PSPR

Zaufanie. Empatia. Wiarygodność - w dobie AI – relacja z debaty PSPR

VII już edycję PR&Media Days, organizowaną przez Rzeczpospolitą, której hasłem przewodnim były trendy i wyzwania stojące przed branżą PR w 2024 roku, rozpoczął panel dyskusyjny Polskiego Stowarzyszenia Public Relations. W dyskusji na temat wyzwań i ryzyk związanych z AI udział wzięli znakomici eksperci: Elżbieta Czaczyńska, dyrektor marketingu i BD, Sebastian Grochala, rzecznik prasowy, Barbara Krysztofczyk, ekspertka komunikacji kryzysowej i marek osobistych i Marta Soja-Bochenek, ekspertka influencer marketingu, a nad przebiegiem rozmowy czuwała Renata Poreda, członki zarządu PSPR. 

Spadek zaufania i trzy kluczowe wartości

Rozpoczynając debatę, Renata Poreda przytoczyła najnowsze badanie „Edelman Trust Barometer 2024”, które pokazało, że nadal mamy do czynienia z kryzysem ogólnego zaufania. Największym zaufaniem cieszy się biznes (63%), natomiast media i rządy osiągnęły najniższy wynik. Co ciekawe, innowacyjnym firmom ufa aż 73% badanych, ale w przypadku sztucznej inteligencji mówimy już tylko o 50%. Kolejnym ważnym zdarzeniem, które stanowiło punkt wyjścia do dyskusji, jest przyjęty przez Unię Europejską AI Act. To regulacja, która ma na celu przede wszystkim walkę z dezinformacją i przekłamywaniem rzeczywistości przez sztuczną inteligencję. Na te kryzysy i nieuchronny rozwój AI należy nałożyć wartości, o których mówimy w PSPR i które są fundamentem reputacji i relacji – zaufanie, empatię, wiarygodność. To właśnie przez te trzy pryzmaty toczyła się dalsza dyskusja o tym, jak i komu zaufać, jak bardzo wierzyć technologiom i czy dzięki empatii możliwe jest używanie technologii w sposób etyczny. 

Kryzys wartości a kryzys wizerunkowy

Pierwsze pytanie, które Renata Poreda zadała panelistom, dotyczyło tego, czy kryzys wartości jest tożsamy z kryzysem wizerunkowym, jak zapatruje się na to branża prawnicza i która z wymienionych wcześniej wartości jest dla niej najważniejsza. Elżbieta Czaczyńska, przedstawicielka kancelarii prawnej, podkreśliła, że wybór nie jest łatwy, ale to zaufanie wydaje się pierwszą emocją, która przychodzi wszystkim na myśl w kontekście branży prawniczej. Zwracając się do prawnika, oczekujemy bowiem, że po drugiej stronie znajduje się człowiek, któremu możemy zaufać, zarówno w sferze emocjonalnej, jak i merytorycznej. Branża prawnicza ściśle wiąże się z Public Relations i towarzyszy relacjom mediowym niemal na każdym kroku. Jeśli nawet prawnik nie uczestniczy aktywnie w danej sprawie, to w przypadku kryzysu zawsze pojawia się myśl, że ta osoba powinna była być z nami od samego początku. Natomiast w przypadku PR-u prawniczego warto mieć świadomość, że prawnicy nie mają potrzeby zabierania szeroko głosu, ponieważ nie są PR-owcami swoich klientów, lecz ich doradcami i koncentrują się na rzeczowych argumentach. Z kolei w budowaniu własnej reputacji stawiają przede wszystkim na merytorykę i odpowiednio dopasowane media, takie jak Rzeczpospolita. 

Elżbieta Czaczyńska podkreśliła jednak, że także prawnicy zmagają się czasem z kryzysami, w dodatku narażeni są na podwójną wiktymizację. Zjawisko to polega na tym, że pierwszy taki moment ma miejsce w chwili wybuchu kryzysu, a drugi nawet po latach, kiedy osoba wraca do wykonywania zawodu, ale zamknięta już sprawa ponownie jest przywoływana. Taki przypadek miał miejsce na przykład w roku 2023. 

Wartości i AI w medycynie

Renata Poreda zwróciła następnie uwagę słuchaczy na służbę zdrowia, która jest kolejnym przykładem na to, jak ogromne znaczenie mają wartości, szczególnie zaufanie. W odpowiedzi Sebastian Grochala podkreślił, że wśród lekarzy, zwłaszcza w prywatnej opiece medycznej rośnie świadomość, że o wyborze specjalisty nie decyduje już stopień naukowy czy nowoczesny sprzęt, ale podejście do pacjenta. W tej relacji ważne jest zaufanie, niestety, w placówkach publicznych często go brakuje i jest to poważny błąd całego systemu, który frustruje lekarzy. Trudno o zaufanie do zawodu i wiarygodność, jeśli w samym 2023 roku mieliśmy 4 ministrów zdrowia. Chociaż technologie i sztuczna inteligencja będą na pewno wspierać służbę medyczną, nie zastąpią nam lekarzy i pielęgniarek. Co więcej, środowisko medyczne liczy na to, że dzięki sztucznej inteligencji zyska czas dla pacjentów na budowanie z nimi relacji i zaufania. 

Infuencer marketing i jego kryzysy

Nie tylko branże prawnicza i medyczna mierzą się z kryzysami. Za kolejny przykład może posłużyć współpraca firm z influencerami i rok 2023, który obfitował w różne afery z ich udziałem. Z pytaniem o to, jakimi wartościami powinny kierować się firmy we współpracy z influencerami i jak ich dobierać, aby nie zaszkodzili budowanemu przez lata wizerunkowi, Renata Poreda zwróciła się do Marty Soi-Bochenek. Marta potwierdziła, że o influencerach usłyszeliśmy dużo szerzej w zeszłym roku, a temat został podniesiony przez media ogólnopolskiego m. in. za sprawą „Pandora Gate”, która ujawniła, że najbardziej popularni influencerzy tworzący „content” dla dzieci zachowywali się w sposób niewłaściwy. Dopiero od tego momentu branża rzeczywiście zaczęła się im bliżej przyglądać, natomiast to nie są nowe praktyki. Influencer marketing jest niezwykle szybko rosnącą gałęzią marketingu z coraz większymi budżetami, porównywalnymi z kosztem internetowych kampanii odsłonowych. Mamy wielu twórców, którzy za jednorazowe działanie biorą kilkadziesiąt tysięcy złotych. 

Influencer marketing, w przeciwieństwie do reklamy i PR, jest zupełnie nieuregulowany, co stanowi ogromną bolączkę tej branży. Pojawiają się wprawdzie pierwsze próby regulacji, jak np. wytyczne UOKiK sprzed dwóch lat, które wprowadziły obowiązek oznaczania działań płatnych. Toczy się też obecnie postępowanie sądowe przeciwko twórcom, ich agencjom i agencjom reprezentującym marki w sprawie reklamowania alkoholu. Podobnych afer nie brakuje, ale nie mówi się o nich tak głośno. 

Czy dałoby się zatem uniknąć tych afer, gdyby specjaliści od marketingu słuchali PR-owców? Niestety, niekoniecznie. Marta Soja-Bochenek potwierdziła, że firmy są dzisiaj świadome ryzyka działań z twórcami i włączają je w swoje kalkulacje. W rzeczywistości po „Pandora Gate” nie wyciągnięto żadnych konsekwencji prawnych, a jeśli influencerowi spadnie w takiej sytuacji popularność, nie oznacza to, że przestanie on zarabiać. Znajdzie inne źródła zarobków, takie jak streaming z płatnymi treściami czy „freak fights”. 

Kryzys marki osobistej tożsamy z biznesowym?

W jaki sposób w takim razie firmy mogą sobie poradzić z takimi kryzysami? Według Barbary Krzysztofczyk, szczególnie w przypadku marki osobistej, nie ma jednej drogi. Kluczową różnicą w zarządzaniu kryzysem marki osobistej, a biznesu są wartości. Barbara przyznała, że w biznesie doradza zawsze najbardziej bezpiecznie rozwiązanie, jeśli chodzi natomiast o markę osobistą, to rekomenduje to, z czym dana osoba najlepiej się czuje, co będzie najbardziej spójne z jej wartościami. Wybór złego rozwiązania dla marki osobistej może mieć poważne konsekwencje – poczucie frustracji, bezsilności i zdrady własnych wartości, wreszcie depresji. W takich sytuacjach brakuje często empatii, ponieważ nie zawsze rozwiązanie szybkiego wyciszenia sprawy jest dobre, zwłaszcza w przypadku marki osobistej i uczuć tej osoby. Dlatego w tym rodzaju kryzysu poczucie spójności z własnymi przekonaniami jest kluczowe. 

Wartości a technologie

Renata Poreda przypomniała, że na te wszystkie wartości – zaufanie, empatię, wiarygodność – nakładają się we współczesnym świecie technologie, szczególnie najgłośniejsza z nich – sztuczna inteligencja. Czy da się nauczyć ją wartości? Czy to jest katalizator kryzysów i czy regulacje są w stanie zabezpieczyć nas przed negatywnymi konsekwencjami działania AI? Elżbieta Czaczyńska była zdania, że AI Act sprawnie próbuje wpleść w regulacje także kwestie RODO, natomiast na pozostałych kontynentach te przepisy nie obowiązują i tamtejsi twórcy technologii nie będą zwracać na nie uwagi. To oznacza, że Europa pozostanie w tyle. W dodatku sztuczna inteligencja czerpie z materiałów po angielsku, co stanowi kolejną przewagę dla np. Stanów Zjednoczonych. 

Czy uda się jednak nauczyć AI empatii? Elżbieta Czaczyńska podkreśliła, że sztuczna inteligencja to model językowy, więc można nauczyć ją empatycznego języka, ale nie samego uczucia. Natomiast AI na pewno może zostać zaprzęgnięty do żmudnej, analitycznej pracy w każdym zawodzie.  Biorąc pod uwagę fakt, że sztuczna inteligencja czerpie z Internetu pełnego najróżniejszej treści i niekoniecznie zweryfikowanych danych, nie nauczy się ani zaufania, ani wiarygodności. Z wnioskiem dotyczącym empatii nie zgodziła się Barbara Krzysztofczyk. Podała za przykład męża informatyka, który posługuje się narzędziami sztucznej inteligencji, by lepiej zrozumieć domowe kłótnie. Co z kolei oznacza, że Chat może lepiej sobie poradzić w kwestiach wymagających empatii. Elżbieta Czaczyńska przypomniała, że SI jest modelem językowym, który uczy się również na podręcznikach psychologii, a rezultaty promptów mogą faktycznie być przydatne. Nie zastąpią jednak bliskości, która buduje Public Relations i zawodowe relacje pomiędzy poszczególnymi grupami a odbiorcami. 

Kryzysy influencerskie są też w medycynie

O największym kryzysie influencerskim w medycynie – Mama Ginekolog – wspomniał Sebastian Grochala. Sprawa była o tyle trudna, że to szpital dostał karę za nieuprawnioną wizytę przeprowadzą przez lekarkę, co wcale nie zakończyło tej historii. Szpital musi się teraz mierzyć z dalszymi kontrolami NFZ, które są ogromnym obciążeniem administracyjnym i mogą sparaliżować pracę. Ten przykład pokazuje, jak można stracić wiarygodność, będąc pysznym. Zdecydowanie zabrakło tu empatii, choć, jak zauważyła Marta Soja-Bochenek, słupki nie spadły, właśnie dlatego, że Mama Ginekolog w swojej działalności influencerskiej utrzymuje się ze sprzedaży produktów własnych. Niestety, według Sebastiana Grochali stało się to kosztem wizerunku całej służby zdrowia i tych, którzy starają się zdziałać wiele dobrego. 

Marta Soja-Bochenek wskazała ten przykład jako niezwykle ciekawy wątek, który zahacza o prawo, marki osobiste i influencer marketing. Ważne jest to, co zostało wpisane w umowę i to te praktyki wymagają zmian. Tak jak w biznesie, wypowiedź o konkretnej placówce powinna być uzgodniona z biurem prasowym. Tym bardziej, że, jak dodał Sebastian Grochala, istnieją jeszcze ograniczenia prawne dotyczące reklamy w medycynie. 

Język empatii i nauka

Sebastian Grochala wrócił również do wątku języka w temacie sztucznej inteligencji. W ostatnim konkursie na rozwiązania dotyczące wykorzystania AI jednym ze zwycięskich projektów był symulator uczący pielęgniarki, pielęgniarzy i lekarzy na różnym etapie zawodowym komunikacji z seniorami. To przykład pozytywnego zastosowania sztucznej inteligencji, ale model językowy nie przeanalizuje komunikatów w sferze niewerbalnej. Oznacza to, że relacje międzyludzkie zawsze będą ważne w medycynie, bo AI nie zastąpi kontaktu. To samo dotyczy PR-owców: dbamy o wizerunek i komunikację, żeby biznes się kręcił. Jeśli będzie u nas duża dawka inteligencji emocjonalnej, której empatia jest częścią, nasza rola zostanie spełniona. Te wartości ważne są bowiem zarówno w relacjach wewnątrz organizacji, jak i z mediami, gdzie dzięki nim budujemy naszą przewagę konkurencyjną. Wreszcie, jak podkreślił Sebastian Grochala, warto pamiętać, że w kwestii sztucznej inteligencji mamy jeszcze dużo nauki przez pryzmat zarówno pacjentów, jak i personelu. AI może pomóc medykom, np. w badaniu mammograficznym, ale najpierw trzeba przekonać środowisko medyczne, że te rozwiązania są przydatne. Oczywiście ostrożność jest tu niezbędna, dlatego w tym celu powstała oddolnie biała księga, a każde rozwiązanie oparte o sztuczną inteligencję, które wchodzi do medycyny, jest sprawdzane pod względem proceduralnym i medycznym. 

Barbara Krzysztofczyk wyraziła przekonanie, że nawet jeśli SI nie wykazuje prawdziwej empatii, ta udawana wcale nie musi być zła, o czym świadczą chociażby roboty towarzyszące czy chatboty dla osób chorych na depresję. Marta Soja-Bochenek dodała, że skoro sztuczna inteligencja musi się na czymś uczyć, to na nas spoczywa obowiązek okazywania empatii i lepszej komunikacji. 

A co myślą o AI marki osobiste?

Czy marki osobiste mają świadomość, że sztuczna inteligencja może im pomóc, na przykład przewidzieć kryzys? Barbara Krzysztofczyk przyznała, że na tym etapie w Polsce marki osobiste działające samodzielnie są jeszcze z tyłu w stosunku do tego, co stosują korporacje. Trend, który teraz jest widoczny na LinkedIn, to strach, choć pojawia się też krytyka w formie zarzutu, że nasza treść została stworzona przez Chat, co ma podkreślić jej słabą jakość. W przypadku marek osobistych nie stosujemy narzędzi AI, ponieważ nadal boimy się utraty wiarygodności i autentyczności. 

PR-owcy i influencerzy też się jej boją?

Renata Poreda przyznała, że rzeczywiście w branży PR też jest strach, że np. ChatGPT zastąpi nas w pisaniu informacji prasowych. Jednak na tym etapie jakość materiałów stworzonych przez AI nie jest najlepsza, choć Barbara Krzysztofczyk przyznała, że zna kilka narzędzi tworzących jakościową treść. Jeśli to AI wykonuje tę żmudną pracę, to PR-owcy mają czas na to, na co ciągle im go brakuje – na relacje, działania strategiczne, kreatywność. Dziś w Internecie można znaleźć wiedzę, informacje, kompetencje, ale wygrywa się na osobowości, której nie ma w SI. 

W przypadku influencer marketingu – według Marty Soi-Bochenek – jako pierwsi ze sztucznej inteligencji zaczną korzystać młodzi ludzie na TikToku, który wymaga tworzenia ogromnej ilości treści i hiperaktywności. 

Weryfikacja, wiarygodnośc i halucynacje

Przed nami jednak nadal dużo wyzwań, jak choćby weryfikacja danych, które podaje AI. Sam ChatGPT zapytany o to, czy jego odpowiedź jest prawdziwa, często przeprasza. Dlatego, jak skwitowała Marta Soja-Bochenek, sztuczna inteligencja jest jak stażysta czy asystent. Podobnie w medycynie, SI może przyspieszyć i zoptymalizować procesy, ale ostatecznie odpowiedzialność ponosi pracownik. Na szczęście są już wtyczki, które pomagają zweryfikować dane uzyskane dzięki AI. Elżbieta Czaczyńska zapewniła, że na stole leżą już regulacje, które mają wprowadzić piksel śledzący autentyczność informacji, a treści wyprodukowane przez Chat mają być odpowiednio oznaczone. 

AI jest dla mnie jak… 

To przedostatnie pytanie, które Renata Poreda zadała panelistom. 

Elżbieta Czaczyńska: Kompas. Daje znakomity kierunek, inspiruje, pokazuje, co można, ale to my go trzymamy w ręku. To my jesteśmy żeglarzem. 

Barbara Krzysztofczyk: Przyjaciel, który dobrze mi życzy i radzi, z czego nie zawsze muszę skorzystać, i którego chciałabym lepiej poznać. 

Marta Soja-Bochenek: Oczekiwanie, gdzie to nas zaprowadzi i co my z tym zrobimy. I ciekawością, jakie afery z udziałem AI i influencerów wydarzą się w najbliższych latach. 

Sebastian Grochala: Asystent. Osoba, która zabierze część pracy. Taki stażysta. 

Co dalej?

Na sam koniec dyskusji, Renata Poreda zapytała uczestników paneli o rekomendacje na temat tego, jak zwracać uwagę na wartości, działając z technologiami, żeby być po dobrej stronie mocy. 

Elżbieta Czaczyńska odpowiedziała, że zaufanie to jest to, co mamy tylko my, dlatego nasza przyszłość jest bezpieczna. Jeszcze długie dekady, zanim AI nas zastąpi. 

Marta Soja-Bochenek podsumowała, że w przypadku influencerów AI może ten rynek zwiększyć. Dostaniemy dobre narzędzie do weryfikacji twórców, z którymi chcemy współpracować. Więcej, AI będzie w stanie prognozować ich zachowania na podstawie dotychczasowych, co zmniejszy ryzyko. W dodatku powstają już wirtualni twórcy i będzie ich więcej. 

Z kolei Barbara Krysztofczyk podkreśliła, że etyka, empatia, wartości to coś, co się robi, a nie o tym mówi. Musimy obserwować małe kroki, na podstawie których będzie wiadomo, czy coś się powiedzie. 

Sebastian Grochala zakończył optymistycznie. W przypadku medycyny sztuczna inteligencja niesie dużą nadzieję, na przykład zmniejszy liczbę błędów lekarskich, które są trzecią w kolejności przyczyną śmierci. AI odciąży personel medyczny, który zyska przestrzeń na relacje i czasem po prostu odpocznie. Oczywiście już teraz medycyna wiele czerpie z AI. Natomiast w pracy PR-owca, SI jeszcze długo nie będzie nas wypierać. Da nam fakty, ale nie zbuduje za nas relacji, nie nauczy dbać o komunikację wewnętrzną i być wiarygodnym, bo to budujemy czynami. Na pewno musimy być elastyczni i otwarci na to, co przyniesie nam jutro. 

 

Autorka: Gabriela Bar-Rutkowska

drukuj