W erze rosnącej popularności sztucznej inteligencji firmy i instytucje doświadczają zarówno pozytywnych, jak i negatywnych skutków jej stosowania. Przykładem poważnej wpadki jest sytuacja, której doświadczył Microsoft w 2016 roku. Firma wprowadziła na platformę Twitter (dzisiaj X) chatbota o nazwie Tay.
Miało to być nowatorskie rozwiązanie, jednak Tay bardzo szybko zaczął obrażać użytkowników i publikować kontrowersyjne treści. Jego działanie na Twitterze zakończyło się po zaledwie kilkunastu godzinach. Jakie kryzysy przyniosła dotychczas sztuczna inteligencja i jakie wnioski możemy z tego wyciągnąć?
Nie tylko korporacje, ale również instytucje i osoby publiczne mogą paść ofiarą niewłaściwego wykorzystania AI. Dwa lata temu, podczas obrad flamandzkiego rządu transmitowanych na żywo, belgijski artysta Dries Depoorter zastosował specjalne oprogramowanie oparte na rozpoznawaniu obrazu. System identyfikował polityków, którzy byli zbyt pochłonięci swoimi telefonami, a następnie publikował materiał wideo z ich zachowaniem na Twitterze. Te dwa przypadki – chatbot Tay i instalacja Depoortera – ukazują zarówno możliwości, jakie niesie ze sobą sztuczna inteligencja, ale też ryzyka z nią związane. Sztuczna inteligencja może przyczynić się do automatyzacji, optymalizacji oraz tworzenia nowych, innowacyjnych rozwiązań. Niemniej jednak niewłaściwe jej użycie bądź brak odpowiedniej kontroli, może prowadzić do nieprzewidywalnych sytuacji kryzysowych.
Obrady flamandzkiego rządu, w czasie których zastosowano specjalne oprogramowanie oparte na rozpoznawaniu obraz
Definicja AI washing według Bing/screenshot
Rynek NFT niejedno już przeżył
Wśród nowych technologii, które w ostatnich latach przeżyły spektakularne wzloty i upadki są blockchain, kryptowaluty i NFT. Liczba i różnorodność kryzysów wizerunkowych, jakich doświadczyły marki i artyści, wkraczający dzielnie do świata NFT może być pouczającą lekcją dla tych, którzy tworzą produkty i rozwiązania bazujące na AI. Jednym z ciekawszych przykładów było wprowadzenie na rynek kolekcji NFT Porsche 911 na przełomie 2022/2023 roku. Rozpoczęło się od hucznej zapowiedzi projektu podczas tygodnia Art Week w Miami. Skończyło, niestety, na wstrzymaniu sprzedaży części kolekcji. Przyczynił się do tego zarówno trudny moment, w którym generalnie znalazł się rynek krypto (m.in. spadające ceny kolekcji NFT, bankructwa dużych firm z branży krypto), jak i liczne błędy w komunikacji, które nie uwzględniały specyfiki i potrzeb społeczności skupionej wokół projektów NFT.
AI washing jedną z przyczyn sytuacji kryzysowych
Patrząc po wynikach wyszukiwania w Google, pojęcie AI washing jeszcze się u nas nie zadomowiło. Jednak bez problemu można znaleźć anglojęzyczne informacje na temat tego zjawiska w sieci.
Bing (powyżej) bez problemu podaje definicję i wskazówki, jak uniknąć tego negatywnego zjawiska. Prawdopodobnie to tylko kwestia czasu, aby i w Polsce rozpoczęła się dyskusja na temat AI washingu. Podobnie, jak ma to miejsce w temacie green washingu, który pojawił się na fali ESG.
Artykuł jest częścią trendbooka „Sojusznik czy wróg? Dwie twarze kryzysu w digitalu public relations” Grup Roboczych IAB Polska.
Publikacja stanowi kompendium wiedzy ekspertów public relations, SEM oraz social media w zakresie tworzenia strategii i realizacji działań kryzysowych online.
AI washing to tylko jedna z potencjalnych przyczyn sytuacji kryzysowych powiązanych ze sztuczną inteligencją. Energochłonność systemów, cyberbezpieczeństwo, kwestie prawne czy prywatność danych to krytyczne obszary praktycznie dla wszystkich nowych technologii. Również dla AI.
Co o sobie myśli sztuczna inteligencja?
Ciekawym eksperymentem okazało się zapytanie o potencjalne sytuacje kryzysowe samej sztucznej inteligencji. Właśnie w takich kwestiach Chat GPT potrafi być pomocny. Choć nie można mu ślepo ufać i zawsze należy samodzielnie ocenić prawidłowość jego odpowiedzi, w tym przypadku przedstawił logiczną listę potencjalnych zagrożeń dla wizerunku firmy:
CHAT GPT: Stosowanie sztucznej inteligencji w biznesie może prowadzić do wielu korzyści, ale równie dobrze może być źródłem potencjalnych sytuacji kryzysowych wpływających na wizerunek firmy. Oto kilka przykładów takich sytuacji:
Dyskryminacja i uprzedzenia: Jeśli algorytmy AI są uczone na danych obarczonych uprzedzeniami, mogą nieświadomie podejmować decyzje oparte na rasie, płci, wieku czy innych czynnikach, np. system rekrutacyjny, który faworyzuje określonych kandydatów na podstawie danych historycznych.
Naruszenie prywatności: Jeśli firma korzysta z AI do analizy danych klientów bez ich wiedzy lub zgody, może to prowadzić do oskarżeń o naruszanie prywatności, np. aplikacja do rozpoznawania twarzy stosowana w miejscach publicznych bez informowania ludzi.
Błędy w produkcie lub usłudze: Jeśli produkt oparty na AI nie działa zgodnie z oczekiwaniami, może to zaszkodzić reputacji firmy.
Niejasne decyzje AI: Kiedy AI podejmuje decyzje, których ludzie nie rozumieją lub które wydają się nieuczciwe, może to prowadzić do niezadowolenia klientów.
Zastąpienie pracowników przez AI: Jeśli firma zastępuje znaczącą liczbę pracowników technologią AI, może to prowadzić do negatywnych opinii publicznych o tym, jak firma traktuje swoich pracowników.
Awaria bezpieczeństwa: Jeśli systemy oparte na AI stają się celem ataków hakerskich, które prowadzą do utraty danych klientów lub innych ważnych informacji, wizerunek firmy może ucierpieć.
Nadużycia etyczne: Jeśli firma korzysta z AI w sposób, który jest postrzegany jako nieetyczny, może to zaszkodzić jej reputacji.
Nieodpowiednie treści: Jeśli AI jest używany do generowania treści, które są nieodpowiednie lub kontrowersyjne, może to wpłynąć na wizerunek firmy.
Aby odpowiednio ocenić zagrożenia dla wizerunku firmy związane ze sztuczną inteligencją trzeba rozumieć technologię, biznes oraz uwarunkowania prawno-etyczne, w jakich dzisiaj funkcjonujemy. Tylko wtedy można przygotować się na większość sytuacji kryzysowych i zarządzić nimi tak, aby zminimalizować straty wizerunkowe i biznesowe.