
Ostatnio pisałem bardziej o ryzyku, w tym też jest wielowymiarowe ryzyko używania AI w firmach (kopiowanie danych poufnych, kwestie własności intelektualnej, odpowiedzialności za tekst).
Od piątku byłem na EdduCamp prowadzonym przez Mateusza Grzesiaka, którego cenię za podejście wielowymiarowe np. psychologii i biznesu. Jedna z pierwszych sesji, pewnie wykorzystująca efekt przyciągnięcia audytorium, to sesja o AI i o tym, co ludzie robią z tym narzędziem, zanim w ogóle zrozumieją, czym ono jest.
Najpierw definicje, bo bez nich każdy rozumie coś innego. Ludzka inteligencja została opisana jako biologiczna zdolność rozumienia znaczeń, tworzenia obrazu rzeczywistości, wnioskowania przyczynowo-skutkowego, refleksji, regulacji emocji i podejmowania decyzji w oparciu o doświadczenie, wartości i odpowiedzialność. A sztuczna inteligencja: system matematyczno-statystyczny, który analizuje dane, rozpoznaje wzorce i generuje najbardziej prawdopodobne odpowiedzi.
Nie wchodzę w dyskusję czy to prawidłowe definicje czy nie. Tutaj rozciąga się linia sporu a prowadzący podkreśla, że to ważne rozróżnienie, bo AI nie ma świadomości, intencji ani odpowiedzialności. Nie rozumie znaczeń tak jak człowiek. Daje wynik, który „pasuje” do danych i języka.
Z tej definicji autor wyciągnął prosty wniosek: AI jest wtórna i wybiórcza wobec ludzkiej inteligencji. Człowiek reaguje ciałem, kontekstem, relacją, emocją. AI tego nie ma. Może napisać żart, ale nie „czuje”, czy w sali jest napięcie, czy ktoś odpada, czy ktoś się wstydzi. Nie bierze też konsekwencji za to, co podpowie. Te argument akurat przemawiają do mnie ponieważ człowiek to emocje i wyobrażenia, które sobie buduje, nie zawsze prawdziwe.
Najmocniejszy fragment dla mnie dotyczył tego, jak łatwo przypisujemy AI cechy człowieka. Prowadzący nazwał to antropomorfizacją. Ludzie potrafią pisać do modelu jak do partnera, terapeuty, doradcy od życia. Potem obrażają się na odpowiedź, a model przeprasza, więc w głowie robi się wrażenie „relacji”. Tylko że to dalej jest system, który składa słowa w najbardziej prawdopodobny sposób (znowu pewne uproszczenie, bo jest to mechanizm matematycznie dość dobrze znany, ale nie do końca zrozumiany). Ten mechanizm potrafi wciągać, bo daje natychmiastową ulgę i poczucie, że ktoś „jest obok”.
Druga pułapka to mylenie predykcji ze zrozumieniem. AI może brzmieć jak ekspert, ale to nadal nie dowód, że rozumie firmę, sytuację w zespole czy czyjeś emocje. Trzecia: mylenie spójności z prawdą. Ładnie napisany tekst, fachowa terminologia i płynna narracja potrafią uśpić czujność, zwłaszcza gdy temat jest poza naszą specjalizacją. Pojawił się też wątek „halucynacji”, czyli wymyślonych źródeł i faktów. Student może dostać cytowania i bibliografię, które wyglądają wiarygodnie, a nie istnieją. Jeśli ich nie sprawdzi, wpada w kompromitację (przypominam o wpadkach Deloitte).
Czwarta pułapka to traktowanie szybkości jako jakości. Odpowiedź pojawia się od razu, więc mózg dopisuje: „to musi być mądre”. A piąta to delegowanie odpowiedzialności. „System zasugerował” nie jest usprawiedliwieniem. Konsekwencje i tak bierze człowiek, nawet jeśli próbuje się od tego odciąć.
W tle przewijały się konsekwencje społeczne i zawodowe. Jeśli ktoś bezrefleksyjnie przerzuca myślenie na narzędzie, z czasem traci wytrzymałość na wysiłek intelektualny. Prowadzący przywołał przykład badań, w których użytkownicy czata mieli niższe zaangażowanie umysłowe i szybciej zapominali to, co „napisali”. Użył mocnej metafory „steroidu” dla mózgu: działa szybko, daje efekt na zewnątrz, ale może osłabiać fundament, jeśli zastępuje pracę własną.
Ja osobiście też uważam, że rozbudowanych maili z dodatkowymi informacjami wytworzonymi przez AI, ludzie nie czytają lub są zmęczeni ilością tekstu i używają AI do tworzenia podsumowań.
Był też temat homogenizacji treści. Wystarczy popatrzeć na social media: wiele postów pisanych przez AI brzmi podobnie, ma ten sam rytm, te same zdania, tę samą gładkość. To działa chwilę, a potem robi się męczące. Znika różnica między ludźmi, a wraz z nią zaufanie. Prowadzący mówił wprost: publikowanie materiałów generowanych bez adaptacji i weryfikacji kończy się utratą autentyczności i jakości.
Z całej sesji zapamiętałem też proste „czego nie robić”. Nie używać AI do decyzji wysokiej stawki bez własnej analizy i weryfikacji. Inwestycje, kwestie prawne, zdrowie, zwolnienia w pracy, to nie są tematy na „weź mi doradź”. Nie używać AI jako substytutu relacji, bo ludzie zwykle czują, że to nie twoje, a to robi dystans zamiast bliskości. Nie kopiować bezmyślnie wygenerowanych treści. Nie brać wygenerowanych faktów i źródeł za pewnik. I nie wrzucać danych wrażliwych tam, gdzie nie masz kontroli.
A jak używać? Najuczciwiej brzmiało traktowanie AI jako generatora hipotez i materiału do analizy. Narzędzie może podsunąć scenariusze, pomysły, warianty rozmowy, strukturę planu. Ty sprawdzasz, wybierasz i bierzesz odpowiedzialność. To samo z promptami: im więcej konkretu, tym lepszy wynik. Rola, kontekst, ograniczenia, format odpowiedzi, kryteria jakości. Padły przykłady typu przepis z budżetem i kaloriami, scenariusze rozmowy z pracownikiem, diagnoza usterki pralki z granicą bezpieczeństwa, plan wyjazdu z datą, budżetem i stylem wypoczynku. Wspólny mianownik był jeden: precyzja.
Mocno wybrzmiała jeszcze jedna myśl, która siedzi mi w głowie: narzędzie jest jak dźwig. Dźwig sam nic nie buduje. Jeśli operator umie, powstają duże rzeczy. Jeśli operator jest słaby, szkody też będą duże. I tu prowadzący postawił sprawę ostro: żeby zadać sensowne pytanie, trzeba mieć choć podstawową wiedzę w danej dziedzinie. Bez tego łatwo wsiąść do „samochodu bez prawa jazdy”.
Ja po tej sesji biorę dla siebie prostą zasadę: AI ma przyspieszać moją pracę, a nie ją zastępować. Jeśli zaczynam używać jej po to, żeby nie myśleć, to prędzej czy później zapłacę. Jeśli używam jej po to, żeby myśleć lepiej i szybciej, to jest sens. Bardzo fajne wykłady, myślę o kolejnej edycji. Przy okazji warto się zastanowić jeszcze nad bezpieczeństwem i zrobić rachunek sumienia, czy jest to zgodne z wymaganiami lub jeśli jestem użytkownikiem to, czy nie za dużo tam kopiuję danych lub czy rzeczywiście odpowiedź jest sprawdzona, a nie tylko skopiowania.
Skontaktuj się z autorem i dowiedz, jak bezpiecznie i odpowiedzialnie wdrażać AI w organizacji: https://outlook.office.com/book/Konsultacjewobszarzeaplikacjibiznesowych@ISCG.onmicrosoft.com/s/fKddgNyppECh3KThb8VNMw2?ismsaljsauthenabled
#AI #iscg
