09 grudzień 2025
Czy sztuczna inteligencja wykorzystywana w pracy może przekazywać nieprawdziwe dane? Odpowiedź nie zadowoli przedsiębiorców
Korzystanie przez przedsiębiorstwo z modeli opartych na sztucznej inteligencji może przynieść wiele korzyści. Trzeba jednak pamiętać, że nie należy zbytnio ufać informacjom przekazywanym przez sztuczną inteligencję. Tym bardziej że, zdarza jej się generować fałszywe informacje – i to niestety częściej, niż mogłoby się wydawać.
W ciągu ostatnich kilku lat doszło do dynamicznego rozwoju modeli sztucznej inteligencji (modeli AI). Wśród najczęściej wykorzystywanych modeli można wymienić, chociażby GPT od OpenAI, BERT i Gemini od Google, Claude od Anthropic, DeepSeek od High-Flyer, LLaMA od Meta (Meta Platforms, Inc.). Oprócz tego funkcjonują bardziej specjalistyczne modele sztucznej inteligencji, takie jak Transformer (architektura modelu uczenia głębokiego) bądź T5 (transformator enkoderowo-dekodujący) od Google, DALL-E (generowanie obrazów) lub Codex (generowanie kodu) od OpenAI, RoBERTa od Meta Platforms, Inc., czy AlphaFold od DeepMind (przewidywanie struktury białek), Whisper (rozpoznawanie mowy), Codex od OpenAI (generowanie kodu). Są to tylko niektóre przykłady modeli sztucznej inteligencji funkcjonujących obecnie w różnych obszarach ludzkiej aktywności.
Modele sztucznej inteligencji mogą znacznie zwiększyć efektywność wykonywania obowiązków pracowniczych przez osoby, które potrafią korzystać z tego typu narzędzi, m.in. przez automatyzację rutynowych zadań i inteligentną analizę danych. W efekcie zwiększa się produktywność pracowników korzystających z modeli AI, z drugiej strony nierzadko zmniejsza się czas, który pracownik musi poświęcić na wykonywanie swoich zadań.
Należy jednak pamiętać, że stosowanie sztucznej inteligencji w pracy nie zawsze przynosi wyłącznie korzyści. Według badań, na które powołuje się Dziennik Gazeta Prawna, przeprowadzonych przez badaczy Mount Sinai w sierpniu 2025 r. oraz badań przeprowadzonych przez zespoły badawcze Microsoft Research i Carnegie Mellon University, stosowanie narzędzi opartych na sztucznej inteligencji w codziennym funkcjonowaniu firmy może wiązać się z licznymi zagrożeniami. Szczególnie niepokojący jest wpływ korzystania z modeli AI na zaangażowanie pracowników w samodzielne wykonywanie obowiązków pracowniczych. Badania bowiem wykazały, że u pracowników, którzy korzystają ze wsparcia AI w trakcie zadań pracowniczych, dochodzi do tzw. zrzucania obciążeń poznawczych, które polega na obniżeniu poziomu krytycyzmu wobec prac wykonanych przez sztuczną inteligencję. Zjawisko to jest szczególnie widoczne u młodszych pracowników, którzy są bardziej otwarci na wykonywanie obowiązków pracowniczych przy wykorzystaniu narzędzi opartych na wsparciu modeli sztucznej inteligencji.
Innym bardzo poważnym problemem jest zbytnie poleganie na AI w trakcie podejmowania decyzji o charakterze biznesowym. Według badaczy jest to bardzo niebezpieczne, gdyż wszystkie obecnie funkcjonujące modele sztucznej inteligencji wykazują tendencje do fałszowania informacji przekazywanych użytkownikom tych systemów. Jest to tzw. halucynowanie. Zjawisko to polega na wytwarzaniu niepełnych lub fałszywych informacji albo treści w celu uprawdopodobnienia tezy wynikającej z pytania użytkownika systemu. Algorytm systemu preferuje bowiem udzielanie odpowiedzi w sposób maksymalnie bezkonfliktowy. W tym miejscu warto zaznaczyć, że zgodnie z wynikami badań przeprowadzonych przez Mount Sinai, GPT-4o od OpenAI w 53% przypadków generował fałszywe informacje. W przypadku DeepSeeka sytuacja wyglądała jeszcze gorzej, ponieważ ten model AI generował fałszywe informacje w ponad 82% przypadków.
Do przyczyn halucynowania AI można zaliczyć niedoskonałości danych treningowych, zbyt precyzyjne stosowanie się przez algorytm do zestawu danych treningowych lub wykorzystanie błędnych danych treningowych – co wynika z ograniczeń generatywnych modeli AI. Przyczyną halucynowania AI mogą być również celowe ataki na systemy AI, tzw. adversarial attacks.
W celu zapobiegania halucynacjom AI można zastosować następujące rozwiązania:
- odpowiednio skonstruowane prompty, czyli polecenia i instrukcje dla AI;
- odpowiednio zdefiniowany kontekst działania systemów AI, uwzględniając cel wykorzystania AI i ograniczenia danego modelu AI;
- factchecking – weryfikację danych generowanych przez modele AI. Weryfikacji tej powinien dokonywać człowiek, regularnie analizując treści generowane przez AI w poszukiwaniu błędów lub wątpliwych stwierdzeń.
Halucynowanie AI może mieć istotnie negatywny wpływ na przedsiębiorstwo, jeżeli np. wiąże się z bezkrytycznym podejściem pracownika lub przedsiębiorcy do prawdziwości i poprawności treści wygenerowanych przez modele sztucznej inteligencji. To z kolei może prowadzić do wymiernych strat finansowych przedsiębiorstwa, spowodowanych podejmowaniem decyzji biznesowych w oparciu o nieprawdziwe dane. Takie działania narażają nie tylko przedsiębiorcę, ale także jego wspólników oraz kontrahentów. Podważają także reputację i wiarygodność przedsiębiorcy, który pokłada nadmierne zaufanie w informacjach generowanych przez modele sztucznej inteligencji.
Autor: Paweł Kawka, Redaktor WERBEO