W ciągu zaledwie kilku krótkich lat sztuczna inteligencja stała się integralną częścią codziennych operacji biznesowych, wiele firm szybko przechodzi do automatyzacji procesów i polega na systemach opartych na AI. Ale według Georga Meyera, stratega i eksperta systemów, szybkość i wygoda mogą wiązać się z kosztami, szczególnie gdy firmy tracą wgląd w to, jak faktycznie działają ich najważniejsze systemy.
Meyer ostrzega, że jednym z największych zagrożeń jest fałszywe poczucie zrozumienia. "Firmy mogą myśleć, że wiedzą, co się dzieje, ponieważ podały odpowiednie polecenia," wyjaśnia, "ale nie mają prawdziwego wglądu w to, co dzieje się wewnątrz systemu."

Nowoczesne systemy AI, szczególnie duże modele językowe, są potężne, ale trudne do pełnej inspekcji. Ich wewnętrzne procesy nie zawsze są przejrzyste, a ich wyniki mogą się różnić ze względu na wbudowaną losowość. Stwarza to wyzwania związane ze spójnością i niezawodnością, szczególnie gdy AI jest wykorzystywana w kluczowych funkcjach biznesowych. "Istnieją ukryte zagrożenia dla powtarzalności i niezawodności," mówi Meyer, "które mogą być katastrofalne, gdy wpływają na serce firmy."
Dla Meyera rozwiązaniem nie jest unikanie AI, ale zapewnienie, że ludzkie zrozumienie pozostaje centralne. Firmy nadal potrzebują ludzi, którzy wiedzą, jak działają systemy, nawet jeśli te systemy są wspierane przez AI.
Krótkoterminowe zyski, długoterminowe zagrożenia
Kolejnym problemem, który podkreśla Meyer, jest długoterminowy wpływ AI na wiedzę specjalistyczną w organizacjach. Podczas gdy AI może dramatycznie przyspieszyć przepływ pracy i pomóc przekształcić wiedzę w działanie, nadmierne poleganie na niej może wiązać się z niezamierzonymi konsekwencjami.
"Zarówno nadmierne, jak i niedostateczne poleganie może być ryzykowne," mówi Meyer. "AI może skrócić czas potrzebny do zastosowania wiedzy specjalistycznej, ale rodzi ważne pytanie: jak szkolimy następne pokolenie ekspertów, jeśli nigdy nie rozwijają podstaw?"
W krótkim okresie AI może uczynić zespoły bardziej produktywnymi. Ale jeśli pracownicy zaczną polegać na niej w kluczowym myśleniu i rozwiązywaniu problemów, firmy ryzykują utratę wiedzy specjalistycznej potrzebnej do radzenia sobie ze złożonymi, nieoczekiwanymi sytuacjami lub sytuacjami wymagającymi ludzkiego podejścia. Meyer uważa, że zarówno firmy, jak i edukatorzy muszą celowo utrzymywać podstawową wiedzę, szczególnie w scenariuszach, w których nie można polegać na AI.
Odpowiedzialność nadal należy do ludzi
Być może najważniejszą kwestią, którą podnosi Meyer, jest odpowiedzialność. W miarę jak systemy AI przejmują więcej odpowiedzialności, niektóre organizacje mogą być kuszone, aby przerzucić winę, gdy coś pójdzie nie tak. Meyer jasno stwierdza, że nie jest to właściwe podejście.
"Odpowiedzialność i jej prawny odpowiednik, zobowiązanie, są fundamentalnie związane z ludźmi," mówi. "Nie możesz umyć rąk od złego wyniku, mówiąc 'to AI to zrobiło.'"
Wskazuje, że wiele firm już próbuje poruszać się w tej szarej strefie. Dostawcy AI często dołączają zastrzeżenia, że ich systemy mogą popełniać błędy, podczas gdy branże takie jak motoryzacyjna promują funkcje "autonomicznej jazdy", ale nadal obciążają odpowiedzialnością kierowcę. Jednak Meyer argumentuje, że jeśli systemy są naprawdę autonomiczne, odpowiedzialność musi przejść na tych, którzy je projektują i wdrażają.
Dotyczy to nawet mniejszych, codziennych przypadków użycia. Na przykład firmy wykorzystujące AI do tworzenia aplikacji obsługujących wrażliwe dane nie mogą zakładać, że technologia będzie zarządzać bezpieczeństwem poprawnie. "AI nie jest powierzona danymi," mówi Meyer. "Firma jest."





