Gdy sztuczna inteligencja zostanie bankierem centralnym

Oczekuje się, że sztuczna inteligencja będzie szeroko stosowana przez banki centralne, ponieważ przynosi znaczne oszczędności i korzyści w zakresie wydajności. Jak dowodzi jednak poniższy artykuł, rodzi to również trudne pytania o to, które zadania można bezpiecznie zlecić sztucznej inteligencji, a które powinny pozostać w rękach ludzkich decydentów.
Gdy sztuczna inteligencja zostanie bankierem centralnym

(©Envato)

Decydenci wyższego szczebla będą musieli ocenić, w jaki sposób porady AI różnią się od tych tworzonych przez ludzkich specjalistów, a także kształtować swoją politykę kadrową i strukturę organizacyjną w sposób umożliwiający maksymalnie efektywne wykorzystanie sztucznej inteligencji bez zagrażania misji organizacji.

Banki centralne szybko wdrażają rozwiązania oparte o sztuczną inteligencję, kierując się obietnicą zwiększenia wydajności i redukcji kosztów. Z uwagi jednak na to, że większość zastosowań sztucznej inteligencji jest obecnie na niskim poziomie, a banki centralne mają konserwatywny charakter, wdrażanie sztucznej inteligencji postępuje wolniej niż w instytucjach finansowych sektora prywatnego. Ten kierunek rozwoju wydaje się jednak nieunikniony, a sztuczna inteligencja będzie odgrywać coraz ważniejszą rolę w bankowości centralnej. Rodzi to pytania o to, co możemy powierzyć sztucznej inteligencji, a gdzie odpowiedzialność powinna pozostać w ludzkich rękach.

Mogłoby się wydawać, że gospodarka, a zwłaszcza system finansowy – domena banków centralnych – to idealny obszar do zastosowania sztucznej inteligencji. Ostatecznie gospodarka i system finansowy generują niemal nieskończone ilości danych, więc jest na czym trenować AI. W każdej minucie rejestrowana jest decyzja instytucji finansowej , a transakcje są stemplowane z dokładnością co do mikrosekundy. E-maile, wiadomości i rozmowy telefoniczne handlowców i ważnych decydentów z klientami są rejestrowane, a banki centralne mają dostęp do bardzo szczegółowych danych ekonomicznych. Jednak dane nie są równoznaczne z informacjami, a dopatrywanie się sensu w całym tym przepływie danych jest jak picie z węża strażackiego. Co gorsza, informacje o kolejnym kryzysie lub epizodzie inflacyjnym mogą wcale nie znajdować się w obserwowanych danych.

Co AI może, a czego nie może zrobić

Może to okazać się nadmiernym uproszczeniem, ale pomocne jest myślenie o korzyściach i zagrożeniach związanych z AI całościowo/w kategoriach kontinuum.

Z jednej strony mamy problem z dobrze zdefiniowanymi celami, ograniczonymi, niezmiennymi zasadami oraz skończoną i znaną przestrzenią działań, całkiem jak w grze w szachy. W tej dziedzinie AI nas prześciga, podejmując znacznie lepsze decyzje niż ludzie. Może nawet nie potrzebować danych, ponieważ potrafi generować własne zestawy danych szkoleniowych.

Zobacz również:
https://www.dev.obserwatorfinansowy.pl/tematyka/makroekonomia/trendy-gospodarcze/wplyw-sztucznej-inteligencji-na-wzrost-gospodarczy-i-zatrudnienie/

W przypadku banków centralnych obejmuje to zwykłe codzienne operacje, monitorowanie i decyzje, takie jak egzekwowanie zasad mikroostrożnościowych, obsługa systemu płatności i monitorowanie działalności gospodarczej. Obfitość danych, jasne zasady i cele oraz powtarzające się zdarzenia sprawiają, że jest to idealne miejsce dla AI. Możemy to już dostrzec w sektorze prywatnym, gdzie oparty na sztucznej inteligencji Aladdin firmy Blackrock służy jako najlepszy na świecie silnik zarządzania ryzykiem. Robotyczni regulatorzy odpowiedzialni za tzw. RegTech są idealnym zastosowaniem dla sztucznej inteligencji. Obecnie taką pracę mogą wykonywać profesjonaliści z tytułem licencjata lub magistra, a banki centralne zatrudniają sporo takich pracowników. Banki centralne mogą początkowo dostrzec wartość w tym, że AI współpracuje z personelem ludzkim przy pewnej części licznych zadań, które wymagają uwagi, nie zmieniając przy tym liczby pracowników. W miarę upływu czasu banki centralne mogą jednak zacząć doceniać lepsze decyzje i oszczędności wynikające z zastąpienia pracowników sztuczną inteligencją. Biorąc pod uwagę dzisiejszy stan technologii sztucznej inteligencji, jest to w dużej mierze możliwe (Noy i Zhang 2023, Ilzetzki i Jain 2023).

Gdy zasady się rozmywają, cele stają się niejasne, wydarzenia nieregularne, a przestrzeń akcji rozmyta, AI zaczyna tracić swoją przewagę. Informacje, na których mogłaby się uczyć, są bowiem wtedy ograniczone, a ważne decyzje mogą opierać się na domenach spoza zbioru danych szkoleniowych AI.

Obejmuje to analizę działalności gospodarczej na wyższym poziomie, która może wymagać ekonomistów z tytułem doktora piszących raporty i prognozujących ryzyko, inflację i inne zmienne ekonomiczne, czyli stanowiska wymagające wszechstronnego zrozumienia danych, statystyk, programowania i, co najważniejsze, ekonomii. Tacy pracownicy mogą generować zalecenia dotyczące typowych decyzji w zakresie polityki pieniężnej w oparciu o zasadę typu reguły Taylora, makroostrożnościowe dostosowanie składu i wysokości buforów płynnościowych i kapitałowych lub analizę zawirowań na rynku. Chociaż poziom umiejętności wymagany do takiej pracy jest wyższy niż w przypadku zwykłych czynności, długa historia powtarzających się badań w połączeniu ze standardowymi ramami analizy pozostawia znaczną ilość materiału, na którym AI może trenować. A co najważniejsze, taka praca nie wymaga zbyt wielu abstrakcyjnych analiz. AI może w przyszłości przewyższać personel ludzki w takich działaniach, a decydenci wyższego szczebla mogą docenić szybsze i dokładniejsze raporty generowane przez AI. Zmiany te już postępują i to szybko, na przykład dzięki ChatGPT i prognozowaniu opartemu na AI.

Zobacz również:
https://www.dev.obserwatorfinansowy.pl/tematyka/makroekonomia/trendy-gospodarcze/podcast-jestesmy-w-towarzystwie-mozgow-ktore-sa-od-nas-potezniejsze/

W skrajnych przypadkach, takich jak podejmowanie decyzji o tym, jak reagować na kryzysy finansowe lub szybko rosnącą inflację – wydarzenia, z którymi typowy pracownik banku centralnego przeważnie spotyka się tylko raz w życiu zawodowym – ludzcy decydenci mają przewagę, ponieważ mogą być zmuszeni do ustalenia własnych celów, podczas gdy wydarzenia są zasadniczo wyjątkowe, informacje niezwykle skąpe, porady ekspertów sprzeczne, a przestrzeń działania nieznana. Jest to jedyny obszar, w którym AI jest słabsza i może zostać prześcignięta przez ludzkiego analityka myślącego abstrakcyjnie (Danielsson i in. 2022).

W takich sytuacjach błędy mogą mieć katastrofalne skutki. W latach 80. XX wieku sztuczna inteligencja o nazwie EURISKO użyła sprytnego fortelu, aby pokonać wszystkich swoich ludzkich konkurentów w morskiej grze wojennej. Zatopiła własne najwolniejsze statki w celu osiągnięcia lepszej manewrowości niż jej ludzcy konkurenci. Właśnie na tym polega problem ze sztuczną inteligencją. Skąd mamy wiedzieć, że postąpi właściwie? Ludzkim admirałom nie trzeba mówić, że nie mogą zatapiać własnych okrętów; oni po prostu to wiedzą. Natomiast silnik AI musi zostać o tym poinformowany. Tymczasem świat jest złożony i nie da się stworzyć zasad obejmujących każdą ewentualność. AI prędzej czy później napotka przypadki, w których podejmie krytyczne decyzje, których żaden człowiek nie uznałby za akceptowalne.

Oczywiście ludzie podejmują złe decyzje częściej niż AI. Istnieją jednak zasadnicze różnice. Ci pierwsi mają również wieloletnie doświadczenie i wiedzę z odpowiednich dziedzin, takich jak filozofia, historia, polityka i etyka, co pozwala im reagować na nieprzewidziane okoliczności i podejmować decyzje podlegające standardom politycznym i etycznym bez konieczności ich precyzowania. AI może co prawda podejmować lepsze decyzje niż pojedynczy człowiek przez większość czasu, ale obecnie ma tylko jedną wizję świata, podczas gdy każdy człowiek ma swój własny indywidualny światopogląd oparty na wcześniejszych doświadczeniach. Decyzje podejmowane wspólnie przez decydentów o różnych punktach widzenia mogą być bardziej wiarygodne niż decyzja indywidualnej AI. Żadna obecna ani przewidywana technologia sztucznej inteligencji nie jest w stanie podejmować jednomyślnych decyzji grupowych (Danielsson i in. 2020).

Zobacz również:
https://www.dev.obserwatorfinansowy.pl/tematyka/makroekonomia/trendy-gospodarcze/prof-adam-glapinski-o-zastosowaniu-sztucznej-inteligencji/

Co więcej, zanim powierzymy ludziom najważniejsze domeny działania, możemy ich zapytać, jak podejmowaliby decyzje w hipotetycznych scenariuszach i, co najważniejsze, poprosić ich o uzasadnienie. Mogą oni zostać pociągnięci do odpowiedzialności i zobowiązani do składania zeznań przed komisjami senackimi. Jeśli zawiodą, mogą zostać zwolnieni, ukarani, uwięzieni i stracić reputację. Tego wszystkiego nie da się zrobić ze sztuczną inteligencją. Nikt nie wie, w jaki sposób AI rozumuje lub podejmuje decyzje, ona sama nie potrafi też się wytłumaczyć. Można pociągnąć silnik AI do odpowiedzialności, ale on sam się tym nie przejmie.

Wnioski

Wykorzystanie AI postępuje tak szybko, że decydenci mogą zostać zaskoczeni i postawieni przed faktem dokonanym. ChatGPT i uczenie maszynowe nadzorowane przez AI są już dziś wykorzystywane przez młodszych specjalistów banków centralnych do pracy nad strategią.

Zamiast kierować wdrażaniem AI zanim stanie się ona zbyt powszechna, banki centralne mogą zostać zmuszone do reagowania na sztuczną inteligencję, która już jest w użyciu. Choć można deklarować, że sztuczna inteligencja nigdy nie zostanie wykorzystana w niektórych zawodach, historia pokazuje, że wykorzystanie takiej technologii postępuje w sposób niezauważalny, a decydenci wyższego szczebla mogą być ostatnimi, którzy się o tym dowiedzą.

AI może znacząco wesprzeć banki centralne, pomagając im w rosnącej liczbie zadań, którymi muszą się one zajmować, umożliwiając im bardziej efektywne wykorzystanie ograniczonych zasobów i solidniejsze wykonywanie swojej pracy. Zmieni to zarówno samą instytucję, jak i wymagania stawiane jej pracownikom. Chociaż większość pracowników banków centralnych raczej nie zostanie ekspertami w dziedzinie AI, prawdopodobnie będą oni musieli „mówić” językiem sztucznej inteligencji – czyli być z nią zaznajomieni – i czuć się swobodnie, przyjmując wskazówki od silników AI i zarządzając tymi silnikami.

Decydenci najwyższego szczebla muszą zatem ocenić zarówno, w jaki sposób porady AI różnią się od tych tworzonych przez ludzkich specjalistów, jak i kształtować swoją politykę kadrową i strukturę organizacyjną w sposób, który umożliwi maksymalnie efektywne wykorzystanie AI bez zagrażania misji organizacji.

 

Jon Danielsson – Director, Systemic Risk Centre London School Of Economics And Political Science

 

Artykuł ukazał się w wersji oryginalnej na platformie VoxEU, tam też dostępne są przypisy i bibliografia.

(©Envato)

Tagi


Artykuły powiązane

Globalny wyścig regulacyjny w zakresie AI

Kategoria: Trendy gospodarcze
Dlaczego UE powinna skoncentrować się na jakości danych i zasadach przypisania odpowiedzialności za jakość produktu?
Globalny wyścig regulacyjny w zakresie AI

Wpływ sztucznej inteligencji na wzrost gospodarczy i zatrudnienie

Kategoria: Trendy gospodarcze
W ciągu ostatniej dekady wykorzystanie sztucznej inteligencji w codziennych zadaniach gwałtownie wzrosło. W badaniu CfM-CEPR z maja 2023 r. poproszono członków europejskiego panelu o oszacowanie wpływu sztucznej inteligencji na globalny wzrost gospodarczy i stopy bezrobocia w krajach o wysokich dochodach w nadchodzącej dekadzie.
Wpływ sztucznej inteligencji na wzrost gospodarczy i zatrudnienie

Nowe horyzonty i możliwości zastosowania sztucznej inteligencji w biznesie

Kategoria: Trendy gospodarcze
Ciekawe, kiedy sztuczna inteligencja (SI) wysadzi z rynku ekspertów tej dziedziny, któ-rzy podejmują próby opisywania procesów i pytań, na które jeszcze nie ma odpowiedzi – szczególnie w sytuacji, kiedy stała się ona bardzo szybko jedną z najbardziej transforma-cyjnych technologii naszych czasów, rewolucjonizując branże i zasadniczo zmieniając sposób działania przedsiębiorstw i inicjatyw biznesowych.
Nowe horyzonty i możliwości zastosowania sztucznej inteligencji w biznesie