Organy regulacyjne w Wielkiej Brytanii są ostrzegane, że ich obecne podejście do sztucznej inteligencji w usługach finansowych może narazić konsumentów na poważne szkodyOrgany regulacyjne w Wielkiej Brytanii są ostrzegane, że ich obecne podejście do sztucznej inteligencji w usługach finansowych może narazić konsumentów na poważne szkody

Brytyjscy regulatorzy „narażają konsumentów na poważne zagrożenie", ponieważ luki w nadzorze nad AI się poszerzają – ostrzega komitet

2026/01/20 20:22

Regulatorzy w Wielkiej Brytanii są ostrzegani, że ich obecne podejście do sztucznej inteligencji w usługach finansowych może narazić konsumentów na poważne szkody, ponieważ luki w regulacjach rosną w miarę jak AI coraz szybciej rozwija się w branży.

Komisja Skarbu wydała to ostrzeżenie, stwierdzając, że Bank Anglii, Urząd Nadzoru Finansowego (FCA) i Skarb Państwa nadmiernie polegają na strategii wyczekiwania, podczas gdy AI jest już w centrum podejmowania decyzji finansowych.

W raporcie opublikowanym 20 stycznia komisja stwierdziła, że tempo adopcji AI przerosło zdolność regulatorów do zarządzania związanymi z nią ryzykami.

Około 75% firm świadczących usługi finansowe w Wielkiej Brytanii obecnie stosuje AI, przy czym najintensywniejsze wdrożenie obserwuje się wśród ubezpieczycieli i głównych banków globalnych.

Choć posłowie przyznali, że AI może zwiększyć efektywność, przyspieszyć obsługę klienta i wzmocnić obronę cybernetyczną, stwierdzili, że wszystko to jest zagrożone przez nierozwiązane ryzyka dla konsumentów i stabilności finansowej.

Ustawodawcy twierdzą, że podejście Wielkiej Brytanii do AI w finansach jest zbyt reaktywne

Obecnie w Wielkiej Brytanii nie ma specjalnych przepisów dotyczących AI w usługach finansowych. Zamiast tego regulatorzy stosują istniejące przepisy i twierdzą, że są one wystarczająco elastyczne, aby obejmować nowe technologie.

FCA wskazał na Consumer Duty i Senior Managers and Certification Regime jako zapewniające wystarczającą ochronę, podczas gdy Bank Anglii stwierdził, że jego rolą jest reagowanie w przypadku wystąpienia problemów, a nie regulowanie AI z wyprzedzeniem.

Komisja odrzuciła to stanowisko, stwierdzając, że nakłada ono zbyt dużą odpowiedzialność na firmy, aby samodzielnie interpretowały złożone przepisy.

Decyzje oparte na AI w zakresie kredytów i ubezpieczeń są często nieprzejrzyste, co utrudnia klientom zrozumienie lub zakwestionowanie wyników.

Automatyczne dostosowywanie produktów może pogłębić wykluczenie finansowe, szczególnie w przypadku grup wrażliwych. Nieuregulowane porady finansowe generowane przez narzędzia AI niosą ryzyko wprowadzenia użytkowników w błąd, podczas gdy wykorzystanie AI przez przestępców może zwiększyć oszustwa.

Komisja stwierdziła, że te kwestie nie są hipotetyczne i wymagają czegoś więcej niż monitorowanie po fakcie.

Regulatorzy podjęli pewne kroki, w tym utworzenie Konsorcjum AI i dobrowolnych programów testowych, takich jak AI Live Testing i Supercharged Sandbox FCA.

Jednak posłowie stwierdzili, że te inicjatywy docierają tylko do niewielkiej liczby firm i nie zapewniają jasności, której potrzebuje szerszy rynek.

Uczestników branży poinformowali komisję, że obecne podejście jest reaktywne, pozostawiając firmy w niepewności co do odpowiedzialności, szczególnie gdy systemy AI zachowują się w nieprzewidywalny sposób.

Ryzyka AI rosną, podczas gdy regulatorzy brytyjscy pozostają w tyle w testowaniu i nadzorze

Raport wzbudził również obawy dotyczące stabilności finansowej, ponieważ AI może wzmocnić ryzyka cybernetyczne, skoncentrować zależność operacyjną na niewielkiej liczbie amerykańskich dostawców usług chmurowych i zintensyfikować zachowania stadne na rynkach.

Mimo to ani FCA, ani Bank Anglii obecnie nie przeprowadzają testów warunków skrajnych specyficznych dla AI. Członkowie Komitetu Polityki Finansowej Banku stwierdzili, że takie testy mogłyby być wartościowe, ale nie ustalono żadnego harmonogramu.

Kolejnym punktem zainteresowania była zależność od zewnętrznych dostawców technologii.

Chociaż Parlament stworzył Critical Third Parties Regime w 2023 roku, aby zapewnić regulatorom nadzór nad firmami świadczącymi niezbędne usługi, żaden główny dostawca AI ani usług chmurowych nie został jeszcze wyznaczony.

To opóźnienie utrzymuje się pomimo głośnych awarii, w tym zakłóceń Amazon Web Services w październiku 2025 roku, które dotknęły główne banki brytyjskie.

Komisja stwierdziła, że powolne wdrażanie tego systemu naraża system finansowy na zagrożenia.

Ustalenia pojawiają się w momencie, gdy Wielka Brytania nadal promuje pro-innowacyjną, opartą na zasadach strategię AI, mającą na celu wspieranie wzrostu przy jednoczesnym unikaniu nadmiernej regulacji.

Rząd wspiera to stanowisko poprzez inicjatywy takie jak AI Opportunities Action Plan i AI Safety Institute.

Jednak posłowie stwierdzili, że ambicje muszą być poparte działaniami.

Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z service@support.mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.