CFO 2030 – zawód w przebudowie
Technologia AI rozwija się w zawrotnym tempie i znajduje zastosowanie w coraz większej liczbie dziedzin naszego życia. Coraz częściej korzystamy z modeli językowych, by rozwiązywać problemy w codziennej pracy – czy to pisząc mail, czy prosząc o wyszukanie informacji. Na naszych oczach kończy się era „zapytaj Google”, a zaczyna nowa: „zapytaj ChatGPT”. Twórcy rozwiązań opartych na modelach językowych przekonują nas, że AI może znacząco usprawnić pracę. Niedawno uczestniczyłem w szkoleniu pod tytułem „AI Excel”, które pokazywało praktyczne zastosowania sztucznej inteligencji w pracy z Excelem. To szkolenie otworzyło mi oczy – uświadomiłem sobie, jak ważne jest korzystanie z wiedzy specjalistów, by uczyć się nowych rzeczy szybciej. A uczenie się to dziś nie przywilej, ale konieczność – bo świat nie czeka.

Podczas programu TechWeek pokazano, jak samodzielnie wykorzystać ChatGPT do nauki nie tylko obsługi AI, ale też wielu innych umiejętności. Kluczowe jest jednak zrozumienie, jak te narzędzia działają. Wciąż nie są doskonałe, a ich wyniki bywają błędne. I właśnie w tej niedoskonałości kryje się siła i wyzwanie – potrafią pomóc, ale wymagają mądrego i świadomego użytkownika. To skłoniło mnie do refleksji: czy to już ten moment, w którym CFO może działać wyłącznie z pomocą AI-asystenta, bez zespołu finansowego? Dziś wielu specjalistów — analityków, kontrolerów – spędza godziny na przygotowywaniu raportów i zestawień. Co, jeśli ten zespół przestanie być potrzebny?
Nie mówimy tu o księgowości, która już dziś podlega znaczącej automatyzacji. Pytanie brzmi: czy kolejnym etapem będzie ograniczenie lub nawet zanik całych zespołów finansowych? Czy zawód finansisty zmieni się nie do poznania? Może właśnie stoimy u progu takiej zmiany — takiej, jaką kiedyś przyniósł arkusz kalkulacyjny, wypierając papierowe księgi i ręczne analizy. Dziś wiele firm bazuje na systemach ERP, które gromadzą dane i umożliwiają ich przetwarzanie. Zespoły przygotowują na tej podstawie raporty i analizy, ale czy CFO nie mógłby sam, za pomocą dobrze sformułowanego prompta, wygenerować potrzebny raport – gotowy, z analizą i rekomendacjami, w kilka minut?
To nie jest już science fiction. Popkultura od dawna karmi nas obrazami takich rozwiązań — od Tony’ego Starka i jego J.A.R.V.I.S.-a po futurystyczne wizje pracy bez papieru, bez myszki, bez ludzi. Tymczasem Microsoft rozwija Copilota w Excelu, który pomaga użytkownikom tworzyć zaawansowane formuły, porównywać dane i generować analizy. Amazon wykorzystuje AI do dynamicznego prognozowania popytu, a PwC wdraża AI w procesach audytu i due diligence. SAP i Oracle rozwijają inteligentne dodatki do systemów ERP, które umożliwiają automatyczne wykrywanie anomalii finansowych i optymalizację przepływów pieniężnych. To wszystko już się dzieje.
Ale rewolucja technologiczna nie jest pozbawiona ryzyk. AI popełnia błędy, może „halucynować” dane, przedstawiać fałszywe analizy lub generować wnioski, które brzmią przekonująco, ale są całkowicie błędne. Brakuje transparentności – wiele modeli działa jak „czarne skrzynki”, których logiki działania nie jesteśmy w stanie w pełni zrozumieć. Dochodzą też kwestie prawne i etyczne – kto odpowiada za decyzję podjętą na podstawie rekomendacji AI? Jak chronić dane wrażliwe? Wprowadzenie AI do finansów to nie tylko technologia, ale też nowe pytania o odpowiedzialność, zaufanie i kontrolę.
Wykorzystałeś swój limit bezpłatnych treści
Pozostałe 67% artykułu dostępne jest dla zalogowanych użytkowników portalu. Zaloguj się, wybierz plan abonamentowy albo kup dostęp do artykułu/dokumentu.