Dlaczego sztuczna inteligencja wymaga ustrukturyzowanego zarządzania?

Dla prawie wszystkich firm sztuczna inteligencja (AI) jest obecnie bardzo gorącym tematem i większość z nich chętnie odkrywa jej deklarowane korzyści. Istnieją jednak potencjalne wyzwania i zagrożenia związane ze sztuczną inteligencją, którymi należy zarządzać w celu jej bezpiecznego, odpowiedzialnego, niezawodnego i etycznego rozwoju, a także jej zastosowania i użytkowania. Tutaj właśnie z pomocą przychodzi norma ISO/IEC 42001 dotycząca systemu zarządzania sztuczną inteligencją, która stanowi uznany filar ukierunkowujący działania rozwojowe i dostarczający godne zaufania rozwiązania z zakresu sztucznej inteligencji.   

Pomimo tego, że sztuczna inteligencja istnieje już od jakiegoś czasu, do niedawna nie była aż tak entuzjastycznie przyjmowana. Ostatnio przeprowadzone przez DNV badanie ViewPoint wykazało, że znaczna część firm (58%) nie wdrożyła jeszcze technologii AI, a w sumie ponad 70% z nich można uznać za dopiero rozpoczynające swoją przygodę ze sztuczną inteligencją. Dane te podkreślają, że sztuczna inteligencja nie jest jeszcze strategicznym priorytetem dla większości firm. 

Wiele firm, które wzięły udział w ankiecie, może być nowicjuszami w kwestii/temacie Sztucznej Inteligencji choć nie są one początkującymi przedsiębiorstwami w w dosłownym znaczeniu , ani też nie są im obce korzyści płynące z ustrukturyzowanego zarządzania. Wdrożyły one już system zarządzania zgodny z co najmniej jedną normą ISO, taką jak ISO 9001 (jakość), ISO 14001 (środowisko) lub ISO/IEC 27001 (bezpieczeństwo informacji).  Jednakże, szczególnie te na bardzo wczesnych etapach, nie dostrzegły jeszcze potrzeby zastosowania tego samego podejścia do swojej drogi w obszarze sztucznej inteligencji. 

Rosnąca potrzeba zarządzania 

Firmy, które możemy określić mianem „początkujących”, koncentrują się przede wszystkim na wykorzystaniu sztucznej inteligencji w celu zwiększenia wydajności i usprawnienia procesów wewnętrznych. Jest to powszechny pierwszy krok ze względu na stosunkowo prosty charakter i wdrożenie rozwiązań takich jak Copilot i ChatGPT.  W miarę dojrzewania firm następuje jednak przesunięcie w kierunku zewnętrznych, bardziej złożonych inicjatyw AI mających na celu generowanie przychodów i odkrywanie nowych możliwości biznesowych. Wraz z postępem pojawia się zwiększona potrzeba ustrukturyzowanego zarządzania, aby jak najlepiej monitorować ryzyko i zapewnić bezpieczny, niezawodny, etyczny rozwój, wdrożenie i wykorzystanie sztucznej inteligencji. 

Regulacje dotyczące sztucznej inteligencji są coraz bardziej rygorystyczne, a firmy będą musiały wykazać się ich przestrzeganiem. Co więcej, istnieje nieodłączny sceptycyzm ze strony użytkowników, który tworzy barierę w budowaniu zaufania, którą należy zniwelować. Aby zaufać i wykorzystać technologię, musimy zrozumieć, jak ona działa i być w stanie ocenić jej bezpieczeństwo, niezawodność i przejrzystość.  Kwestia ta została podkreślona w raporcie AI Assurance Club z marca 2024 r. zatytułowanym “AI Governance and Assurance Global Trends 2023-24”. Raport zawiera szczegółowe informacje na temat globalnych trendów i rozwoju legislacji związanej z AI na całym świecie. W kwestii zaufania raport podsumowuje: „W centrum układanki zarządzania sztuczną inteligencją znajduje się kwestia zaufania. W miarę jak systemy sztucznej inteligencji stają się coraz bardziej osadzone w naszym życiu - w infrastrukturze, procesach biznesowych, usługach publicznych lub w towarach konsumpcyjnych - użytkownicy muszą mieć pewność, że systemy te będą działać zgodnie z przeznaczeniem, nie wyrządzając szkód”. 

Przezwyciężanie barier w zaufaniu 

Bariera w zaufaniu odnosi się do potencjalnego braku pewności i przejrzystości wokół produktów i/lub usług opartych na sztucznej inteligencji. Na przykład, jeśli szpital korzysta z diagnostyki opartej na sztucznej inteligencji, czy jako pacjent mogę ufać, że jest ona tak samo dobra lub nawet lepsza niż ocena przeprowadzona przez samego lekarza?  Wypełnienie luki w zaufaniu, zanim systemy AI staną się zbyt złożone i autonomiczne, wymaga skutecznego zarządzania. 

Budowanie zaufania jest główną cechą wszystkich standardów systemów zarządzania ISO, więc nie powinno być zaskoczeniem, że to samo podejście można zastosować w przypadku sztucznej inteligencji. Badanie ViewPoint wykazało, że większość firm przodujących w rozwoju i wdrażaniu sztucznej inteligencji rozważa już przyjęcie systemu zarządzania sztuczną inteligencją w celu zapewnienia odpowiedniego nadzoru i zna już normę ISO/IEC 42001.  

Istnieją już pewne struktury AI i normy uzupełniające, w tym NIST AI Risk Management Framework, ISO/IEC 23894 AI guidance on risk management, ISO/IEC 5338 AI system life cycle process i ISO/IEC TS 25058. W grudniu 2023 r. ISO wprowadziło normę ISO/IEC 42001 dotyczącą systemu zarządzania sztuczną inteligencją (AIMS). Jest to pierwszy certyfikowany standard AIMS, który zapewnia kompleksowe podejście do zarządzania wieloma potencjalnymi korzyściami i zagrożeniami związanymi ze sztuczną inteligencją w ramach całej organizacji. Norma ta pomaga zatem firmom pójść o krok dalej w wypełnianiu luki w zaufaniu, ponieważ zgodność z nią wynika z certyfikatu wydanego przez niezależną zewnętrzną jednostkę certyfikującą, taką jak DNV.  Co więcej, ponieważ standard ten jest zbudowany w oparciu o ISO High Level Structure (HLS), można go łatwo zintegrować z innymi systemami zarządzania.   

Norma ISO/IEC 42001 opiera się na tej samej strukturze (HLS), co inne normy zarządzania ISO, a zatem będzie znana firmom posiadającym już inny system zarządzania ISO.  Zgodnie z metodologią „Planuj-Wykonaj-Sprawdź-Działaj”, ISO/IEC 42001 określa wymagania i koncentruje się na ustanowieniu, wdrażaniu, utrzymaniu, a także ciągłym doskonaleniu systemu zarządzania sztuczną inteligencją.  Wiedząc, że wszyscy respondenci w ankiecie ViewPoint wskazali cyberbezpieczeństwo jako główne zagrożenie dla wdrożenia sztucznej inteligencji, integracja z systemem zarządzania bezpieczeństwem informacji zgodnym z ISO/IEC 27001 może być niezwykle korzystna. 

Budowanie zaufania  

Norma ISO/IEC 42001 bez wątpienia nabierze jeszcze większego znaczenia, ponieważ coraz więcej krajów wprowadza przepisy dotyczące sztucznej inteligencji. Regulacje i przepisy istnieją już w Stanach Zjednoczonych i Chinach. W Europie niedawno weszła w życie pierwsza na świecie kompleksowa ustawa dotycząca sztucznej inteligencji - EU AI ACT. Ustawa ma na celu promowanie i zapewnienie bezpiecznego, godnego zaufania i etycznego rozwoju systemów sztucznej inteligencji podczas gdy ustanowienie ładu korporacyjnego w zakresie sztucznej inteligencji staje się kluczowym aspektem zapewniającym zgodność z przepisami i budującym zaufanie.  

Budowanie kluczowej scentralizowanej funkcji w wielu zespołach, które uznają i rozumieją technologie AI, jej zastosowania i dostawców, ma kluczowe znaczenie dla zapewnienia ładu korporacyjnego AI. Co więcej, ze względu na stale rozwijającą się dziedzinę sztucznej inteligencji i zmieniające się otoczenie regulacyjne, konieczne będzie, aby wskazany komitet zarządzający i interesariusze regularnie przeglądali i aktualizowali program zarządzania sztuczną inteligencją. W tym tkwi kolejna korzyść z wdrożenia systemu zarządzania zgodnego z ISO/IEC 42001 i uzyskania certyfikacji. 

Przyjęcie ustrukturyzowanego podejścia do zarządzania i odpowiedzialnego korzystania ze sztucznej inteligencji może ostatecznie stanowić przewagę konkurencyjną i pomoże każdej firmie wykazać wewnętrznym i zewnętrznym podmiotom zainteresowanym, że firma stosuje kompleksowe podejście do ochrony użytkowników i ciągłego doskonalenia. Certyfikowane systemy zarządzania świadczą o zaangażowaniu firmy i działaniach podejmowanych każdego dnia w celu zapewnienia bezpiecznego, niezawodnego i etycznego rozwoju, wdrażania i wykorzystywania sztucznej inteligencji w swoich procesach oraz w ofercie produktów i usług.   

7.10.2024 08:29:00