Zaufanie użytkowników do rozwiązań sztucznej inteligencji (AI) i uczenia maszynowego (ML) gwałtownie spada z uwagi na to, że dochodzi do licznych incydentów związanych z naruszeniem prywatności jak i niewłaściwym wykorzystaniem danych. Pomimo kontroli regulacyjnej w celu zwalczania tych naruszeń, raport Gartner Inc. przewiduje, że do 2023 r. 75% dużych organizacji zatrudni specjalistów ds. Dochodzeń w zakresie kryminalistyki, prywatności i zaufania klientów.
Wszystkie odchylenia dotyczące rasy, płci, wieku lub lokalizacji oraz uprzedzenia oparte na konkretnej strukturze danych stanowią długotrwałe ryzyko w szkoleniu modeli sztucznej inteligencji. Ponadto nieprzezroczyste algorytmy typu głębokie uczenie się, zawierają wiele ukrytych, wysoce zmiennych interakcji, które mogą być bardzo trudne do zinterpretowania.
„Potrzebne są nowe narzędzia i umiejętności, aby pomóc organizacjom zidentyfikować te i inne potencjalne źródła stronniczości, zbudować większe zaufanie do korzystania z modeli sztucznej inteligencji by zmniejszyć ryzyko marki i reputacji” – według Jim Hare, wiceprezesa ds. Badań w Gartner.
Bardzo wielu liderów danych i analityków oraz dyrektorów ds. Danych (CDO) zatrudnia ML śledczych i badaczy etyki. Z kolei sektory takie jak finanse czy technologia wdrażają kombinacje narzędzi do zarządzania AI i zarządzania ryzykiem reputacji i bezpieczeństwa.
Ponadto organizacje takie jak Facebook, Google, Bank of America, MassMutual i NASA zatrudniają specjalistów ds. Medycyny sądowej, którzy przede wszystkim skupiają się na odkrywaniu niepożądanych uprzedzeń w modelach sztucznej inteligencji przed ich wdrożeniem.
Specjaliści ci weryfikują modele w fazie rozwoju i kontynuują ich monitorowanie po ich wprowadzeniu do produkcji.
Chociaż liczba organizacji zatrudniających konsultantów ML pozostaje niewielka, dynamika na pewno się przyspieszy w ciągu najbliższych pięciu lat. Z jednej strony dostawcy usług konsultingowych będą uruchamiać nowe usługi w celu audytu i poświadczenia, że modele ML mogą spełnić określone standardy jeszcze zanim zostaną przeniesione do wdrożenia. Z drugiej strony będą pojawiać się również otwarte i komercyjne narzędzia zaprojektowane specjalnie, aby pomóc badaczom ML zidentyfikować i zmniejszyć niedoskonałości takich rozwiązań.
Niektóre organizacje już uruchomiły specjalne narzędzia do zrozumienia sztucznej inteligencji, aby pomóc swoim klientom zidentyfikować i naprawić stronniczość w algorytmach sztucznej inteligencji.
Istnieją również technologie open-source, takie jak LIME, które mogą szukać niezamierzonej dyskryminacji, zanim zostaną wdrożone w modelach. Te i inne narzędzia mogą pomóc badaczom ML zbadać „wpływ danych” wrażliwych zmiennych – takich jak wiek, płeć czy rasa – na inne zmienne w modelu. „Mogą mierzyć, ile korelacji mają ze sobą zmienne, aby sprawdzić, czy wypaczają model i jego wyniki” – powiedział jeden z przedstawicieli Gartner Inc. Promowanie różnorodności w zespołach danych i algorytmach sztucznej inteligencji oraz promowanie umiejętności ludzi to świetny początek ”, powiedział. „Liderzy danych i analiz muszą ustalić odpowiedzialność za określenie i wdrożenie poziomów zaufania i przejrzystości danych, algorytmów i wyników dla każdego przypadku użycia. Konieczne jest, aby obejmowały one ocenę możliwości wyjaśniania sztucznej inteligencji podczas oceny analiz, analizy biznesowej oraz nauki o platformach uczenia maszynowego. ”