AI ma wyjaśnienia do zrobienia

Autor: Roger Morrison
Data Utworzenia: 28 Wrzesień 2021
Data Aktualizacji: 16 Czerwiec 2024
Anonim
Jak poprawić aima z pompy (naprawdę pomaga)😎😎😎
Wideo: Jak poprawić aima z pompy (naprawdę pomaga)😎😎😎

Zawartość


Źródło: Sdecoret / Dreamstime.com

Na wynos:

Aby zaufać wynikowi działania systemu AI, niezbędna jest umiejętność zrozumienia jego procesów i wiedza, w jaki sposób doszła do swoich wniosków. Wyjaśnialna sztuczna inteligencja jest kluczem do wyeliminowania wszelkich potencjalnych stronniczości.

Czy możesz zaufać AI? Czy powinieneś zaakceptować jego ustalenia jako obiektywnie ważne bez pytania? Problem polega na tym, że nawet kwestionowanie samej AI nie dałoby jasnych odpowiedzi.

Systemy AI działają ogólnie jak czarna skrzynka: dane są wprowadzane, a dane są wyprowadzane, ale procesy przekształcające te dane są tajemnicą. To stwarza podwójny problem. Jednym z nich jest to, że nie jest jasne, które algorytmy są najbardziej niezawodne. Po drugie, pozornie obiektywne wyniki mogą być wypaczone przez wartości i uprzedzenia ludzi, którzy programują systemy. Właśnie dlatego istnieje potrzeba przejrzystości dla wirtualnych procesów myślowych wykorzystywanych przez takie systemy lub „możliwą do wyjaśnienia sztuczną inteligencję”.


Imperatyw etyczny stał się obowiązkowy dla każdego, kto podlega RODO, co wpływa nie tylko na firmy mające siedzibę w UE, ale także na osoby, które mają tam kontakty z ludźmi lub organizacjami. Zawiera szereg przepisów dotyczących ochrony danych, które rozciągają się na obywateli UE „prawo do niepodlegania wyłącznie zautomatyzowanemu podejmowaniu decyzji, z wyjątkiem niektórych sytuacji” oraz „prawo do uzyskania istotnych informacji o logice związanej z decyzją . ”

Innymi słowy, nie wystarczy już powiedzieć: „Algorytm odrzucił twoją aplikację”. Istnieje prawny mandat do wyjaśnienia sposobu myślenia, który doprowadził do wniosku, który ma wpływ na życie ludzi. (Aby dowiedzieć się więcej o zaletach i wadach sztucznej inteligencji, zobacz Obietnice i pułapki uczenia maszynowego.)

Błędne wyniki

Jedną z obaw, które niektórzy podnieśli na temat decyzji algorytmicznych, jest to, że nawet jeśli stoją na stanowisku obiektywnego rozumowania, mogą wzmocnić uprzedzenia. Taki jest sedno argumentu Cathy ONeil w „Weapons of Math Destruction: How Big Data zwiększa nierówności i zagraża demokracji”. Samo wyjawienie obiektywności związane z dużymi zbiorami danych powoduje, że jest tak szkodliwy w swoich aplikacjach, które faktycznie wzmacniają uprzedzenia .


To, co nazywa „zniszczeniem matematyki”, jest „wynikiem modeli, które wzmacniają bariery, utrzymując określone populacje demograficzne w niekorzystnej sytuacji, identyfikując je jako mniej warte kredytu, edukacji, możliwości pracy, zwolnienia warunkowego itp.”

Nie jest sama w znajdowaniu algorytmicznych uprzedzeń. W 2016 roku Pro Publica podzieliło się swoimi odkryciami, że algorytmy przewidują wyższy wskaźnik recydywy dla czarnych niż białych, co przełożyło się na różne wyroki więzienia za te same rodzaje przestępstw. Artykuł Guardian z 2017 r. Rozszerzył również nastawienie na płeć.

Problem polega na tym, że systemy te są programowane z daleko idącymi konsekwencjami. W wywiadzie telefonicznym Stijn Christiaens, współzałożyciel i dyrektor techniczny Collibra, wyjaśnił, że AI umożliwia „zautomatyzowane podejmowanie decyzji”, które może przekroczyć ponad 10 tysięcy decyzji na sekundę.

Bez błędów, bez stresu - Twój przewodnik krok po kroku do tworzenia oprogramowania zmieniającego życie bez niszczenia życia

Nie możesz poprawić swoich umiejętności programistycznych, gdy nikt nie dba o jakość oprogramowania.

Oznacza to, że system oparty na złych decyzjach będzie robił o wiele więcej z nich szybciej niż jakikolwiek człowiek. Jeśli system ma tendencję do uprzedzeń, ogromna liczba decyzji może być „szkodliwa dla niektórych populacji”, co ma bardzo poważne i powszechne konsekwencje, powiedziała Christiaens.

Opieka i żywienie algorytmów

Z pewnością występują błędy wynikające z niepełnych lub złych danych. Z tego powodu niektórzy eksperci cytowani w artykule Guardiana, o którym mowa powyżej, podawali wyniki algorytmu stronniczego. Sandra Wachter z Oxford University podsumowała to w następujący sposób: „Świat jest stronniczy, dane historyczne są stronnicze, dlatego nie jest zaskakujące, że otrzymujemy stronnicze wyniki”.

W tym samym duchu Christiaens powiedział: „Ponieważ opiera się na obserwacjach w prawdziwym świecie”, AI „obserwuje nasze uprzedzenia i wytwarza seksistowskie lub rasistowskie wyniki”. Stosując własne warunki do tego, co jest powszechnie znane jako śmieci, śmieci (GIGO ), powiedział, że problemem może być „jedzenie”, które składa się na dane treningowe, ponieważ samo w sobie jest błędne, niekompletne lub stronnicze.

Rasistowskie i seksistowskie wyniki można wytrenować w systemie na podstawie danych, które nie odzwierciedlają odpowiednio różnic w populacji. Przedstawił przypadek wykorzystania danych szkoleniowych na podstawie prelegentów na konferencjach, w których kobiety mogą mieć tylko 20 procent reprezentacji. Po przeszkoleniu w zakresie takiej wypaczonej reprezentacji algorytm będzie miał wbudowane odchylenie.

Alchemia AI

Problem tendencyjności AI nie zawsze wynika z przesyłania danych, ale także ze sposobu, w jaki rozwiązuje swoje decyzje. Tajemnica tych operacji tak uderzyła Ali Rahimi i Bena Rechta, że ​​porównali to do alchemii.

Chociaż alchemia może mieć swoje miejsce, ludzie nie chcą odpowiedzi na pytania dotyczące zautomatyzowanych decyzji o poważnych konsekwencjach. Jak to ujęli Rahimi i Recht: „Ale teraz budujemy systemy rządzące opieką zdrowotną i naszym udziałem w debacie obywatelskiej. Chciałbym żyć w świecie, którego systemy oparte są na rygorystycznej, rzetelnej, weryfikowalnej wiedzy, a nie na alchemii. ”(Aby uzyskać więcej informacji na temat sztucznej inteligencji w opiece zdrowotnej, zobacz 5 najbardziej niesamowitych osiągnięć sztucznej inteligencji w opiece zdrowotnej).

Poza czarną skrzynką: odkrywanie, co determinuje decyzje

Właśnie dlatego niektórzy dążą do wprowadzenia przejrzystości w procesie myślenia systemów AI, wyjaśniając, dlaczego doszło do wniosków, które tak zrobiły. Były wysiłki z różnych miejsc.

Grupa trzech profesorów i badaczy z amerykańskich uniwersytetów pracowała nad rozwiązaniem w 2016 r., Które nazwali Lokalnymi Interpretowalnymi Wyjaśnieniami Modelowymi - Agnostycznymi (LIME). Wyjaśniają swoje podejście w tym filmie:

Chociaż był to krok we właściwym kierunku, rozwiązanie nie zadziałało idealnie. I tak badania są kontynuowane, a w świetle RODO osoby powiązane z UE są szczególnie zainteresowane osiągnięciem możliwej do wyjaśnienia sztucznej inteligencji.

Artificial Intelligence Lab na uniwersytecie w Brukseli, instytucja, z której powstała firma Christiaens, jest jednym z miejsc poświęconych takim badaniom. Laboratorium znalazło sposoby pracy z rozpoznawaniem obrazów i „sieci lingwistycznie wyjaśniają, co zobaczyło i dlaczego”, doszło do wniosków, jakie robi na temat tego, co jest na zdjęciu, powiedział.

„Algorytmy zawsze działają w ten sam sposób” - wyjaśniła Christiaens. „Dane wejściowe są tłumaczone na funkcje”. W laboratorium AI mają one środki „do drążenia w dół i zobaczenia, co się wydarzyło w drzewie decyzyjnym”. Na tej podstawie można „zobaczyć ścieżki, którymi podążano”, aby sprawdź, gdzie coś poszło nie tak, a następnie „dostosuj i przekwalifikuj”.

IBM zwrócił również uwagę na problem czarnej skrzynki i niedawno ogłosił ofertę usługi oprogramowania, która będzie wychwytywać uprzedzenia i uwzględniać decyzje AI nawet podczas działania systemu w chmurze IBM. Oprócz wczesnego ostrzegania oferuje sugestie dotyczące tego, jakie dane są potrzebne, aby przeciwdziałać tendencyjnym wynikom.

Oprócz usługi w chmurze IBM oferuje konsultacje dla firm, które budują systemy uczenia maszynowego, aby w przyszłości ograniczyć tendencyjne wyniki. Być może inni eksperci AI również wezmą udział w konsultacjach, aby pomóc w budowie lepszych systemów i zaoferować kontrolę możliwych błędów programowych.

Musimy pamiętać, że systemy AI są tak samo podatne na błędy, jak ludzie, którzy je stworzyli, a więc nikt nie jest ponad rachunkiem decyzji.