Защо машинното обучение е толкова трудно за обяснение? Ясното изясняване може да помогне при внасяне на заинтересовани страни

Трудно е да накарате заинтересованите страни да купуват технологии, които не разбират. В случая с изкуствения интелект (AI) и машинното обучение (ML), много малко хора всъщност го получават, оставяйки празнина в обяснението за изследователите на данни и бизнеса.

Преди три години MIT Technology Review публикува статия за AI, озаглавена „Тъмната тайна в сърцето на AI“. “Никой наистина не знае как най-напредналите алгоритми правят това, което правят. Това може да е проблем”, пише Уил Найт. „Миналата година странна самоуправляваща се кола беше пусната по тихите пътища на окръг Монмут, Ню Джърси … Колата не следваше нито едно указание, дадено от инженер или програмист. Вместо това разчиташе изцяло на алгоритъм, който беше се научи да шофира, гледайки как човек го прави.

„Да накараш автомобил да кара по този начин беше впечатляващ подвиг. Но също така е малко обезпокоително, тъй като не е напълно ясно как колата взема решения … Ами ако един ден направи нещо неочаквано – блъсне се в дърво или седнал на зелена светлина? Тъй като нещата стоят сега, може да е трудно да се разбере защо. ”

Технологии, които са „скрити“ в ИИ като машинно обучение, е трудно за всеки да обясни. Ето защо това създава рискове за компаниите и за ИТ директорите и учените по данни, които се очаква да обяснят как функционира техният ИИ.

„Основният недостатък на обяснението при AI е, че той използва ML, а ML е черна кутия“, каза

Уил Апингтън, съосновател и главен изпълнителен директор на Truera, който предоставя софтуер, който помага на компаниите при оперативното използване на AI и ML. “Това означава, че дори когато моделите работят, изследователите на данни не знаят непременно защо. Това пречи на изследователите на данни да създават висококачествени ML приложения бързо и ефективно. Също така се превръща в проблем, когато учени без данни,

като бизнес оператори, регулатори или потребители, задавайте въпроси за резултат. ”

Апингтън каза, че Model Intelligence Platforms може да помогне за справяне с проблема с обяснението.

„Този ​​софтуер помага на изследователите на данни и на тези, които не се занимават с данни, да обясняват, оценяват и извличат прозрения от модели и данни, използвани за изграждането на моделите“, каза Апингтън. “Можете да го възприемате като еквивалент на Tableau за машинно обучение. Този софтуер е и ключът към гарантирането, че моделите са честни и че компаниите могат да ги приемат отговорно.”

Например, ако сте банка, трябва да можете да обясните на регулаторите как работи вашият софтуер за изкуствен интелект за кредитиране и как предпазва от пристрастия. Дори и да не се налага да се занимавате с регулатори, технолозите трябва да могат да обяснят на своите съвети, ръководители на ниво C и крайни бизнес потребители как работи моделът AI / ML и защо трябва да се доверяват на резултатите.

Осигуряването и поддържането на доверие в това, което казва AI, не се отнася само до почистване и проверка на данните, за да се гарантира, че те не са предубедени преди AI да стартира на живо. С течение на времето непременно ще има „отклонение“ от първоначалните данни и алгоритмите, които работят срещу тях. Трябва да наблюдавате и настройвате и за това.

Към внедряването на AI / ML и тестове за поддръжка могат да се добавят инструменти, които могат да установят точността на AI / ML системите. С този инструментариум организациите могат да тестват срещу представителен брой тестови случаи, за да разберат как функционира основното решение за “черна кутия” ML на ИИ и дали резултатите, които предоставя, са “верни”.

В един от случаите на използване, Standard Chartered Bank използва софтуер, за да разбере как функционира AI моделът, който е изградил, при вземането на решения за кредитиране, които е взел. Чрез въвеждане на различни профили и критерии за отпускане, екипът на Standard Charter може да види резултатите, които двигателят на AI се е върнал, и защо. Те биха могли да потвърдят, че вземането на решения на AI остава вярно на това, което банката очаква и че както данните, така и процесът на вземане на решения са обективни. Също толкова важно е, че работещите по проекта могат да обяснят процеса на ИИ на заинтересованите страни. Те бяха намерили начин да пробият „черната кутия“ на ML на AI.

“Ако специалистите по данни не могат да обяснят как работят техните AI приложения, тогава собствениците на фирми няма да ги одобрят, бизнес операторите няма да могат да ги управляват и крайните потребители могат да ги отхвърлят”, каза Апингтън. „Компаниите все повече осъзнават предизвикателството за изграждане на доверие сред заинтересованите страни. Ето защо лидерите на изследователите на данни [и AI] в нашето скорошно проучване заявиха, че„ сътрудничеството между заинтересованите страни “е първостепенното организационно предизвикателство пред тяхната компания.

Leave a Reply

Your email address will not be published. Required fields are marked *