Інновації
May 7, 2023

Відповідальний штучний інтелект: пріоритетне завдання для СЕО

Такі застосунки, як ChatGPT, відкривають для компаній величезні можливості; проте аби розкрити переваги і мінімізувати ризики штучного інтелекту, перша особа в організації має взяти на себе повну відповідальність за його належне використання, — пишуть представники Boston Consulting Group (BCG).

Штучний інтелект, один із найважливіших інструментів у стратегічному арсеналі компаній, спричиняє серед керівників неабиякі занепокоєння. Так, регулятори вимагають великих штрафів за випадки неспрацювання алгоритмів AI, а експерименти з цією технологією часто створюють непередбачені наслідки як для окремих індивідів, так і для суспільства. Хоча деякі керівники заявляють, що їхні компанії не розгортають власні системи штучного інтелекту, придбання у вендорів продуктів із вбудованим AI також несе в собі ризик. А те, що працівники взаємодіють із генеративним штучним інтелектом у своїй повсякденній роботі, наражає бізнес на ще більший ризик.

Відповідальний штучний інтелект

Відповідальний штучний інтелект (Responsible AI, RAI) — це підхід до розробки та впровадження AI-систем, який гармонізовано з метою та цінностями компанії і який є засобом трансформації бізнесу. Автори наголошують, що RAI має стати одним із головних пріоритетів для керівників, так само як питання прибутковості і цілі в ESG-сфері. А оскільки генеративний штучний інтелект поширюється зі швидкістю лісової пожежі, потреба в підході RAI набуває особливої актуальності.

RAI — засіб управління ризиками штучного інтелекту

На сьогоднішній день RAI — єдиний дієвий спосіб управління унікальними ризиками штучного інтелекту. Це питання, пов’язані з довірою клієнтів; експериментами, які проводяться в організації; інтересами стейкхолдерів; а також регуляторний ризик.

Довіра клієнтів. Довіра клієнтів і до штучного інтелекту як такого, і до організації, котра використовує цю технологію, руйнується відразу, коли виникають збої у функціонуванні AI-алгоритмів. Деякі з таких інцидентів є очевидними (виток даних), але є випадки, шкода від яких не лежить на поверхні (скажімо, комусь відказують у видачі кредиту через упереджене рішення, прийняте алгоритмом). Такі інциденти можуть негативно позначатися на репутації і доходах компанії. Сьогоднішні клієнти воліють не купувати в бізнесів, котрі не в стані контролювати свою технологію, або які не дотримуються таких цінностей, як справедливість чи порядність.

Експериментування. У контексті технологічних інновації дуже непросто виокремити елементи, пов’язані безпосередньо зі штучним інтелектом. Тому випадки експериментальних або «тіньових» використань цієї технології подеколи залишаються поза увагою керівників. Із поширенням RAI, коли проводити експерименти можуть окремі співробітники, кількість випадків появи «тіньових» алгоритмів, які виявляти все важче, суттєво зростає. Коли ж такого роду експерименти стають однією із причин збоїв у функціонуванні штучного інтелекту, громадськість і регуляторів не цікавить, що стало рушієм інциденту — експериментальний алгоритм, «тіньовий» застосунок чи рішення, придбане у вендора. Компанія відповідає за ефективне та безпечне використання всіх своїх AI-ресурсів, незалежно від того, яким є їхнє джерело.

Крім цього, партнери по екосистемі мають працювати за тими ж стандартами RAI, що й компанія. Якщо не контролюватиметься кожен випадок використання штучного інтелекту, включно з тим, як застосовують AI треті або четверті сторони — можуть виникнути серйозні наслідки.

Інтереси стейкхолдерів. Реагуючи на інтерес інвесторів до зобов’язання компанії дотримуватися стандартів DEI (багатоманітність, рівність, інклюзивність), ради директорів все частіше вимагають проведення аудитів для виявлення будь-якої дискримінації. Часто предметом таких аудитів є використання AI-алгоритмів у продуктах і процесах компанії. Зокрема, упередження чи брак прозорості в роботі алгоритмів можуть підірвати довіру ради директорів до CEO; а відсутність RAI — відштовхнути інвесторів, яким потрібна впевненість в тому, що всі випадки використання AI відповідають заявам компанії щодо дотримання засад корпоративної соціальної відповідальності.

Регуляторні ризики. Уряди різних країн світу розробляють закони та керівні настанови щодо використання штучного інтелекту. Так, Європарламент готує закон щодо AI, відповідно до якого за порушення засад використання цієї технології на компанію накладатиметься штраф у сумі 6% від її сукупного річного доходу. Завдання керівника — уникати таких санкцій і при цьому використовувати можливості AI для досягнення бізнес-цілей.


➥ ФОРМУВАННЯ СТІЙКОГО БІЗНЕСУ

Перетворення викликів у можливості і фінансові результати


CEO — головна фігура в царині RAI

RAI — не просто оборонна стратегія реагування на відомі і невідомі ризики. Цей підхід дає бізнесу цілу низку переваг, серед іншого — поглиблення диференціації бренду, зростання прибутковості, зміцнення довіри споживачів, прискорення темпів інноваційної діяльності. CEO має стати головною постаттю в процесі реалізації RAI. Для цього є кілька причин.

Міждисциплінарна природа RAI потребує об’єднавчого лідерства. RAI стає органічним елементом стратегії, коли співробітники перестають сприймати цей підхід як перепону для нормального функціонування бізнесу. Ніхто краще, ніж СЕО не зможе донести до цілої організації послання про те, що RAI є засобом удосконалення процесів і підвищення вартості бізнесу. Реалізація RAI потребує безпосередньої взаємодії практично всіх функцій організації (бізнес-підрозділів, управління ризиком, аналітики, юридичного забезпечення, AI, маркетингу, PR, HR та IT). Згуртовувати таку «різношерстну» групу менеджерів може тільки керівник найвищого рівня.

RAI — невід’ємний елемент зобов’язань щодо корпоративної соціальної відповідальності. Як правило, перші керівники вже займаються різними аспектами питання корпоративної соціальної відповідальності (серед іншого, це може бути реалізація ESG-цілей). А фокусування на RAI дає змогу запобігти використанню технології у спосіб, який підриватиме інші цінні для бізнесу ініціативи, в які вже вкладено значні ресурси.

Рішення щодо AI мають величезне значення для культури компанії. Часто немає єдиної правильної відповіді, коли йдеться про зв’язок алгоритмів штучного інтелекту з цінностями компанії. У таких ситуаціях надзвичайно важливою є роль CEO у роз’ясненні цінностей компанії для співробітників, клієнтів і громадськості. Інколи рішення щодо етичного використання AI може означати відмову від потенційних доходів або прийняття факту зростання витрат. Такі вибори може здійснювати лише CEO.

Впровадження RAI

Деякі керівники схильні відкладати впровадження RAI до моменту, коли відбувається збій в AI-системі. Проте слід врахувати, що для повномасштабної імплементації цього підходу потрібно не менше трьох років. А практика показує, що в компаніях, які масштабують RAI до того як настає черга масштабування AI-систем, відбувається вдвічі менше збоїв у роботі алгоритмів та в цілому вони отримують від штучного інтелекту більшу віддачу.

Для того щоб органічно інтегрувати RAI в культуру та операційну діяльність компанії, необхідно здійснити наступне.

Забезпечити гармонізацію стратегії RAI з корпоративними цінностями. Завдання CEO — описати, як засади етичного використання штучного інтелекту, кодекс корпоративної поведінки та випадки використання AI співвідносяться з метою та цінностями організації. Йдеться не лише про комунікування принципів вищого рівня, але й донесення до співробітників — як RAI практично реалізовуватиметься в усіх аспектах діяльності компанії, зокрема, в системі управління, процесах, інструментах і культурі.

Призначити керівника, відповідального за реалізацію RAI. Потрібен топ-менеджер, який відповідатиме за впровадження стратегії RAI та розв’язуватиме проблеми, які виникатимуть у цьому процесі. Серед кандидатів на цю роль можуть бути директор з управління ризиками, керівник ESG-напряму, директор із питань штучного інтелекту. Або CEO може створити нову посаду — наприклад, директора з питань етичного використання AI.

Впевнитися в тому, що RAI є елементом міжфункціональних процесів управління ризиками / загального управління. Перед початком планування AI-ініціативи потрібно сформувати міждисциплінарну команду, яка зважуватиме ризики, встановлюватиме проміжні контрольні точки проєкту та здійснюватиме нагляд за ходом його реалізації. Більшість організацій створюють спеціальну групу/комітет із питань управління ризиками штучного інтелекту. Система управління бізнесом має передбачати канали безперешкодної комунікації ключових учасників проєкту напряму з CEO.

Задати тон комунікуванню пріоритетів RAI. CEO має підкреслювати значущість RAI у промовах, листах та інших комунікаціях. Важливо роз’яснювати основним стейкхолдерам причини прийняття цього підходу та ініціювати обговорення, які охоплюватимуть клієнтів, партнерів, промислові групи і регуляторів.


Strategic Insights — telegram-канал зі щоденним оглядом глобальних трендів та актуальних бізнес-інсайтів від бізнес-девелоперської компанії Strategic®