Як бізнесу використовувати штучний інтелект без репутаційних і фінансових ризиків: дієві методи захисту

Читать на русском

Генеративний ШІ - це революційна технологія, проте не є досконалою, тому бізнесу варто знати про ризики і методи захисту від помилок

Читать на русском
Штучний інтелект
Бізнес широко використовує штучний інтелект

Генеративний ШІ - це революційна технологія, проте не є досконалою, тому бізнесу варто знати про ризики і методи захисту від помилок

Бізнес широко використовує штучний інтелект для будь-яких задач. Зокрема, автоматизації робочих процесів, створення продуктів та послуг, оптимізації маркетингових кампаній, прогнозування тенденцій. Переваги штучного інтелекту для бізнесу численні, але в той же час є ряд ризиків. Про них 6 березня пише NV, а також про те, як можна захиститися від помилок.

Згідно зі звітом Global AI Adoption Index від IBM за 2022 рік, 35% компаній вже використовують генеративний штучний інтелект.

«Вдумайтеся, Gartner прогнозує, що до 2025 року відсоток даних, згенерованих генеративним ШІ, становитиме 10% від усіх даних у світі. Генеративний ШІ став революцією, як доткоми у 90-х чи айфон у нульових. Проте нам треба враховувати й етичні дилеми, які породжує його використання», - зауважує кандидат технаук, архітектор рішень у Global AI Василь Ляшкевич.

Він додає, що генеративний ШІ не є «істиною в останній інстанції». Це революційна технологія, яка менше з тим не є досконалою: вона може демонструвати упередження та робити помилки.

«Генеративний ШІ - це віддзеркалення даних, з якими він працює, і процес обробки цих даних невидимий та неусвідомлюваний для людини», - каже Ляшкевич.

Які ризики використання ШІ є першочерговими для бізнесу?

Найчастіше це викривлення або неточні дані, дискримінація або токсичний контент, порушення авторських прав. Щодо неточності даних, ШІ навчений на даних мережі, тож він успадкував багато невирішених проблем контенту в інтернеті: упередженість, дезінформацію, порушення авторських прав, порушень прав людини. Викривлення можуть бути закладені в датасеті (в даних, з якими працює ШІ), бути в самому алгоритмі або з’являтися в кінцевому результаті, який генерує ШІ.

Ось лише пара прикладів викривлень у використанні ШІ:

  • Amazon перестав використовувати рішення для рекрутингу, бо ШІ демонструвало упередженість (bias) щодо жінок;
  • Якщо запросити у Midjourney зображення людей різних професій без уточнення гендеру, сервіс генерував зображення молодих чоловіків і жінок. При уточненні Midjourney показував і молодших, і старших людей, але старшими завжди були чоловіки, зазвичай зі світлою шкірою.

Можливі викривлення та помилки обмежують сферу використання ШІ та наражають бізнес на ризики — це і репутаційні, і цілком бізнесові загрози.

Тож як запобігти викривленням при використанні ШІ для бізнесу?

  1. Зробіть етичну роботу з даними для ШІ вашим пріоритетом. Фокусуйтеся на конфіденційності даних, на яких ви навчаєте систему, зменшуйте упередженість та викривлення, сприяйте прозорості в частині обробки даних. Проведіть внутрішній аудит конфіденційності та аудит викривлень при обробці, запровадьте необхідні зміни, опублікуйте звіт про те, як ваша компанія обходиться з даними.
  2. Запровадьте в компанії культуру прийняття етичних рішень щодо ШІ. Заохочуйте відкриті розмови з командою про проблеми ШІ, створіть навчальну програму та обговорюйте такі питання перед запуском проєктів. Створіть простір, в якому співробітники зможуть ділитися думками, та рішення будуть прийматися з урахуванням позицій різних фахівців.
  3. Залучіть додаткову експертизу. Створіть комітет із залученням представників С-левела компанії та спеціалістів із права, етики та ШІ. Залучайте цих людей для розробки та ухвалення рішень стосовно того, як ваша компанія буде використовувати ШІ в роботі. Будьте свідомі щодо того, що інноваційні технології потребують додаткових компетенцій при впровадженні та застосуванні.
  4. Будьте прозорими та відкритими до зворотнього зв’язку. Інформуйте своїх клієнтів та стейкхолдерів про використання ШІ. Для цього запровадьте наступні кроки: дослухайтеся до клієнтів та інших зацікавлених аудиторій, залучайте їх до прийняття рішень щодо використання ШІ, робіть політику конфіденційності прозорою, переглядайте свою роботу та рішення з урахуванням зворотного зв’язку, який ви отримуєте.

Василь Ляшкевич переконаний, що неможливо знати про всі способи неправильного використання технології, поки ці способи не будуть реалізовані в житті.

«Проте ми можемо вже зараз докласти зусиль, аби запобігти викривленням та помилкам при використанні ШІ. Встановлення балансу між інноваціями та відповідальним використанням штучного інтелекту важливе для того, щоб ці технології приносили користь бізнесу, його клієнтам та суспільству в цілому», - резюмує науковець.

Віталій Кличко, мер Києва, заявив, що відповідальність за міст Патона лежить на державі через те, що міст виведено під велике будівництво. Проте, не зважаючи на це, ми спостерігаємо аварійний стан мосту протягом кількох років, який не покращується сам собою. Звертаємось до інфраструктурного експерта Дмитра Беспалова, щоб дізнатися його думку про перспективи цього мосту, а також хто конкретно має брати на себе відповідальність за його стан та можливі ризики аварійного збору.

Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте на нашому Telegram-каналі Інформатор Live. Підписатися на канал у Viber можна тут.

 

ЧИТАЙТЕ ТАКОЖ:

Ми використовуємо файли cookie, щоб забезпечити належну роботу сайту, а вміст та реклама відповідали Вашим інтересам.