Как бизнесу использовать искусственный интеллект без репутационных и финансовых рисков: действенные методы защиты

Генеративный ШИ - это революционная технология, однако не совершенна, поэтому бизнесу следует знать о рисках и методах защиты от ошибок

Искусственный интеллект
Бизнес широко использует искусственный интеллект

Бизнес широко использует искусственный интеллект для любых задач. В частности, автоматизация рабочих процессов, создание продуктов и услуг, оптимизация маркетинговых кампаний, прогнозирование тенденций. Преимущества искусственного интеллекта для бизнеса многочисленны, но в то же время есть ряд рисков. О них 6 марта пишет NV, а также о том, как можно защититься от ошибок.

Согласно отчету Global AI Adoption Index от IBM за 2022 год, 35% компаний уже используют генеративный искусственный интеллект.

«Вдумайтесь, Gartner прогнозирует, что к 2025 году процент данных, сгенерированных генеративным ИИ, составит 10% всех данных в мире. Генеративный ИИ стал революцией, как доткомы в 90-х годах или айфон в нулевых. Однако нам нужно учитывать и этические дилеммы, порождающие его использование», - отмечает кандидат технаук, архитектор решений в Global AI Василий Ляшкевич.

Он добавляет, что генеративный ИИ не «истина в последней инстанции». Это революционная технология, которая меньше с тем не совершенна: она может демонстрировать предубеждения и совершать ошибки.

«Генеративный ИИ – это отражение данных, с которыми он работает, и процесс обработки этих данных невидим и неосознаваем для человека», – говорит Ляшкевич.

Какие риски использования ИИ являются первоочередными для бизнеса?

Чаще это искажение или неточные данные, дискриминация или токсический контент, нарушение авторских прав. Что касается неточности данных, ИИ обучен на данных сети, он унаследовал много нерешенных проблем контента в интернете: предвзятость, дезинформацию, нарушение авторских прав, нарушений прав человека. Искривления могут быть заложены в датасете (в данных, с которыми работает ИИ), быть в самом алгоритме или появляться в конечном итоге, который генерирует ИИ.

Вот только пара примеров искажений в использовании ИИ:

  • Amazon перестал использовать решение для рекрутинга, потому что ИИ демонстрировало предвзятость (bias) в отношении женщин;
  • Если запросить у Midjourney изображения людей разных профессий без уточнения гендера, сервис генерировал изображения молодых мужчин и женщин. При уточнении Midjourney показывал и младших, и пожилых людей, но постарше всегда были мужчины, обычно со светлой кожей.

Возможные искажения и ошибки ограничивают сферу использования ИИ и подвергают бизнес рискам — это и репутационные, и вполне бизнес-опасности.

Как же предотвратить искажения при использовании ИИ для бизнеса?

  1. Сделайте нравственную работу с данными для ИИ вашим приоритетом. Фокусируйтесь на конфиденциальности данных, на которых вы обучаете систему, уменьшайте предвзятость и искривление, способствуйте прозрачности в части обработки данных. Произведите внутренний аудит конфиденциальности и аудит искажений при обработке, введите необходимые изменения, опубликуйте отчет о том, как ваша компания обходится с данными.
  2. Введите в компании культуру принятия этических решений по ИИ. Поощряйте открытые разговоры с командой о проблемах ИИ, создайте обучающую программу и обсуждайте такие вопросы перед запуском проектов. Создайте пространство, в котором сотрудники смогут делиться мнениями, и решения будут приниматься с учетом позиций разных специалистов.
  3. Привлеките дополнительную экспертизу. Создайте комитет с привлечением представителей С-левелла компании и специалистов по праву, этике и ИИ. Привлекайте этих людей для разработки и принятия решений, как ваша компания будет использовать ИИ в работе. Будьте осознаны, что инновационные технологии требуют дополнительных компетенций при внедрении и применении.
  4. Будьте прозрачны и открыты для обратной связи. Информируйте своих клиентов и стейкхолдеров об использовании ИИ. Для этого введите следующие шаги: прислушайтесь к клиентам и другим заинтересованным аудиториям, привлекайте их к принятию решений по использованию ИИ, делайте политику конфиденциальности прозрачной, пересматривайте свою работу и решения с учетом получаемой обратной связи.

Василий Ляшкевич убежден, что невозможно знать все способы неправильного использования технологии, пока эти способы не будут реализованы в жизни.

«Однако мы можем уже сейчас приложить усилия, чтобы предотвратить искажения и ошибки при использовании ИИ. Установление баланса между инновациями и ответственным использованием искусственного интеллекта важно для того, чтобы эти технологии приносили пользу бизнесу, его клиентам и обществу в целом», - резюмирует ученый.

Виталий Кличко, мэр Киева, заявил, что ответственность за мост Патона лежит на государстве из-за того, что мост выведен под большое строительство. Однако, несмотря на это, мы наблюдаем аварийное состояние моста в течение нескольких лет, которое не улучшается само собой. Обращаемся к инфраструктурному эксперту Дмитрию Беспалову, чтобы узнать его мнение о перспективах этого моста, а также кто конкретно должен брать на себя ответственность за его состояние и возможные риски аварийного сбора.

Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. За новостями в режиме онлайн прямо в мессенджере следите на нашем Telegram-канале Информатор Live. Подписаться на канал в Viber можно здесь.

 

ЧИТАЙТЕ ТАКЖЕ:

Главная Актуально Informator.ua Україна на часі Youtube