Риски при внедрении ИИ: ответственный подход к инновациям

06 июль 2023 02:40 #113951 от ICT
ChatGPT и подобные ему большие языковые модели изменили наше отношение к технологиям за считанные месяцы. Все крупные мировые компании как одна анонсируют внедрение искусственного интеллекта (ИИ) в продукты и рабочие процессы. В связи с этим у руководителей ИТ-компаний и владельцев цифровых продуктов появляется дополнительная работа – современный бизнес требует быстрого внедрения новомодной технологии, из-за чего игнорируются важнейшие риски, способные повлечь за собой определенные сложности для любого бизнеса. В данной статье я расскажу о некоторых из таких рисков и попробую доказать, что лучший способ относиться к инновациям – делать это с полной ответственностью. Виды рисков и ошибок при внедрении ИИ 1. Несоответствие ожиданиям Самой безобидной, но в то же время самой распространенной ошибкой при внедрении ИИ является несоответствие решения поставленной задаче. Пытаясь успеть за текущей волной популярности ИИ, некоторые руководители готовы в корне изменить устоявшиеся процессы и зарекомендовавшие себя продукты компании, чтобы показать стремление идти в ногу со временем. На внедрение "ИИ ради ИИ" зачастую тратятся несопоставимые финансовые и человеческие ресурсы компании, но, к сожалению, большинство таких инициатив не могут увенчаться успехом. Разработка и внедрение собственного ИИ – это долгий и дорогостоящий процесс, к которому необходимо обращаться в том случае, когда существующие технологии и решения не могут справиться с поставленной задачей. Неслучайно многие специалисты по ИИ разделяют мнение, о том, что если есть возможность не внедрять ИИ – лучше не делать этого, потому что интеграцию ИИ зачастую можно сравнить с забиванием гвоздей микроскопом. 2. Безопасность ваших данных Еще один риск, связанный с внедрением ИИ – это безопасность данных. Как ни странно, далеко не все компании осознают, что передача ценных данных в руки третьих сторон может доставить немало проблем, что и произошло с корпорацией Samsung в апреле текущего года. Из-за невнимательного подхода к внедрению ИИ в рабочий процесс в общий доступ утек секретный исходный код и запись закрытой конференции. Научившись на своих ошибках, Samsung сразу же установила строгие ограничения по использованию ИИ. Ещё одним примером может послужить случай, произошедший с пользователями ChatGPT. Из недавнего отчета Group-IB стало известно, что в скрытых сегментах интернета продается более 100 тыс. взломанных аккаунтов пользователей ChatGPT. Учитывая, что мошенники могут получить доступ к истории сообщений и персональным данным всего за пару кликов, стоит более ответственно подходить к использованию конфиденциальной информации при эксплуатации ChatGPT или любого другого ИИ. 3. Получение прав на данные для тренировки модели ИИ Не секрет, что некоторые значимые разработчики больших языковых моделей (например, OpenAI) не полностью раскрывают массивы данных, используемые для тренировки моделей ИИ. Это связано с тем, что наборы таких данных, как правило, создаются без получения необходимых разрешений от их владельцев. Крупное фотоагентство Getty Images уже выявило незаконное использование 12 млн своих фотографий и подало в суд на генератора картинок - компанию Stability AI Ltd. Похожая ситуация произошла и с социальной сетью Twitter. 4. "Предвзятость" ИИ Общеизвестно, что модели ИИ имеют такую же степень предвзятости, как и данные, на которых они обучаются. Так как ИИ не умеет "думать" и воспроизводить независимые мысли, то ему не избежать ошибок и противоречивых суждений, заложенных в тренировочном корпусе данных. В частности, существует несколько примеров (Microsoft, IBM), когда модели ИИ по распознаванию лиц показывали неудовлетворительные результаты при анализе темнокожих людей, при этом отлично справляясь с анализом лиц европейской внешности. Кроме того, модели ИИ были уличены в проявлении предвзятости при расчете кредитного рейтинга женщин, найме персонала женского пола и автоматическом предложении расистских запросов в поисковой строке. 5. "Галлюцинации" ИИ Однако даже обучение генеративной модели на качественном, непредвзятом и многократно проверенном массиве данных не гарантирует стопроцентную достоверность ответов, сгенерированных нейросетью. Нынешние модели ИИ пока что не владеют целостной картиной мира, в связи с чем могут возникать так называемые "галлюцинации", то есть искажения фактов в ответах модели. На данный момент практически невозможно искоренить появление таких "галлюцинаций", разве что только снизить их частотность. В связи с этим внедрение языковых моделей без человеческого контроля в сферы, где требуется максимально возможная точность ответа (медицина, производство, юриспруденция) и цена ошибки велика, происходит в разы медленнее, чем хотелось бы. В то же время ИИ показывает себя наилучшим образом в связке с человеком, помогая ему с первичным анализом и проверкой данных, закладывая фундамент для принятия ключевых решений. Заключение Необходимо осознавать, что все перечисленные риски могут нанести серьезный финансовый и репутационный удар для компаний, безответственно относящихся к внедрению передовых технологий. Например, повторная утечка персональных данных может обойтись в 500 млн руб. Чтобы добиться успеха в проектах с участием ИИ, необходимо найти золотую середину между скоростью внедрения и возможными рисками. В идеале на выходе должен получиться прозрачный процесс, предусматривающий получение прав на обработку и хранение данных для обучения модели, ее постоянную доработку путем проверки качества и непредвзятости массива данных, а также открытость перед пользователями в отношении использования и хранения их персональных данных. Ссылка на источник


  • Сообщений: 103416

  • Пол: Не указан
  • Дата рождения: Неизвестно
  • Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.

    Похожие статьи

    ТемаРелевантностьДата
    Назван новый ответственный за ИТ в России9.79Понедельник, 07 мая 2018
    Ответственный за СМИ и интернет в Роскомнадзоре сообщил о своей скорой отставке9.48Пятница, 25 декабря 2015
    В Департаменте ИТ Москвы назначен ответственный за развитие сервисов «электронный чиновник»9.38Пятница, 11 ноября 2016
    Цифровая трансформация побуждает CEO к инновациям8.82Среда, 12 октября 2016
    Большим инновациям большие песочницы8.82Четверг, 13 мая 2021
    Председатель правления Google возглавил совет по инновациям Минобороны США8.54Четверг, 03 марта 2016
    АНО «Цифровая экономика» и Фонд содействия инновациям договорились о сотрудничестве8.54Четверг, 15 февраля 2018
    Москва стала третьей в мире по анти-COVID-инновациям8.54Воскресенье, 07 февраля 2021
    ММК сэкономит около 1,2 млрд рублей благодаря техническим инновациям8.54Четверг, 30 марта 2023
    Пермская компания "Промобот" привлекла 20 млн рублей от Фонда содействия инновациям8.45Четверг, 19 сентября 2019

    Мы в соц. сетях