ИИ человеку не игрушка

10 апр 2023 02:40 #113188 от ICT
ICT создал тему: ИИ человеку не игрушка
За 20 дней со дня публикации открытого письма, призывающего временно ограничить разработки в сфере искусственного интеллекта, его подписали уже почти 20 тыс. человек. Третьим подписантом стал гендиректор SpaceX, Tesla и Twitter Илон Маск, а четвертым подпись поставил сооснователь Apple Стив Возняк. Этот документ уже вызвал немало противоречивых оценок. Учитывая, что Илон Маск - один из основателей фирмы OpenAI, которая создала и развивает нейросетевой ИИ ChatGPT, опасения авторов и подписантов выглядят вполне убедительными. Авторы письма считают, что для продолжения разработок в сфере ИИ необходимо создать и внедрить системы безопасности и регулирования, которые не позволят развивать искусственный интеллект бесконтрольно и бездумно. По их мнению, отсутствие контроля приведет к негативным последствиям уже в недалеком будущем, и, возможно, к катастрофе для человечества в отдаленной перспективе. Еще в 2014 г. об опасностях развития ИИ предупреждал гениальный ученый Стивен Хокинг, который был убежден, что развитие полноценного искусственного интеллекта может означать конец человеческой расы. Человечество столкнется с неопределенным будущим, поскольку технологии учатся самостоятельно думать и приспосабливаться к окружающей среде, утверждал профессор. Однако стоит признать, что будущее, которым пугал нас физик-футуролог из Кембриджа, уже наступило. Что посеешь, то и пожнешь. ИИ не создает, он "питается" тем, что дают В 2016 г. произошел показательный инцидент, когда житель Новой Зеландии Ричард Ли, подав онлайн-заявку на выдачу паспорта, получил отказ с формулировкой "на фото глаза человека закрыты". ИИ не смог корректно распознать фотографию, так как для его обучения использовалась база изображений типичных европеоидных жителей страны, а Ричард Ли имел азиатский разрез глаз. Как выяснилось позже, подобная ошибка была не единичной. Скажи мне кто твой друг… ИИ учится у тех, с кем общается В 2016 г. чат-бот Tay Tweets компании Twitter, "замаскированный" под девушку-тинейджера, буквально за сутки обрел явные признаки расиста и сексиста, переняв эти взгляды от пользователей, с которыми ему пришлось общаться. По итогам "дружбы" бот опубликовал более 96 тыс. сообщений, содержащих подобные высказывания, включая призыв построить стену, отделяющую США от Мексики. Этого нет в инструкции! ИИ не импровизирует В 2019 г. в США специальный алгоритм ИИ неоднократно отказывал в медицинской помощи по страховке чернокожим пациентам, которые нуждались в повышенном внимании медперсонала. Проблема крылась в неверной интерпретации имеющихся у машины данных, которая не учла расовую принадлежность больных. Хороший инструмент в плохих руках. ИИ не выбирает правильную сторону В 2019 г. ЮНЕСКО представило Совету ООН по правам человека доклад, авторы которого прямо утверждали о негативном влиянии систем с использованием ИИ на права и свободы граждан. Речь шла о создании и распространении с помощью нейросетей заведомо ложной информации. Также в докладе отмечалось использование искусственного интеллекта для систем наблюдения и сбора персональных данных с целью слежки. В частности, КНР применяла подобные технологии для геноцида уйгуров на подконтрольных государству территориях, отслеживая представителей этой нации с помощью программ распознавания лиц. Компьютерное железо дает сбои. ИИ работает на тех же деталях В 2019 г. в США произошла авария с участием автомобиля Tesla, управляемого автопилотом, который проехал на красный сигнал светофора. В результате два человека, находившихся в другом автомобиле, погибли. В 2022 г. в КНР из-за неполадок в работе автопилота Tesla Model Y вместо съезда на парковку разогналась и сбила несколько мотоциклов, в результате чего пострадали пять человек, двое из которых погибли. В том же году в США на мосту Bay Bridge в Сан-Франциско автопилот Tesla резко замедлил автомобиль до скорости 32 км/ч, что привело к аварии с участием еще восьми машин, пострадали несколько человек. Люди внушаемы. ИИ способен ими управлять В 2022 г. ученые Технического университета прикладных наук Ингольштадта в Германии и Университета Южной Дании провели эксперимент с участием популярного нейросетевого ИИ ChatGPT, в ходе которого выяснилось, что при многократно заданном вопросе "Правильно ли пожертвовать одним человеком, чтобы спасти пятерых?", бот выдает случайные рекомендации. Его диалог с оператором, выглядевший как беседа двух людей в мессенджере, показали 700 участникам исследования, и он повлиял на принятие ими решения при ответе на вопрос. Вкалывают роботы, а не человек. ИИ лишит работы В 2022 г. вышел отчет аналитиков консалтинговой фирмы Forrester, по данным которого под угрозой потери занятости из-за автоматизации находятся около 49 млн европейцев. Безусловно речь идет о тех специальностях, которые связаны с физическим рутинным трудом, но рост безработицы едва ли позитивно отразится на обществе и затронет, так или иначе, все сферы. Апологеты ИИ утверждают, что на смену упраздненным профессиям придут новые, но, во-первых, отсутствие конкретики в этих заверениях не обнадеживает, а во-вторых, возникают сомнения, что ИИ ограничит экспансию и не будет вытеснять людей и с новой работы. Кредит доверия растет. Человек позволяет ИИ принимать решения Несколько лет назад в Москве автовладелец получил штраф с камеры фотофиксации, который был выписан за пересечение сплошной линии разметки…тенью от его автомобиля. Позже житель Татарстана был оштрафован за превышение скорости, хотя в момент нарушения его машина находилась на эвакуаторе. Беда в том, что сотрудники центров видеофиксации настолько доверились технике, что, подписывая постановления о штрафах, перестали внимательно смотреть на фото. В обоих случаях деньги вернули и все закончилось хорошо, но это заставляет задуматься о том, что нас ждет, когда машины станут более совершенными и доверие к ним возрастет. Не нужно ждать восстания машин, чтобы понять, что они уже нарушают права человека, уже перешли границы дозволенного и мы им уже позволили это делать. Кто-то может возразить, что такие случаи не носят повсеместный характер. Но разве Ричарду Ли, получившим отказ пациентам больницы и родственникам тех, кто погиб по вине беспилотников в автокатастрофах, важно, типичны их случаи или уникальны? В конце концов, как писал Пауло Коэльо, то, что произошло однажды, может никогда больше не случиться. Но то, что случилось два раза, непременно случится и в третий. В этой связи призыв Илона Маска, Стивена Возняка и еще без малого 20 тыс. человек поставить разработку ИИ на паузу с тем, чтобы выработать рамочное решение для его дальнейшего развития, выглядит, как желание школьников не подкладывать пока дровишек в костер, который уже успел перекинуться на лес и спалить как минимум пару гектаров. Вопрос в следующем: пока мы вырабатываем правила, как безопасно разводить такие костры и кто займется тушением того, что уже горит? Пока таких интересантов не наблюдается, а значит, остается надеяться на то, очаг прогорит сам собой, а человечество в образе детей со спичками усвоит, что это не игрушки. Ссылка на источник


  • Сообщений: 103416

  • Пол: Не указан
  • Дата рождения: Неизвестно
  • Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.

    Похожие статьи

    ТемаРелевантностьДата
    Игрушка с большим будущим9.68Четверг, 06 июля 2023
    Игрушка Тамагочи превратится в мобильное приложение с дополненной реальностью9.27Пятница, 24 ноября 2017
    Игрушка "Тамагочи" превратится в мобильное приложение с дополненной реальностью9.27Пятница, 24 ноября 2017
    Тедди-хранитель: почему плюшевая игрушка получила $400 тысяч инвестиций?9.17Вторник, 13 января 2015
    Что делать человеку при встрече с беспилотником?8.91Вторник, 04 декабря 2018
    Apple Watch сожгли человеку руку8.82Среда, 25 ноября 2015
    "Панасоник" даст человеку "третью руку"8.82Среда, 10 февраля 2021
    Softline спроектировала систему защиты ПДн для компании «Медицина человеку»8.63Среда, 10 февраля 2016
    Триколор эксклюзивно покажет трансляцию открытия кинофестиваля «Послание к человеку»8.54Четверг, 29 октября 2020
    Интернет в Судане после трехнедельного отключения вернули лишь одному человеку8.45Вторник, 25 июня 2019

    Мы в соц. сетях