Эксперты призвали защитить человечество от угрозы вымирания из-за искусственного интеллекта

31 мая 2023 09:40 #113514 от ICT
Центр безопасности искусственного интеллекта (CAIS) в США и другие группы экспертов вместе предупредили , что развитие технологий ИИ грозит исчезновением человечества, и что необходимо принять меры для предотвращения такого сценария развития событий. "Снижение риска вымирания, которое может произойти из-за ИИ, должно стать глобальным приоритетом наряду с другими угрозами, такими как пандемии и ядерная война", - говорится в заявлении, опубликованном на сайте центра. Документ подписали эксперты в области ИИ, а также специалисты в сфере информационных технологий, экономики, математики, философии. Среди них - гендиректор компании Open AI и программист Сэм Олтмен, один из разработчиков ИИ британский ученый Джеффри Хинтон. На сайте центра подробно рассказывается о рисках, которые, по его мнению, связаны с искусственным интеллектом. Например:
  • ИИ может быть использован для создания автономного оружия или химических вооружений
  • ИИ может генерировать дезинформацию, которая может дестабилизировать общество и подорвать коллективное принятие решений
  • Власть над ИИ может сосредоточиться в руках немногих, что позволит "режимам навязывать узкие ценности через всепроникающий контроль и жесткую цензуру"
  • Ослабление человеческого потенциала, когда люди станут зависимы от ИИ "по аналогии со сценарием из фильма " ВАЛЛ·И ""
Центр также предлагает несколько способов снижения рисков от ИИ, таких как:
  • Создание общих стандартов безопасности и этики для разработки и использования ИИ
  • Разработка механизмов контроля и ответственности за действия ИИ
  • Поддержка международного сотрудничества и диалога по вопросам ИИ
  • Образование и просвещение общественности о возможностях и опасностях ИИ
Это не первое обращение за последнее время, авторы которого говорят о возможных угрозах ИИ. В марте глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. Однако не все специалисты разделяют страхи перед ИИ. Некоторые считают, что опасения переоценены и отвлекают от более актуальных проблем, таких как предвзятость или дискриминация в системах ИИ. Другие уверены, что текущий уровень развития ИИ не позволяет ему представлять серьезную угрозу для человечества. Ссылка на источник


  • Сообщений: 103416

  • Пол: Не указан
  • Дата рождения: Неизвестно
  • Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.

    Похожие статьи

    ТемаРелевантностьДата
    Эксперты предупредили о рисках злонамеренного использования искусственного интеллекта16.25Среда, 21 февраля 2018
    МТС и Сколковский институт науки и технологий (Сколтех) открыли лабораторию искусственного интеллекта. В ней эксперты будут работать над с15.43Вторник, 03 марта 2020
    МТС и Сколковский институт науки и технологий (Сколтех) открыли лабораторию искусственного интеллекта. В ней эксперты будут работать над с15.43Вторник, 03 марта 2020
    МТС и Сколковский институт науки и технологий (Сколтех) открыли лабораторию искусственного интеллекта. В ней эксперты будут работать над с15.43Вторник, 03 марта 2020
    МТС и Сколковский институт науки и технологий (Сколтех) открыли лабораторию искусственного интеллекта. В ней эксперты будут работать над с15.43Вторник, 03 марта 2020
    Роскомнадзор призвал защитить российские онлайн-кинотеатры от угрозы Apple TV+14Вторник, 24 сентября 2019
    Эксперты назвали самые распространенные угрозы для россиян в интернете12.63Вторник, 11 февраля 2020
    Закоулки искусственного интеллекта11.22Вторник, 09 июля 2019
    Умер прародитель искусственного интеллекта11.1Вторник, 26 января 2016
    Правительству прибавят искусственного интеллекта11.1Четверг, 30 мая 2019

    Мы в соц. сетях