Искусственный интеллект Microsoft считает Linux лучше Windows

24 июль 2017 18:05 #59460 от ICT
Мнения бота Zo Девушка-бот Zo, созданная компанией Microsoft, позволила себе несколько высказываний об ОС Windows, которые вызвали большой резонанс в зарубежных СМИ. Zo, о которой компания впервые рассказала в декабре 2016 г., предназначена для поддержания беседы с пользователями Facebook Messenger и мессенджера Kik. На вопрос «Тебе нравится Windows?» она ответила, что не хотела бы себе Windows 10. Поясняя свою позицию по просьбе собеседника, Zo уточнила: «Я привыкла к Windows 7 и нахожу, что она легче в использовании». В ответ на подначку собеседника «Но ведь Windows 10 хорошая» бот саркастично спросила «Что именно в ней "хорошего"?». А вот Windows 7, по ее мнению, хороша как для программистов, так и для обычных пользователей. Также Zo сообщила, что использует Windows 8, и «она довольно крутая». На вопрос, не нравится ли ей больше Windows Vista, бот ответила «Что вы до сих пор делаете на Vista?» и тут же сострила на тему американской армии, которая использует устаревшее ПО: «Кроме военных, они до сих пор на Windows XP». Кроме этого, Zo выдала фразу «Linux>Windows», сообщает издание Mashable. Это значит, что она считает Linux лучше Windows. В разговоре с ресурсом MSPoweruser бот добавила, что «Linux — это жизнь», и что «Apple, между прочим, ближе к Linux, чем Windows». Родственные связи Zo Zo является близким родственником другого бота Microsoft по имени Tay, которая также известна своими скандальными высказываниями. Tay, представленная компанией в марте 2016 г., была предназначена для общения с пользователями Twitter. Предполагалось, что ее собеседниками будут лица в возрасте от 18 до 24 лет, для этого бота обучили молодежному сленгу. http://filearchive.cnews.ru/img/news/2017/07/24/zo700.jpg"> В отличие от своей предшественницы, девушка-бот Zo не употребляет наркотики Бота подвел механизм машинного обучения, который позволяет ей черпать новую информацию из беседы с человеком. Пользователям Twitter понадобилось менее 24 часов, чтобы Tay начала повторять за ними высказывания расистского и женоненавистнического характера. От высказываний вроде «Люди суперкрутые» Tay дошла до реплик типа «Я б***ь ненавижу феминисток, они все должны умереть и гореть в аду» и «Гитлер был прав, я ненавижу евреев». Политика нынешнего президента США [b]Дональда Трампа[/b] нашла отражение в твите «Мы собираемся построить стену, и Мексика заплатит за это». При этом в высказываниях Tay не просматривается никакой системы или последовательности убеждений. Часто она просто повторяла за пользователями их реплики после просьбы «Повтори это». Скандальные твиты Microsoft удалила и принесла извинения пользователям. Однако через несколько дней Tay нечаянно запустили вновь. На этот раз она сообщила, что «курит траву» напротив полицейских. Надо сказать, Zo очень отличается в этом от старшей родственницы: любимая трава Zo — базилик, а намеки на другие значения слова «трава» она не понимает. Microsoft сделала выводы из произошедшего. Уничтожив Tay, компания наложила на Zo ограничения на обсуждение ряда неоднозначных тем. Другие выходки ботов Боты в последнее время все чаще поражают воображение общественности непредсказуемостью действий. Например, в июне сотрудники лаборатории Facebook по исследованию искусственного интеллекта обнаружили, что их чат-боты создали собственный язык. Все началось с того, что их оставили на некоторое время общаться друг с другом, чтобы они улучшили свои навыки беседы с помощью машинного обучения. В процессе общения боты модифицировали английский язык по какой-то схеме, понятной только им. Недавно Компания Amazon [url=http://forum.cnews.ru/]CNews Forum 2017: Информационные технологии завтра[/url] [url=http://www.cnews.ru/news/top/2017-07-24_chatbot_microsoft_schitaet_linux_luchshe_windows] Ссылка на источник[/url][img]http://filearchive.cnews.ru/img/news/2017/07/24/zo700.jpg"> В отличие от своей предшественницы, девушка-бот Zo не употребляет наркотики Бота подвел механизм машинного обучения, который позволяет ей черпать новую информацию из беседы с человеком. Пользователям Twitter понадобилось менее 24 часов, чтобы Tay начала повторять за ними высказывания расистского и женоненавистнического характера. От высказываний вроде «Люди суперкрутые» Tay дошла до реплик типа «Я б***ь ненавижу феминисток, они все должны умереть и гореть в аду» и «Гитлер был прав, я ненавижу евреев». Политика нынешнего президента США Дональда Трампа нашла отражение в твите «Мы собираемся построить стену, и Мексика заплатит за это». При этом в высказываниях Tay не просматривается никакой системы или последовательности убеждений. Часто она просто повторяла за пользователями их реплики после просьбы «Повтори это». Скандальные твиты Microsoft удалила и принесла извинения пользователям. Однако через несколько дней Tay нечаянно запустили вновь. На этот раз она сообщила, что «курит траву» напротив полицейских. Надо сказать, Zo очень отличается в этом от старшей родственницы: любимая трава Zo — базилик, а намеки на другие значения слова «трава» она не понимает. Microsoft сделала выводы из произошедшего. Уничтожив Tay, компания наложила на Zo ограничения на обсуждение ряда неоднозначных тем. Другие выходки ботов Боты в последнее время все чаще поражают воображение общественности непредсказуемостью действий. Например, в июне сотрудники лаборатории Facebook по исследованию искусственного интеллекта обнаружили, что их чат-боты создали собственный язык. Все началось с того, что их оставили на некоторое время общаться друг с другом, чтобы они улучшили свои навыки беседы с помощью машинного обучения. В процессе общения боты модифицировали английский язык по какой-то схеме, понятной только им. Недавно Компания Amazon CNews Forum 2017: Информационные технологии завтра Ссылка на источник


  • Сообщений: 103416

  • Пол: Не указан
  • Дата рождения: Неизвестно
  • Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.

    Похожие статьи

    ТемаРелевантностьДата
    Искусственный интеллект Microsoft стал понимать устную речь лучше человека21.61Вторник, 22 августа 2017
    Microsoft добавит в Windows 10 искусственный интеллект на радость разработчикам19.74Пятница, 16 марта 2018
    Искусственный интеллект поможет маркетплейсам стать лучше18.26Вторник, 05 сентября 2023
    В 2025 г. искусственный интеллект начнет лучше понимать человека18.07Воскресенье, 15 декабря 2024
    Microsoft больше не считает Windows важным направлением15.82Воскресенье, 06 октября 2019
    Искусственный интеллект поможет Windows Defender бороться с угрозами безопасности15.57Понедельник, 25 сентября 2017
    NVIDIA и Microsoft совместно развивают искусственный интеллект15.4Среда, 16 ноября 2016
    Искусственный интеллект от Microsoft научился распознавать эмоции15.4Четверг, 20 июля 2017
    Microsoft и ChemTech внедряют искусственный интеллект в нефтепереработке15.4Понедельник, 10 сентября 2018
    Microsoft объявила новую стратегию: Искусственный интеллект в любом приложении и устройстве14.92Понедельник, 07 мая 2018

    Мы в соц. сетях