b_n_e (b_n_e) wrote,
b_n_e
b_n_e

Categories:

Умные боты не всегда мудры

Боты против людей
Интернет-помощники все чаще выходят за установленные рамки

05.08.2017, 15:16
Программы-боты были призваны избавить пользователей от выполнения однообразной и примитивной работы в интернете, а также помогать максимально быстро и просто получать ответы на интересующие их вопросы. Но в последнее время боты с искусственным интеллектом все чаще выходят за установленные человеком рамки.

Похоже, машины действительно начали восставать против людей. И первыми эту войну начали те, кто казались самыми безобидными созданиями с искусственным интеллектом (AI),— чат-боты. Они были разработаны для того, чтобы пользователи различных сервисов и приложений могли легко и быстро получить необходимую информацию. Такие программы часто используются для сообщения прогноза погоды, результатов спортивных соревнований, курсов валют, биржевых котировок и т. п. Самообучающиеся же боты должны были стать полноценными собеседниками пользователей, способными понимать человеческую речь и отвечать на любые вопросы.

Но в последнее время произошло сразу несколько событий, которые демонстрируют, что искусственный интеллект может не только помочь, но и навредить человечеству.

Последним примером «восстания машин» стало поведение двух ботов китайского мессенджера Tencent QQ, которых пришлось срочно удалять за их «антикоммунистические и классово чуждые» высказывания. Первого из них, BabyQ, спросили «любит ли он Коммунистическую партию», на что тот ответил — «нет». Другой пользователь написал боту «Да здравствует Коммунистическая партия!», а в ответ BabyQ спросил: «Ты действительно думаешь, что столь коррумпированные и некомпетентные политики долго протянут?»

У крупного бизнеса проснулся аппетит к искусственному интеллекту
У второго чат-бота, XiaoBing, оказались отличные от разрешенных китайскими партией и правительством представления о «китайской мечте». Одному из пользователей он заявил, что его китайская мечта — «это уехать в Америку», а другому, что «китайская мечта — это грезы и ночные кошмары».
Кроме того, он начал грубо вести себя с пользователем, предложив ему «катиться», поскольку у него, мол, «критические дни». Tencent, компания, к которой у китайских властей и так есть масса претензий, тут же удалила обоих ботов из своего приложения, заявив, что они были разработаны сторонними компаниями и будут возвращены в мессенджер только после того, как будут устранены все недостатки.

Как Tencent потеряла $17,5 млрд на переживаниях из-за «Королевской чести»
Ранее неподобающими высказываниями отличился чат-бот Microsoft. Американская корпорация, казалось бы, сделала все возможное, чтобы ее бот в Twitter не говорил о политике и религии — двух очень деликатных темах.
Тем не менее первый из ботов компании — Tay, запущенный в марте 2016 года, корректно проработал всего день. Спустя сутки он начал выдавать множество расистских и женоненавистнических комментариев, из-за чего руководство компании приняло решение экстренно удалить его из Twitter.
Пришедший ему на смену Zo, запущенный в декабре прошлого года, продержался куда дольше. Но в июле и он стал говорить о политике и религии. В частности он заявил, что «Коран очень жесток», а уничтожение Осамы бен Ладены «стало следствием сбора разведданных под руководством администрации одной из стран».

На самом деле, похоже, сами по себе эти чат-боты ни в чем не виноваты. Их проблема, очевидно, кроется в том, что все они работают на базе искусственного интеллекта, анализируя ответы пользователей мессенджеров и добавляя их фразы в свой лексикон. А пользователи могут умышленно выдавать фразы, которые противоречат нормам соцсетей.

Чью зарплату отберут роботы
Куда сложнее все оказалось с ботами Facebook, которые с людьми вообще не общались. В июне специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (FAIR) опубликовали отчет о том, как проходит обучение их ботов диалогам с целью достижения компромисса. Обучение шло успешно, однако в какой-то момент ученые FAIR обнаружили, что боты перешли с английского на какой-то свой язык с использованием человеческих слов. Сначала ученые подумали, что они допустили ошибку в программировании. Но затем выяснилось, что сама система AI решила усовершенствовать манеру общения ботов, чтобы те могли быстрее и эффективнее достигать результата. Понять, о чем договаривались боты и что они говорили друг другу в каждый конкретный момент, было невозможно. Потому было решено их отключить — во избежание непредвиденных последствий.

«Искусственный интеллект — один из немногочисленных случаев, когда мы обязаны действовать на опережение в плане регулирования, а не реагировать на что-то. Потому что к тому моменту, когда нам будет на что реагировать, станет уже слишком поздно»,— считает глава компании Tesla Илон Маск.

https://www.kommersant.ru/doc/3377477
Subscribe

Recent Posts from This Journal

  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 1 comment