b_n_e (b_n_e) wrote,
b_n_e
b_n_e

Categories:

О проекте PHEMA или усложнение заработка для пропагандонов (а кое-где - упрощение)

По мнению разработчиков, Pheme будет особенно полезна полиции и властям.

Они вспоминают события, произошедшие в Лондоне в 2011 году, когда в Twitter распространились ложные слухи о том, что из лондонского зоопарка сбежали опасные животные. Это вызвало настоящую панику в городе.

Как отметила Калина Бонтчева, один из разработчиков продукта, система сможет моментально определять верность содержания постов в соцсетях. Это поможет полиции, властям и аварийным службам. "Люди обычно доверяют инфомации, которую находят в Интернете. В критических ситуациях точность этих данных крайне необходима", - отметила она.

Система будет классифицировать все неправдивые сообщения по нескольким категориям: controversy (противоречивые сообщения), misinformation (неверная информация, которая случайно стала популярной) и desinformation (ложная информация, распространяемая намеренно).

Система автоматически проверяют появляющуюся информацию при помощи обращения к новостным ресурсам, давая приоритет экспертным оценкам. Также она определяет, какие сообщения рассылаются живыми пользователями, а какие - ботами. Pheme составляет рейтинги различных пользователей, занося туда аккаунты, которые ранее были замечены в распространении ложной информации.

Создать действительно работающую систему анализа правды - это очень сложная задача. Тем не менее, Бонтчева отметила, что в течение ближайших 18 месяцев разработчики смогут представить миру финальную версию системы. Деньги на проект исследователи получили по гранту от Евросоюза.

Общая стоимость разработки оказалась крайне высокой, превысив 3,5 млн евро. Над системой трудятся лучшие специалисты из пяти университетов различных европейских стран.

http://www.oreanda.ru/common/events/NOVINKI_TEHNOLOGIY_Razrabotana_bijuteriya_s_knopkoy_ekstrennoy_svyazi/article805134/

Другой источник
В сообщении уточняется, что такие ненадёжные данные будут разделяться на четыре типа
— догадки,
сомнительную
и непроверенную информацию,
а также прямую дезинформацию — распространение каждого из которых по соцсетям моделируется отдельно. Распознавать их предполагается по трём факторам:
собственно содержанию (для чего будет применяться лексический, синтаксический и семантический анализ), перекрёстным ссылкам с достоверными источниками
и характеристикам распространения».

http://www.tv100.ru/news/skoro-v-socsetyah-mozhet-poyavitsya-detektor-lzhi-88158/
Subscribe

Recent Posts from This Journal

  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 1 comment