Искусственный интеллект научили предугадывать споры
Специалисты Корнуэлльского университета (США), подразделения Google Jigsaw и фонда Wikimedia создали алгоритм, который сканирует обсуждения в интернете и определяет, чем они закончатся - грубой перепалкой или вежливой беседой
Систему тренировали и тестировали на обсуждениях статей "Википедии", где редакторы обсуждали, в частности, внесение правок в материал и необходимость в более достоверных источниках, сообщает "УНИАН".
Система была запрограммирована искать в обсуждении определенные признаки, которые, согласно исследованиям, демонстрируют связь с тоном общения.
Если обсуждение проходит хорошо, то в нем встречаются выражения благодарности и приветствия. Активно используется слово "пожалуйста". Все это создает дружественную атмосферу и эмоциональный буфер между участниками беседы, в которой каждый может признать свою неправоту, сохранив лицо.
С другой стороны, тревожные знаки, говорящие о потенциальном конфликте, включают в себя наличие повторяющихся прямых вопросов ("Почему тут об этом не упоминается?", "Почему ты не посмотрел на это?") и использование местоимений второго лица ("Твои источники не важны"), особенно если они встречаются в первых репликах беседы.
Чтобы оценить общую "токсичность" разговора исследователи использовали перспективный API компании Google - инструмент с искусственным интеллектом, который пытается оценить, насколько дружелюбным, нейтральным или агрессивным является текст. По окончании периода тренировки алгоритм мог предсказать исход беседы в 65% случаев. Люди пока справляются с этой задачей лучше, удачно предсказывая развитие обсуждения в 72% случаев.
Ученным данная работа говорит о том, что они находятся на верном пути к созданию бота, способного вмешиваться в потенциально "горячие" споры в сети.
Фото: fotokanal.com