Этот сервис работает на основе машинного обучения, он предназначен для анализа текста комментариев: содержатся ли в них оскорбления, троллинг и тому подобное.
Его уже тестировала администрация "Википедии", редакции Guardian, The Economist и The New York Times. На "Википедии" его используют до сих пор, чтобы находить редакторов-волонтеров, которые плохо себя ведут.
Демо-версию сервиса может испытать в онлайне любой пользователь. Достаточно просто ввести в поле текст комментария - несколько слов или предложение, и Perspective замеряет уровень его токсичности.
Если этот уровень составит 80% и более, есть немаленький шанс, что ваш комментарий, появившись в онлайне, оскорбит других пользователей.
Сервис все еще находится в разработке, поэтому не способен с предельной точностью находить троллей. Поэтому администрация просит пользователей оставлять фидбеки, чтобы сервис мог учиться на своих ошибках.