ИССЛЕДОВАНИЕ МЕТОДОВ И СПОСОБОВ ЗАЩИТЫ ОТ ВЕБ-РОБОТОВ - Студенческий научный форум

IX Международная студенческая научная конференция Студенческий научный форум - 2017

ИССЛЕДОВАНИЕ МЕТОДОВ И СПОСОБОВ ЗАЩИТЫ ОТ ВЕБ-РОБОТОВ

Пекарь Ю.А. 1
1Инженерно-технологическая академия Южного Федерального Университета (ИТА ЮФУ)
 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF
Введение

На сегодняшний день наблюдается тенденция переносить важные ресурсы и услуги в интернет. Это касается банковской сферы, сферы образования, государственных услуг и т. д. Критическая информация, имеющая высокую ценность, персональные данные, все это теперь содержится в сети. Такие изменения помимо удобства и эффективности работы несут и угрозы. Веб-ресурсы становятся целью разного рода атак, а содержащаяся там информация коммерческого или конфиденциального характера нуждается в дополнительной защите. Несанкционированный сбор такой информации ведется автоматизированными средствами. Веб-роботы – это специальные программы, осуществляющие автоматическое сканирование веб-ресурсов, сбор, обработку и анализ содержащейся там информации. Веб-роботы используются как для законных целей, помогая анализировать контент и собирать индексную базу для поисковых систем, так и злоумышленниками, которые могут осуществлять сбор информации с целью последующей рассылки спама, фишинга, таргетированных атак. Веб-роботы зачастую используются для сбора информации, представляющей коммерческую ценность, содержащей персональные данные и иную информацию, которая может быть использована в конкурентной борьбе или для дальнейшей реализации.

Угроза несанкционированного сбора информации с веб-ресурсов в настоящее время является актуальной. C каждым годом количество трафика, классифицированного как веб-парсинг, согласно исследованиям, значительно увеличивается.. Улучшаются методы и механизмы защиты веб-роботов от обнаружения, для этого используются ботнеты и взломанные компьютеры пользователей. Также, влияние оказывает широкое распостранение легких в использовании плагинов автоматизации сбора информации для браузеров.

Постановка задачи

В данной работе я рассматривал следующие методы защиты от веб-роботов:

  1. Метод защиты Captcha.

  2. Определение текста.

  3. Логические задачи.

  4. Определение изображений.

  5. Определение друзей.

  6. Сохранение файлов cookies для хранения id пользователя, истории запросов и ввода captch, настроек и т.д.

  7. Увеличение времени ответа сервера(задержка) при большом количестве последовательных хаотичных запросов.

  8. Метод скрытой ссылки (метод «Горшочек Меда»)

На сегодняшний день не существует открытой системы обнаружения веб-роботов, пригодной для использования в реальных условиях. Поэтому исследование различных методов, методик и подходов, является актуальной задачей, для дальнейшей разработки комплексной системы.

Метод защиты Captcha.

Автоматический спам постоянно беспокоит владельцев сайтов, поэтому CAPTCHA выглядит привлекательно как решение этой проблемы… до поры до времени. Время, необходимое для постоянного контроля пользовательского контента несопоставимо со временем, необходимым для введения CAPTCHA на сайте – именно это толкает разработчиков на использование CAPTCHA.

К сожалению, это не так. Проблема читаемости CAPTCHA не нова. Организация W3C опубликовала отчет в 2005 году на тему недоступности CAPTCHA, в котором было объявлено, что читаемость CAPTCHA человеком в некоторых системах может достигать лишь 90%. Немногим позже, в 2009 году, Кейси Генри обратил внимание на влияние CAPTCHA на переходы и предположил, что возможные потери клиентов составляют примерно 3%:

Учитывая тот факт, что множество людей рассматривают переходы, как источник доходов, потеря 3.2% клиентов может отразиться на продажах. Как по мне, так лучше вручную перебирать спам, чем терять часть прибыли.

КейсиГенри, CAPTCHAs’ Effect on Conversion Rates

В 2010 году, команда Стэндфордского Университета опубликовала исследование, названное “Насколько хорошо люди справляются с CAPTCHA? Подробная оценка ситуации” , в котором была дана оценка CAPTCHA на крупнейших сайтах Интернета. Результаты оказались весьма неудовлетворительными, а так же что в среднем люди тратили 28.4 секунд на решение аудио-CAPTCHA. В исследовании так же уделялось внимание на проблемы людей, у которых английский язык не является родным.Веб-разработчик Тим Кадлек предвещает смерть CAPTCHA, предоставляя достаточно серьезный аргумент против использования этой защиты:

«Спам не является проблемой пользователей, это проблема людей, администрирующих сайт. Это очень высокомерно со стороны администраторов – сваливать такую проблему на плечи пользователей сайта.»

Ввод CAPTCHA может казаться абсолютно тривиальной задачей, но исследования (как вышеупомянутый отчет от W3C) показывают, что подобное суждение имеет мало общего с реальным положением дел. И, как сказал Кадлек в своей статье, что же насчет пользователей с проблемным зрением, дислексией и другими заболеваниями, затрагивающими сенсорные функции? Для них это непреодолимое препятствие, это просто нечестно. Именно пользователи инвестируют и задают предназначение сайтам.

И так, можно предположить чтоб captcha была успешной, она должна соответствовать следующим параметрам:

  • Задача, которую пользователи могут решить в любых условиях, но на решение которой не способен компьютер,

  • Задача, которая решается пользователями в миг, но которая является тяжелой для компьютера,

  • Задача, для решения которой требуется минимум ввода данных,

  • Задача, которая должна быть легко выполнимой для всех пользователей, включая тех, кто страдает специфическими заболеваниями (CAPTCHA должна быть не сложнее обычного веб-серфинга).

А теперь рассмотрим наиболее популярные идеи для captcha.

Определение текста.

Наиболее популярным типом CAPTCHA на данный момент является определение текста, набора символов (ярким примером является проект reCAPTCHA).

Рис.1

Проект reCAPTCHA нацелен на остановку спама и помощь в оцифровке книг.

reCAPTCHA была создана в Университете Карнеги-Меллона, доме первопроходцев CAPTCHA и создателей термина (в 2000). Ныне под управлением корпорации Google, проект использует отсканированный текст, который системы оптического распознавания символов (OCR) понять не могут. Это, в теории, предоставляет не взламываемую CAPTCHA, у которой так же есть еще одна «фича» — помощь в оцифровке книг силами пользователей.

Рис.2

Пример текста, проблемного для OCR, именно такие «проблемные» тексты использует reCAPTCHA

Команда проекта reCAPTCHA делает большие усилия для обеспечения аудио-альтернатив для людей с нарушениями зрения, но множество других CAPTCHA этого типа не имеют подобных вспомогательных средств. Как было упомянуто в исследовании Стэндфордского Университета, выполнение аудио-CAPTCHA занимает много времени. В том же исследовании было обращено внимание на проблемы с выполнением CAPTCHA с английскими словами.

Другая попытка улучшить обыкновенную текстовую CAPTCHA представлена в конце 2010 года компанией Solve Media, чье решение заключалось в том, что бы заменить обычный текст рекламой и связанным с ней вопросом.

Рис.3

Solve Media утверждает, что их CAPTCHA может быть выполнена гораздо быстрее, чем любые другие. Не смотря на то, что большинство относится к подобной маркетинговой болтовне скептически, у данного проекта определенно есть потенциал, особенно учитывая то, что у многих мировых брендов название не зависит от локального языка.

Пока текстовая CAPTCHA имеет некоторые недостатки (к примеру, спамеры могут использовать специальное ПО для распознавания текста в изображении и таким образом преодолеть анти-спам защиту), она все таки бесспорно решаема.

Логические задачи.

Некоторые люди предполагают, что необходимость дать ответ на простой логический вопрос может быть куда более эффективнее и удобнее, чем выполнение визуальных заданий. Идея заключается в том, что сложность согласованного текста вполне может быть достаточной для того, что бы отправить компьютеры в нокдаун.

Сервис TextCAPTCHA располагает более 180 миллионами вопросов, например:

  • Какая буква является шестой в слове «хабрахабр»?

  • Как выглядит число пятьдесят восемь тысяч пятьсот семьдесят четыре в виде цифр?

  • Какое число из 3, двадцать девять, 70, 46, 65 является наименьшим?

Эти вопросы под силу человеку с интеллектом семилетнего ребенка. Они куда доступнее задач по определению текста или изображения, и пока что это единственный плюс подобного метода. Во-первых, на поиск ответа на такой вопрос может уйти время, так как вопросы необычны и незнакомы рядовым пользователям. Во-вторых, компьютер все еще может преодолеть эту CAPTCHA. Джоэл Ванхорн напомнил всем о сервисе Wolfram Alpha, искусственный интеллект которого вполне достаточен для решения подобных задач.

Наиболее заметная проблема логических вопросов заключается в том, что они не многоязычны, обычно используется английский язык. Создание базы с сотнями миллионов вопросов на всех языках мира – задача непосильная никому. Когда перспективы столь далеки от идеальных, всплывает вопрос: правильным ли решением является CAPTCHA?

Определение изображений.

Много людей экспериментировали с изображениями вместо текста. Нет проблем с разборчивостью. Сервисы вроде identiPIC предлагают пользователю определить объект на изображении. Корпорация Microsoft так же исследовала этот метод в своем проекте Asirra.

Рис.4

Microsoft Asirra

Тот факт, что мы не видим распространенности подобной CAPTCHA, означает, что этот метод не улучшает юзабилити. На самом деле, он ставит под угрозу доступность. Люди с проблемным зрением лишены всякого шанса пройти эту CAPTCHA, а добавление какого-либо текста или описания резко снизит эффективность теста.

В 2009 году Google опубликовал исследование (созданное под руководством Рича Госсвейлера, Марьяма Кемвара и Шумита Балуджа), в котором был обращен взгляд на альтернативные формы этого типа CAPTCHA. Проект предлагал пользователям поправить положения изображений, поворачивая их.

Рис.5

К сожалению, этот метод полностью провален в плане доступности (вспомните о людях с проблемным зрением).

Определение друзей.

Еще одна действительно интересная CAPTCHA, представленная в январе 2011 года как результат работы интернет-гиганта Facebook. Компания экспериментирует с социальной аутентификацией для подтверждения владения аккаунтом. В чем же заключается этот эксперимент:

Мы покажем вам несколько фотографий ваших друзей и попросим вас назвать того, кто на них изображен. Хакеры на другой стороне планеты могут знать ваш пароль, но не могут знать ваших друзей.

АлексРайс, Facebook, A Continued Commitment to Security

Рис.6

Тест Facebook на определение друзей

То, что делает нововведение Facebook абсолютно отличным от остальных решений, так это то, что эта CAPTCHA отсеивает не только машин, но и вполне себе человечных злоумышленников. У Facebook определенно есть перспектива внедрить эту CAPTCHA по всему Интернету. С базой в 600 миллионов пользователей и миллионами сайтов, в которые интегрированы модули Facebook, интернет-гигант может использовать метод определения друзей для аутентификации где угодно. Нельзя забывать и про то, что подобный метод куда легче, чем определение текста.

Есть только одна проблема. Действительно ли вы знаете, кто у вас в друзьях? Зачастую запросы дружбы – предмет обмена между пользователями для повышение заветной циферки, отражающей количество друзей. Когда этот список полон абсолютно неизвестных вам личностей – шансы малы, что вы пройдете этот тест.

Интерактивные Captcha.

Существует метод, который привлек нешуточное внимание пользователей за то, что выполнить предлагаемую задачу могут только люди. They Make Apps представила CAPTCHA в виде маленького ползунка, который надо передвинуть в правую сторону для того, что бы подтвердить отправку данных. CAPTCHA сообщает пользователю: «Покажи свою человечность, переведи ползунок на конец линии для создания аккаунта.»

Рис.7

They Make Apps использует CAPTCHA в виде ползунка

Этот вариант не подходит для людей с ограниченными способностями. Более того, разработка скрипта, который автоматически бы переводил ползунок для активации кнопки «Отправить» не должна быть сложной. Более продвинутая версия ползунка используется в комментариях в блоге Adafruit. Четыре разных ползунка должны быть установлены в правильное положение для публикации комментария.

Рис.8

CAPTCHA в блоге Adafruit

Что же мы можем использовать еще в качестве защиты от веб-роботов.

Ни одно из приведенных выше решений не соответствует всем требованиям, которые можно выделить в качестве обязательных для идеальной CAPTCHA. Каждый из вариантов создает неприемлемые препятствия для крупного сегмента пользователей. Вывод - пользователи предпочитают классическую текстовую CAPTCHA, и никакую альтернативу они не воспримут как нечто лучшее. Несколько лишних секунд, требуемых от пользователя на решение предложенной задачи, сводит все преимущества метода на нет. Если метод слишком медленный, значит, он не стоит того.

Из всех доступных решений, текстовая CAPTCHA (вроде reCAPTCHA) выглядит наиболее привлекательно. Но вопрос все равно остался открытым: почему пользователи должны выполнять задания? Мы ведь можем победить спамеров в их же игре, используя автоматические системы, которые будут делать за нас всю работу. Итак, мы пришли к тому, что всегда есть определенная проблема, которую решает CAPTCHA.Не смотря на превосходство компьютерного интеллекта, большинство механизмов, созданных для спама — глупые. Если отправка данных оканчивается провалом (из-за CAPTCHA или же по какой-либо другой причине), то спам-бот пойдет по своему списку сайтов дальше. Джеф Атвуд наглядно показал это в 2006 году в своей статье “Эффективность CAPTCHA”. Не смотря на исследования в области взлома CAPTCHA, большинство спамеров не желает инвестировать в эти исследования или вообще пользоваться средствами взлома. Приличное количество сайтов, доступных для атаки и скорость, с которой эта атака производится означают, что взлом CAPTCHA не входит в интересы большей части спамеров.

Корпорация BBC является одним из самых тщательных исследователей в этой области в Великобритании. Ее требования к доступности не имеют равных, и недавнее исследование систем CAPTCHA в плане доступности пришло к выразительному и минималистическому ответу: «Нет»

Участники с проблемным зрением ожидали полной доступности от BBC, и мы почувствовали, что использование подобных систем защиты может подмочить нашу репутацию. Пользователи испытывали некоторые проблемы с искаженным текстом. Логические паззлы показались им слишком необычными. Аудио им тоже не понравилось. В общем, пользователи испытывали к CAPTCHA крайне негативные чувства.

РованГайлс, BBC, CAPTCHA and BBC iD

Существуют альтернативные решения, которые помогают избежать автоматической отправки данных компьютерами без использования CAPTCHA, и что более важно, вообще без участия пользователя.

Сохранение файлов cookies для хранения id пользователя, истории запросов и ввода капч, настроек и т.д.

Безопасность веб-сайтов основывается на управлении сессиями. Когда пользователь подключается к безопасному сайту, он предоставляет учетные данные, как правило, в форме имени пользователя и пароля. Веб-сервер не имеет представления о том, какой пользователь уже вошел в систему и как он переходит от страницы к странице. Механизм сессий позволяет пользователям не вводить пароль каждый раз, когда они хотят выполнить новое действие или перейти к новой странице. В сущности, управление сессией гарантирует, что в настоящее время соединен тот пользователь, который проходил авторизацию. Но, к сожалению, сессии стали очевидной мишенью для хакеров, поскольку они могут позволить получить доступ к веб-серверу без необходимости проверки подлинности. После аутентификации пользователя, веб-сервер предоставляет ему идентификатор сессии. Этот идентификатор хранится в браузере и подставляется всякий раз, когда нужна проверка подлинности. Это позволяет избежать повторяющихся процессов ввода логина/пароля. Все это происходит в фоновом режиме и не доставляет дискомфорта пользователю. Представьте, если бы вы вводили имя и пароль каждый раз, когда просматривали новую страницу.

Рассмотрим, например, веб-сайт Google Analitics. На этом веб-сайте работает Google Analytics — веб-служба аналитики, предоставляемая компанией Google, Inc. Служба Google Analytics использует файлы cookie — текстовые файлы, которые хранятся на компьютере пользователя и позволяют анализировать его действия на веб-сайте. Сведения об использовании вами этого веб-сайта, сохраненные в файле cookie (в том числе ваш IP-адрес), передаются компанией Google на сервер в США и хранятся на нем. На основании этой информации Google анализирует то, как вы используете этот веб-сайт, с целью составления отчета о действиях на нем для администраторов, а также оказания сопутствующих услуг, связанных с использованием сайта и Интернета. Кроме того, при необходимости Google передает эту информацию третьим лицам при условии, что это предусмотрено требованиями законодательства, а также в случаях, когда третьи лица обрабатывают эти данные от имени Google. Google ни при каких обстоятельствах не привязывает ваш IP-адрес к другим данным, которые хранятся в компании. Вы можете запретить сохранение файлов cookie, выбрав соответствующий параметр в своем браузере. Однако в этом случае вы не сможете пользоваться функциями данного веб-сайта в полной мере. Используя этот веб-сайт, вы выражаете свое согласие с обработкой своих данных компанией Google описанным выше способом и в указанных выше целях.

Использование переменных сессии и куки – самое слабое звено в защите от роботов; даже самые ленивые роботы умеют получать и хранить куки и подделывать http-referer, для этого совершенно не нужен искусственный интеллект.

Увеличение времени ответа сервера (задержка) при большом количестве последовательных хаотичных запросов.

Хаотичные интенсивные запросы – это случайные или злонамеренные многочисленные запросы в короткий промежуток времени на страницы сайта со стороны пользователей или роботов. К примеру случайных интенсивных запросов относится частое обновление страницы. К злонамеренным многочисленным запросам относится спам на страницы сайта со стороны пользователей или DoS атаки. К хаотичным интенсивным запросам так же относится способ подбора паролей методом перебора. Подобрать пароль можно как вручную, так и при помощи специальных программ. Вручную пароль подбирается лишь в тех случаях, когда известны его возможные варианты. В других случаях используются специальные программы, осуществляющие автоматический подбор пары логина и пароля, т.е. программы для брутфорса. К эффективным методам защиты сайта отхаотичных интенсивных запросов относятся: установка временной задержки между запросами в определенный промежуток времени, создание черного и белого списков, установка для поисковых систем временной задержки между запросами страниц сайта и установка периода обновления страниц.

наиболее эффективным методом для противодействия сканированию сайта, а также всем видам хаотичных интенсивных запросов, является установка некоторой временной задержки между запросами, исходящими от одного и того же пользователя. При идентификации пользователя основной упор следует делать на его IP-адрес, по той причине, что файлы cookie могут быть легко удалены. Конечно же, IP-адрес пользователя также может быть изменен, к примеру, при помощи прокси-сервера или же с помощью переподключения, в случае, если IP-адрес у пользователя динамический, правда, такая операция может занять довольно много времени, что в свою очередь сведет на нет все старания злоумышленника. Данный метод защиты сайта следует реализовать путем написания скрипта. Использование такого рода скрипта поможет защитить содержимое сайта от сканирования проводимого при помощи программ-краулеров и, одновременно, поможет существенно замедлить проведение сканирования сайта «вручную». Кроме того, использование подобного скрипта обеспечит прекрасную защищенность абсолютно всех страниц сайта от различных видов хаотичных интенсивных запросов, что в свою очередь даст возможность снизить нагрузку на оборудование веб-сервера.

Разрабатываемый скрипт должен иметь возможность настройки. В частности необходимо заранее предусмотреть возможность изменения части параметров скрипта. Иначе говоря, в скрипте должно быть:— наличие возможности настройки времени блокировки IP-адреса пользователя;

— наличие возможности задать интервал времени, в который будет проверяться активность пользователя, иначе говоря, время, в течение которого будет вестись учет количества запросов, поступивших от одного определенного пользователя;

— наличие возможности установки количества запросов, которые один пользователь сможет отправить на страницы сайта в течение заданного временного интервала;

— наличие возможности создания списка «всегда разрешенных IP-адресов». IP-адреса, внесенные в данный список, никогда не будут заблокированы;

— наличие возможности создания списка «всегда запрещенных IP-адресов», т.е. скрипт всегда будет блокировать IP-адреса, которые внесены в данный список. Преимуществами создания и использования подобного php-скрипта можно считать:

— существенное снижение количества запросов, отправляемых к серверу баз данных;

— существенную экономию входящего и исходящего трафика на веб-сервере;— наличие удобной и гибкой настройки наиболее важных параметров работы скрипта;

— возможность существенного снижения нагрузки на веб-сервер со стороны пользователей;

— копирование всей информации, размещенной на сайте, будет сильно затруднено или даже невозможно в случае, если страниц на данном ресурсе доста-точно много.

Логика работы разрабатываемой системы защиты сайта, создаваемой в виде скрипта, приведена на рисунке:

Рис.9

Метод скрытой ссылки ( метод «Горшочек Меда»)

В 2007 году, Фил Хаак преложил весьма умный метод определения ботов: использование горшочка с медом. Идея проста: форма на сайте содержит дополнительное поле, скрытое от пользователей. Спам-боты обрабатывают и взаимодействуют с исходным HTML-кодом, поэтому они не смогут определить, что поле скрыто. Если в это поле были введены данные, администратор сайта может быть абсолютно уверен, что это сделал не настоящий пользователь. Метод «горшочек с медом» может быть более эффективным, если обфусцировать скрытие поля методами JavaScript или хэшированием данных. Эти методы не непробиваемы, но мы можем рассчитывать на лучшее. JavaScript может быть использован для заполнения скрытых полей динамически, что может быть проверено скриптом на стороне сервера. Scratchmedia использует подобное решение наряду с CAPTCHA, если JavaScript отключен. Можно так же использовать дополнительный таймстамп и данные сессии для определения автоматической отправки. Недавнее обсуждение на сайте Stack Overflow представляло из себя огромное количество примеров и идей насчет этого, включая Hashcash, который доступен в виде плагина для WordPress. Урок по созданию такой защиты средствами jQuery описывает похожий метод и включает в себя интересную мысль:

Воры знают, что если у дома есть внешнее освещение, собака во дворе или другие подобные средства защиты – то в этот дом лучше не соваться. Воры ищут большую выручку с минимальными затратами и риском.

Джек Борн, Safer Contact Forms Without CAPTCHAs

Способ защиты Google – учет группы ip адресов по каким либо признакам.

Отличие Google от других поисковых систем в том, что он не прибегает к увеличению времени ответа сервера (к задержке) и всегда возвращает страницу с результатами максимально быстро, но, к сожалению, компенсирует это временным блокированием и частым вводом капчи.Совсем недавно был замечен еще один способ защиты, о существовании которого мы уже давно подозревали, но, к счастью, нам не приходилось с ним сталкиваться, до недавнего времени. Это объединение группы IP адресов по общему признаку и учет количества отравленных запросов с данных IP, как с одного IP.

Например, у Вас есть в наличии 4 подсети по 255 IP, т.е. ~1000 IP адресов. Если отправить множество запросов с первых двух подсетей и Google как-то сможет определить общий признак данных IP, неестественный для реального пользователя, то первые две подсети будут объединены в общий список, и после ~50-100 общих запросов с любого из IP будет предложен ввод капчи. После ввода ~15-25 капч для разных IP, каждый из них будет временно заблокирован.

Причем, если проделать аналогичные действия с 3-ей и 4-ой подсетями (например), но объединяющий признак будет уже другим, тогда эти подсети также будут считаться одним IP, но они никак не будут связаны с 1-ой и 2-ой подсетями. Временное блокирование первой группы не влияет на вторую и блокирование второй не влияет на первую. Так что же может стать общим признаком, неестественным для обычного пользователя? Рассмотрим на примере общего файла cookies c уникальным ID. Возможна ситуация, когда разные IP могут иметь одинаковые cookies (например, пользователь с динамическим IP), но никак не возможна ситуация, когда отправляются параллельно 15 запросов с наличием уникальной cookie. После таких явных признаков срабатывает настоящий бан группы IP, который не снимается очень долго, но так как Google понимает, что эти IP могут в дальнейшем использоваться обычными пользователями, в конечном случае он снимет бан с данных IP спустя некоторое время.

Защита Google хоть и впечатляет, но оставляет неприятный осадок. В отличие от Яндекс на странице капчи нет предложения включить cookies (если отключены), также нет никаких альтернатив для тех, кто по роду своей деятельности вынужден отправлять большое количество автоматических запросов. Четко прослеживается политика компании “Если не клиент, тогда будешь клиентом”.

Хотелось бы отметить, что на данный момент цена за 1000 запросов через API Google составляет 5$, а если необходимо сделать 1 млн запросов — 5000$. Может для Google это и “капля в море”, но не каждый сможет позволить себе потратить такую сумму, особенно в странах третьего мира.

Выводы

Если владельцы сайтов будут работать сообща для уничтожения спама. В реальности, мы скорее увидим тесное сотрудничество технологии и закона для уничтожения спамеров, как вида. Понимание альтернатив (речь идет о тех, где проверка на спам происходит незаметно для пользователя) и встраивание их на сайты – это хороший старт. Это позитивный шаг вперед к улучшению юзабилити и увеличению посещаемости.

Список используемой литературы:

  1. https://habrahabr.ru/post/50328/

  2. http://dn.ir2.ru/antispam.aspx

  3. http://i-vd.org.ru/articles/antibot.shtml

  4. Отчет компании scrapesentry [Электронный реcурс]. – Режим доступа: https://www.scrapesentry.com/scrapesentry-scraping-threat-report-2015/, свободный (дата обращения: 08.10.2015)

  5. Коробейников А.Г., Кутузов И.М., Колесников П.Ю. Анализ методов обфускации // Кибернетика и программирование.-2012.-1.-C. 31-37. URL: http://www.e-notabene.ru/kp/article_13858.html

  6. https://support.google.com/webmasters/answer/2387297?hl=ru

  7. https://habrahabr.ru/post/234729/

Просмотров работы: 397