Рубрика «мошенничество поддельный сайт»

Несколько месяцев я изучал тему интернет мошенничества с целью собрать наиболее полный список действий, которые обезопасили бы меня от жуликов и их махинаций. Итогом изучения стал чек-лист, которым хочу поделиться со всеми. Его цель - сделать взлом цифровых активов сложным и бессмысленным.

Читать полностью »

Немецкое качество по доступной цене - 1 Немецкое качество по доступной цене - 2
Немецкое качество по доступной цене - 3 Немецкое качество по доступной цене - 4

Недавно столкнулся с неочевидным способом мошенничества, которым промышляют уже по меньшей мере 2 года. Сам в подобных вопросах совсем неопытный, но в итоге со своими кровно заработанными не расстался. По ходу дела нашел на просторах интернета много интересного, о чем хочу поведать, надеюсь, что не сочтете за оффтоп и что поделитесь мыслями по этому поводу.
Читать полностью »

image

В силу своей работы я часто сталкиваюсь с различными проявлениями сетевых мошенничеств и, конечно же, с фишинговыми ресурсами.

Когда речь заходит о фишинговых сайтах, первым делом в голову приходят различные схемы, предназначенные для кражи паролей и прочей информации, представляющей интерес для злоумышленников. Но векторы использования фишинговых ресурсов весьма разнообразны. Поэтому определение фишинга, приведенное, скажем, в Википедии, не в полной мере раскрывает его суть.

Вот, например, сайты-двойники, созданные не для кражи данных, а для введения в заблуждение контрагентов. Ну чем не фишинг? Интерес мошенников к созданию таких сайтов не падает уже лет 10. Тут необходимо сделать оговорку, что речь идет не о сайтах типа «продам стройматериалы недорого, деньги вперед», а именно о сайтах-двойниках реально существующих предприятий.
Читать полностью »

Началась история с того, что один из моих сайтов стал скачивать подозрительный робот. Это был не Яндекс-бот и не Гугл-бот и вообще ни один из известных поисковиков. Подозрение подкреплялось тем, что Useragent был странный — curl/<ЧТО-ТО>, а Referer — d:/<ЧТО-ТО ЕЩЕ>. Единственной целью таких роботов является кража контента с атакуемого ресурса…

Около двух месяцев все не доходили руки поискать злобного парсера — понять, на каком другом домене выкладывается мой ценнейший контент (шутка). Я только иногда запрещал на уровне php-кода некоторые значения Useragent и Referer, но мой таинственный друг их подправлял и снова приходил на сайт с ненужной нагрузкой.

И вот, руки дошли!
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js