Приветствую, уважаемый!

Новый курс Маркина уже проинспектировали?)

Приветствую, не думаю, что Маркин изменился. У него каждый год новые фишки, сам придумывает, сам опровергает)

Курс не смотрел новый, мне кинули один отрывок из него на 20 минут про "Новый Баден-Баден", забавная гипотеза конечно. Никто ничего про новый Баден - Баден не слышал, а вот тут на тебе и Маркин все выяснил

Шутка юмора...

2019
Маркин:
покупайте курсы, супер фишка - секретная технология спама в зоне тега <a>. Можно спамить бесконечно

2020
Маркин:
покупайте курсы, супер фишка - секретная технология умеренного спама в зоне тега <a>. Можно спамить, но не больше чем в 1,5 раза от медианы по мегаиндексу!

2021
Маркин:
покупайте курсы, супер фишка - секретная технология выхода из под фильтра за переспам в зоне тега <a>. Нужно сменить домен! Спамить больше нельзя! Но Вы не подумайте, что это старый фильтр, это против меня Яндекс специально новый фильтр разработал Баден-Баден 2021 и запустил его вместе с YATI.

Фанаты Маркина 2019-2021: корвалол, валерьянка, энергетики и бессонные ночи за расширением и чисткой семантики
SEO специалисты, которые не знают кто такой Маркин 2019-2021: успешно продвигали раньше, успешно продвигают сейчас


Всем добра и позитивного настроения!
 
Последнее редактирование:
Те кто работают в рынке знают, что на реальных проектах практически никогда не вылизывают семантическую плотность, как это показывают в сео-курсах. Идет масс-тест на наличие критические отклонений от медианных показателей. Объяснение этому банальное - погрешность всех подобных анализаторов 'по топу' настолько высока, что точечная настройка невозможна.
Вот за это спасибо огромное! Простая вроде вещь, но сам что-то не додумался.

А можно вопрос про кластеризацию и когда какую выбирать? На основе Key Collector 4.

1. Стоит ли для одного и того же ядра делать разную кластеризацию - одну для Яндекс, другую для Google? Держать это в двух разных файлах или замешать в один? Или можно делать кластеризацию сразу же по обеим ПС?
2. Если, допустим, очень хорошие позиции в Google, а в Яндексе в целевом регионе так себе, какой тип кластеризации для Яндекса в этом случае выбрать Hard, Soft и с какими параметрами? Совсем что-то запутался.
3. Что делать с большими кластерами (даже собранные по Hard с силой 4), например, если в нем 70-80 ключей и есть 3-4 страницы конкурентов, которые по ним светятся в топ-10. Допустим, прогоняем по любому текстовому анализатору, пилим задание для копирайтера, но потом начинается свистопляска. Копирайтер либо переспамит, либо наоборот половину ключей не учтет. Объяснить это даже толковым коапирайтерам не всегда получается, что нужно считать вхождения. Ну, например, если у нас такое требование к статье:
трусы - 3 шт.
черные трусы - 1 шт.
белые трусы - 1 шт.
синие трусы. - 1 шт.
Даже если в задании написать, что если "трусы" уже есть в других запросах, их нужно учитывать - плюсовать для первой фразы. И по идее, если мы использовали "черные трусы, "белые трусы", "синие трусы", то слово "трусы" уже встретилось 3 раза и больше его использовать не нужно.
Или по таким кластерам самим пилить статью? Или запросы типа "трусы" просто убирать из задания, оставляя только точное количество НЧ?

И еще вопрос по тому же тегу <a>. Видел на некоторых сайтах что-то вроде маркинской плитки тегов, где сам текст ссылки пустой <a href="">Ключевик</a>, т.е. она вообще никуда не ведет. И расположено такое в начале статей. Будет ли такая штука вообще работать?
 
Цитата по Ожгибесову
"Никогда не используйте текстовый анализатор для сравнения со страницей своего сайта... Я рекомендую не сравнивать, а получать данные по тому, как оно на самом деле есть, а затем дооптимизировать вашу страницу до необходимых параметров"
Прув: ссылка

Да. Я видел этот ролик. Ну и в целом, от себя добавлю, что Ожгибесова очень тяжело слушать. Косноязычие и водичка бурным потоком.
Ну и еще. Мы обратились по его рекомендации к якобы крутому дизайнеру из Киева. В общем, этот мега-художник втюхал нам шаблонный дизайн, совсем не хотел слушать нас, что нам нужно. И все время бил себя в грудь, что у него мега-опыт и показал благодарственное письмо от expert-agro. Большая часть курсов Ожгибесова основана на этом сайте. Результаты неплохие, но он нагло врет, что работает в конкурентной теме. И его дизайнер тоже нагло врет, что это тема мега-конкурентная. Я просто взял стоимость кликов по Яндекс.Директ и увидел, что у них средняя стоимость 150 руб. А мы работаем над проектами, где стоимость клика доходит до 1700 руб. И конверсия в заявку до 17% по Директу. И достигается это не только маркетингом, но и вау-дизайнами посадочных страниц.
Этот мальчик из Киева просто нахамил нам, деньги не вернул и оставил туфтовый дизайн, сказав, что он мега-крутой спец.
Ненавижу дизайнеров!
 
У него каждый год новые фишки, сам придумывает, сам опровергает)
Я начал смотреть. Он в принципе пересказывал Чекушина и то, что он вещал на Пикселе про запросный индекс и про то, что только первые ссылки в Гугле работают хорошо, а потом уже не очень)
 
1. Стоит ли для одного и того же ядра делать разную кластеризацию - одну для Яндекс, другую для Google? Держать это в двух разных файлах или замешать в один? Или можно делать кластеризацию сразу же по обеим ПС?
Нет т.к. сделав разную кластеризацию под Я и G Вы не сможете её корректно внедрить в рамках сайта, ведь у Вас получится 2 параллельные структуры. Кластеризация делается под приоритетную ПС.
  • если Ваш рынок Россия, то несмотря на равную долю у Я и G в рынке, приоритетная ПС в качестве основы для кластеризации - Яндекс, как более чувствительная к семантике
  • если условно Украина, то очевидно Google
2. Если, допустим, очень хорошие позиции в Google, а в Яндексе в целевом регионе так себе, какой тип кластеризации для Яндекса в этом случае выбрать Hard, Soft и с какими параметрами?
Тип кластеризации не зависит от ПС, он определяется типом семантики и задачей под которую проводится кластеризация, базово:
  • для коммерческих ниш - hard
  • для информационных - soft (есть исключения)
Сила группировки: 3-4 при кластеризации по ТОП-10. Конкретная сила подбирается под каждый проект отдельно т.к. есть нюансы от самой тематики, от числа агрегаторов

Более того, если у Вас хорошие позиции в Google, то прежде чем менять структуру на основе новой кластеризации СЯ тщательно все взвесьте. Смена структуры на работающем сайте с хорошей видимостью в любой из ПС - это хирургически тонкая работа, иначе есть риск потерять уже существующий охват в одной из ПС

3. Что делать с большими кластерами (даже собранные по Hard с силой 4), например, если в нем 70-80 ключей и есть 3-4 страницы конкурентов, которые по ним светятся в топ-10. Допустим, прогоняем по любому текстовому анализатору, пилим задание для копирайтера, но потом начинается свистопляска. Копирайтер либо переспамит, либо наоборот половину ключей не учтет. Объяснить это даже толковым копирайтерам не всегда получается, что нужно считать вхождения. Ну, например, если у нас такое требование к статье:
трусы - 3 шт.
черные трусы - 1 шт.
белые трусы - 1 шт.
синие трусы. - 1 шт.
Даже если в задании написать, что если "трусы" уже есть в других запросах, их нужно учитывать - плюсовать для первой фразы. И по идее, если мы использовали "черные трусы, "белые трусы", "синие трусы", то слово "трусы" уже встретилось 3 раза и больше его использовать не нужно.
Или по таким кластерам самим пилить статью? Или запросы типа "трусы" просто убирать из задания, оставляя только точное количество НЧ?
70-80 ключей это абсолютно нормально. Не нужно пытаться ВСЕ ключи вписать.

Выделите основные запросы кластера:
  • можно визуально на опыте, опираясь на наиболее частотные
  • можно провести дополнительную более жесткую кластеризацию в рамках данного кластера(группы) для выделения максимально близких запросов в отдельные группы (наиболее частотные запросы данных подгрупп и будут являться основными запросами всего кластера)
Далее вписываем не все 70-80 ключей в точной форме (это путь под фильтры ПС), а лишь основные, обычно это 3-6 ключей.
Эти же ключи будут являться основой для Title и заголовков H1 - H2 страницы

После того как вписали основные ключи с помощью текстового анализатора добиваемся примерного соответствия плотности ключей по медиане на основе ТОП приоритетной ПС, не забывая про широту семантики. Грубо говоря иметь плотность по слову в 50% от медианной не критично, плохо, когда десятки слов из семантики вообще ни разу не употреблены на сайте.

И еще вопрос по тому же тегу <a>. Видел на некоторых сайтах что-то вроде маркинской плитки тегов, где сам текст ссылки пустой <a href="">Ключевик</a>, т.е. она вообще никуда не ведет. И расположено такое в начале статей. Будет ли такая штука вообще работать?
Ну так такое и клепают те, кто наслушался 'коучей' аля Маркин. До поры до времени работает, потом пессимизация прилетает.

В теговой плитке нет ничего плохого, если её реализовать в интересах посетителей. Всегда опирайтесь на это. Причем не важно ссылается плитка тегов на внутренние страницы сайта или на саму себе, главное правильно ссылаться.

Пример
Возьмем лендинг допустим студии маникюра, это всего 1 страница, но посетитель знает что его интересует и если Вы разместите близко к шапке заголовок H2(Маникюр с покрытием)] и плитку тегов с якорными ссылками:

<a href="#pokritie-odnotonnoe">Однотонное</a>
<a href="#pokritie-french">Френч</a>
<a href="#pokritie-gradient">Градиент</a>


ведущими на соответствующие блоки лендинга с описанием услуги и ценой... то Вы существенно увеличите количество кликов на данной странице, причем кликов по тегам, содержащим значимые для продвижения слова.
Вот такой подход к реализации плитки тегов будет на Ура воспринят и клиентами и поисковыми системами. В результате Вы получите буст по целому списку запросов вида "маникюр с однотонным покрытием", "маникюр френч" и т.д.

Успехов в изучении SEO!
 
Последнее редактирование:
Более того, если у Вас хорошие позиции в Google, то прежде чем менять структуру на основе новой кластеризации СЯ тщательно все взвесьте. Смена структуры на работающем сайте с хорошей видимостью в любой из ПС - это хирургически тонкая работа, иначе есть риск потерять уже существующий охват в одной из ПС

А вообще, в таком случае, может лучше тогда прокачивать поддомен, например региональный? msk.site.ru? И качать его под Яндекс...
И еще вопрос, можно ли на сайте прокачивать одновременно и информационку и коммерцию?
Или всегда лучше делить на поддомены?

можно провести дополнительную более жесткую кластеризацию в рамках данного кластера(группы) для выделения максимально близких запросов в отдельные группы (наиболее частотные запросы данных подгрупп и будут являться основными запросами всего кластера)

Вроде все просто, но как я до этого не додумался! Спасибо большое!

Возьмем лендинг допустим студии маникюра, это всего 1 страница, но посетитель знает что его интересует и если Вы разместите близко к шапке заголовок H2(Маникюр с покрытием)] и плитку тегов с якорными ссылками:

<a href="#pokritie-odnotonnoe">Однотонное</a>
<a href="#pokritie-french">Френч</a>
<a href="#pokritie-gradient">Градиент</a>


ведущими на соответствующие блоки лендинга с описанием услуги и ценой... то Вы существенно увеличите количество кликов на данной странице, причем кликов по тегам, содержащим значимые для продвижения слова.

Мы похожую якорную штуку подсмотрели у Википедии. Сначала обнаружили, что из нее формируется строка в сниппете Google с дополнительными ссылками. Увидели, что в начале каждой страницы Вики есть Оглавление в теге <h2> и якорные ссылки, ведущие на подзаголовки <h2-h3>. Внедрили ее у себя на всех страницах-портянках, не прошло и двух недель, как в сниппетах начали появляться дополнительная строка с этими ссылками. А потом еще внедрили звезды рейтинга и прописали их тегах Schema.org - звезды тоже начали попадать в сниппеты Google.
Screenshot_1.png


Соответственно трафик подрос процентов на 20%, просто за счет внедрения вот этих двух мелочей. Осталось только вручную проработать их, для максимальной кликабельности.

И еще вопрос можно, про линкбилдинг? Мы по старинке качаем ссылками из sape и seopult, прогоняя их по checktrust. Но что-то прям почти незаметное влияние они оказывают даже в Google.
Не поделитесь опытом?
 
А вообще, в таком случае, может лучше тогда прокачивать поддомен, например региональный? msk.site.ru? И качать его под Яндекс...
Можно и поддомен msk.site.ru закрытый от Google, только сначала нужно убедиться, что проблема в продвижении базового сайта именно в структуре.
И еще вопрос, можно ли на сайте прокачивать одновременно и информационку и коммерцию?
Или всегда лучше делить на поддомены?
Информационку и коммерцию можно совмещать в рамках одного сайта

И еще вопрос можно, про линкбилдинг? Мы по старинке качаем ссылками из sape и seopult, прогоняя их по checktrust. Но что-то прям почти незаметное влияние они оказывают даже в Google.
Не поделитесь опытом?
Для большинства тематик под РФ регион Google для формирования ссылочного профиля достаточно Sape / Pr.Sape и аналогичных бирж. Оценка по чектраст корректна.
В рамках линкбилдинга полезно опираться на анализ ссылочных профилей сайтов ведущих конкурентов. Это дает возможность не только найти интересные сайты для закупки на них ссылок(статей) через ссылочные биржи, но и подсвечивает варианты бесплатного размещения ссылок с 'трастовых' ресурсов
 
Последнее редактирование:
В рамках линкбилдинга полезно опираться на анализ ссылочных профилей сайтов ведущих конкурентов. Это дает возможность не только найти интересные сайты для закупки на них ссылок(статей) через ссылочные биржи, но и подсвечивает варианты бесплатного размещения ссылок с 'трастовых' ресурсов

А анализ в ahrefs делаете? Или в другом сервисе?
 
Для большинства тематик под РФ регион Google для формирования ссылочного профиля достаточно Sape / Pr.Sape и аналогичных бирж. Оценка по чектраст корректна.

Вот с этим как раз проблема. Т.е., при проверке по checktrust ну реально найти 60-70 доноров в Sape и еще 60-70 доноров в Seopult.
По поводу "вечных" ссылок в статьях мы когда-то очень сильно обожглись при Минусинске. Пришлось долго потом "снимать" и выводить сайты. Поэтому, конечно, можно вечную ссылку разместить, но это должен быть портал типа kp.ru или rbc.ru. Тогда не страшно.
 
Для большинства тематик под РФ регион Google для формирования ссылочного профиля достаточно Sape / Pr.Sape и аналогичных бирж. Оценка по чектраст корректна.

А еще вопрос, понятно, что можно посмотреть у конкурентов, но все же. Как желательно формировать околоссылочный текст и анкоры? Какое количество безанкорных ссылок? Есть какая-нибудь железобетонная методика?
 
А анализ в ahrefs делаете? Или в другом сервисе?
Да, в ahrefs, но можно бюджетный вариант в виде Мегаиндекса использовать
Вот с этим как раз проблема. Т.е., при проверке по checktrust ну реально найти 60-70 доноров в Sape и еще 60-70 доноров в Seopult.
По поводу "вечных" ссылок в статьях мы когда-то очень сильно обожглись при Минусинске. Пришлось долго потом "снимать" и выводить сайты. Поэтому, конечно, можно вечную ссылку разместить, но это должен быть портал типа kp.ru или rbc.ru. Тогда не страшно.
Всегда есть нюансы, в том числе и по закупке ссылок в статьях. Доноры действительно имеют свойство уходить по качеству в 0, и тут 2 выхода, либо поиск нетривиальных вариантов размещения(ищем через анализ конкурентов), либо свои сетки сайтов(дорого)
А еще вопрос, понятно, что можно посмотреть у конкурентов, но все же. Как желательно формировать околоссылочный текст и анкоры? Какое количество безанкорных ссылок? Есть какая-нибудь железобетонная методика?
Железобетонная технология - это и есть анализ распределения по конкурентам
 
либо свои сетки сайтов(дорого)
Были свои сетки, которые неплохой доход приносили из GGL и Miralinks. Но после Минусинска их бросили.
Чтобы их поддерживать, нужно прям серьезное количество клиентов иметь, которое в сотнях измеряется. Иначе на окупаемость как выйти? Опять их в биржи пихать?

А еще такой вопрос, пробовали делать каскадные ссылки? Когда, допустим, 4 сайта по цепочке друг на друга ссылаются, а последний получает солидный вес? И можно ли в качестве первых двух заспамленные сайты использовать?
 
Еще Вы приводили пример, что не учитывается тег <noindex>, а скрывать блоки как лучше?
Вроде как Google даже AJAX начал читать? Может его с задержкой выводить, там на секунду, например?
 
Были свои сетки, которые неплохой доход приносили из GGL и Miralinks. Но после Минусинска их бросили.
Чтобы их поддерживать, нужно прям серьезное количество клиентов иметь, которое в сотнях измеряется. Иначе на окупаемость как выйти? Опять их в биржи пихать?
Нет, оставлять как есть. То что себестоимость высокая - факт, поэтому и указал, что дорого. Такой вариант под РУ-нет подходит только для очень особых проектов с хорошим бюджетом
А еще такой вопрос, пробовали делать каскадные ссылки? Когда, допустим, 4 сайта по цепочке друг на друга ссылаются, а последний получает солидный вес?
Такая схема не эффективна т.к. на каждой итерации будет теряться ~90%+ веса (точная цифра зависит от соотношения внутренних и внешних ссылок на страницах сайтов участвующих в схеме перелинковки)
И можно ли в качестве первых двух заспамленные сайты использовать?
Можно, негативные факторы не передаются. Поэтому схема, которую используют - это не каскад, а сайт-прокладка. Прокладка накачивается "говноссылками" и передает вес на продвигаемый сайт. Проблема в том, что данная схема затратная, ведь передается лишь незначительная часть веса

Еще Вы приводили пример, что не учитывается тег <noindex>, а скрывать блоки как лучше?
Вроде как Google даже AJAX начал читать? Может его с задержкой выводить, там на секунду, например?
'Могут' и 'используют в рамках алгоритмов ранжирования' - это разные вещи.
Проблема даже не в том, что ПС может увидеть скрытые ссылки, а в том, что ПС может использовать сторонние источники для определения связей между страницами и попытки клоакинга. В случае с Яндексом прекрасный пример - использование данных Яндекс Браузера. Неоднократно проводились тесты. Делалось несколько новых сабдоменов имеющих 0 упоминаний в сети. На половину заходили с Я.Браузера, на другую половину не заходили вообще. Через некоторое время на те поддомены куда заходили с Яндекс Браузера приходил робот Яндекса.
От подобного никакие задержки рендеринга не помогут. Собственно это одна из проблем по которой выкосило целый сегмент сайтов работавших на монетизацию через прямой слив на CPA партнерки в Яндекс.

Скрытие ссылок через любые виды JS кода лишь отсрочит определение поисковыми системами связи между донором и акцептором
 
Последнее редактирование:
Скрытие ссылок через любые виды JS кода лишь отсрочит определение поисковыми системами связи между донором и акцептором

Со скрытием ссылок понятно, а как, например, с манипуляцией плотности ключей по тегу <a>, если скрывать огромное меню или что-то подобное.
Т.е., я могу сделать просто гигантское многоуровневое меню, фильтры в сайдбаре с кучей линков. И выводить их через AJAX по какому-либо событию. И таким образом повышать релевантность, за счет минимизации каких-то сквозных блоков, сео-фильтров, меню и т.п.
Работает такая техника? Или надо постоянно проверять через индексацию?
 
Со скрытием ссылок понятно, а как, например, с манипуляцией плотности ключей по тегу <a>, если скрывать огромное меню или что-то подобное.
Т.е., я могу сделать просто гигантское многоуровневое меню, фильтры в сайдбаре с кучей линков. И выводить их через AJAX по какому-либо событию. И таким образом повышать релевантность, за счет минимизации каких-то сквозных блоков, сео-фильтров, меню и т.п.
Работает такая техника? Или надо постоянно проверять через индексацию?
Не работает. Вы предлагаете переспамить в теге <a> чтобы повлиять на алгоритмы ранжирования ПС, но при этом скрываете данный блок от ПС.
Результат: если Вы удачно скроете от ПС через JS часть контента, то данный контент никак не сможет повлиять на ранжирование, если не получится скрыть, то ПС проиндексирует Ваш контент и наложит фильтр за переспам
 
Такая схема не эффективна т.к. на каждой итерации будет теряться ~90%+ веса (точная цифра зависит от соотношения внутренних и внешних ссылок на страницах сайтов участвующих в схеме перелинковки)

Меня смутило вот это видео от PixelTools, где они говорят, что наоборот усиливается.

 
Вы предлагаете переспамить в теге <a> чтобы повлиять на алгоритмы ранжирования ПС, но при этом скрываете данный блок от ПС
Нет-нет! Я другое имел в виду. Скрыть нерелевантные блоки от ПС. Например, если меню из 3-4 уровней, то начиная с третьего уровня запрятать в JS.
Т.е., за счет уменьшения видимости нерелевантных блоков, повысить релевантность страницы.
 
Меня смутило вот это видео от PixelTools, где они говорят, что наоборот усиливается.
Эмм... ну странно для Михаила такое говорить т.к. то что он привел как доказательство работоспособности мягко говоря критики не выдерживает. Если бы реально Михаил хотел показать работоспособность подобной схемы, то сделал бы "чистый" эксперимент. То что он сказал в духе "мы проверили сами и работает", ну это не доказательство, ведь очевидно, что цепь редиректов будет передавать вес, вопрос в том какой именно.

Отступление: как появляются в бурже подобные сайты
Крупная компания поглощает разные структуры и у неё в какой-то момент накапливается несколько сайтов близкой тематики на которых есть статьи на одну и ту же тему. У них есть выбор продвигать каждую отдельно или накачать весом одну самую мощную статью(на самом мощном сайте) и забрать ТОП. Выбор очевиден. Далее уже вопрос по тому как редирект ставить с цепочкой или без. Тут нужно тестить, но я бы тоже цепью сделал потому что предпочту минимум 'доноров' с максимальным весом.

Про "эффект умножения"
Нет никакого умножения, есть эффект суммирования в случае цепи редиректов.
Если на пальцах, то пусть у Вас есть 3 статьи на 3-х сайтах на тему "Как выбрать фильтр для воды" назовем их A,B,C
Где страница C - это страница основного сайта, который мы сейчас и хотим продвинуть в ТОП
На страницу A ссылаются 100 доноров, на страницу B - 50 доноров
Ставим 301 редирект
A->B->C
Вес с цепочки редиректов передаваемый на C: Вес(С) = не больше чем Вес(А)+Вес(B)
Вопрос лишь в том будет ли данный Вес(С) больше, чем в случае схемы A->C, B->С т.е. имеет ли место эффект затухания при передаче веса по цепи редиректов.

Вы же при этом спрашивали вообще не про цепь редиректов, а про "каскад ссылок", что меняет суть вопросы т.к. схема передачи веса по ссылке и через редирект сильно отличаются и в случае "каскада ссылок" эффект затухания никем не ставится под сомнение. Достаточно посмотреть исходные формулы по которым раньше считалась передача PR в Google. По тем же формулам редирект будет давать коэффициент передачи 1.

Нет-нет! Я другое имел в виду. Скрыть нерелевантные блоки от ПС. Например, если меню из 3-4 уровней, то начиная с третьего уровня запрятать в JS.
Т.е., за счет уменьшения видимости нерелевантных блоков, повысить релевантность страницы.
Работает, но много лишней возни всё это вписывать, плюс формально это клоакинг. Лучше подумайте насколько данные пункты в меню вообще нужны, если Вы не хотите их показывать ПС как нерелевантные
 
Последнее редактирование:
Работает, но много лишней возни всё это вписывать, плюс формально это клоакинг. Лучше подумайте насколько данные пункты в меню вообще нужны, если Вы не хотите их показывать ПС как нерелевантные

Смысл в том, чтобы "замотать" посетителя этим самым "продвинутым" меню, но не уронить релевантность всей страницы. Этим балуются очень крупные ИМ.

ну это не доказательство, ведь очевидно, что цепь редиректов будет передавать вес, вопрос в том какой именно.

А в SEO вообще кто-то преподносит какие-то доказательства?
 

Создайте учетную запись или войдите, чтобы комментировать или скачивать материалы!

У вас должна быть учетная запись, чтобы оставлять комментарии

Зарегистрироваться

Создайте учетную запись. Это просто!

Авторизоваться

У вас уже есть аккаунт? Войдите здесь.

Последние темы автора

Алан-э-Дейл
Ответы
1
Просмотры
16K
VIT1103
VIT1103
Алан-э-Дейл
Ответы
2
Просмотры
7K
Captain Sparrow
Captain Sparrow
Алан-э-Дейл
Ответы
6
Просмотры
12K
Стью
Алан-э-Дейл
Ответы
8
Просмотры
4K
zplinter
zplinter

Похожие темы

Алан-э-Дейл
Ответы
1
Просмотры
4K
poludivan41k
poludivan41k
Алан-э-Дейл
Ответы
17
Просмотры
11K
Els i El
Малыш Джон
Ответы
0
Просмотры
5K
Малыш Джон
Малыш Джон
Сверху Снизу