Ваше сообщение лучше половины курсов, что я смотрел )))
46e1ce021a757602c98550e3be4e3072.jpg
 
Я в процессе изучения курса для себя вот такую схема накидал. Могли бы вы покритиковать?
Если смотреть на заголовки блоков, то более-менее, но если в описание смотреть, то возникает очень много вопросов. К Вам претензия только одна, Вы не задумываясь вписали мою схему сбора семантики, не подумав, что при её использовании дополнительные пересборы семантики 'от Маркина' уже не требуются, а это не просто двойная, но и очень трудоемкая работа. В SEO принцип Бритвы Оккама действует крайне эффективно.

Точечная семантика для отдельных страниц
  • Берём самый жирный запрос, затем берем по нему список сайтов и через мегаиндекс или кейсо собираем видимость данных страниц (то, по каким запросам на них заходят). Убираем дубли запросов, затем собираем частотность и получаем те запросы, которые надо внедрить на страницу.

Очевидно, что данный подпункт избыточен т.к. дублирует работу сделанную на предыдущем этапе, где мы уже собрали семантику (ту же самую из того же keys.so), если хотите быть на 200% уверенным, что не пропустили ни единого запроса, то просто на предыдущем этапе при сборе семантики не фильтруйте по частоте запросы. Хотя и это не обязательно т.к. недостающие редкие слова подтянутся при сборе LSI.

Как проверять подобные схемы на адекватность и избыточность? Достаточно просто... Вы должны прочитать каждый подпункт и ответить на вопросы:
  • что мне дает этот пункт?
  • почему без него нельзя обойтись?
  • является ли данный метод оптимальным?

Вся остальная критика уже не к Вам, а к Маркину... Вы же лишь титаническим трудом пытались выцепить и структурировать информацию из данного курса. Я набросал простую схему, даже кинул сюда, но удалил ибо это очевидный оффтоп т.к. она не имеет ничего общего с курсом Маркина, ну кроме базовых SEO терминов)
 
Последнее редактирование:
Если смотреть на заголовки блоков, то более-менее, но если в описание смотреть, то возникает очень много вопросов. К Вам претензия только одна, Вы не задумываясь вписали мою схему сбора семантики, не подумав, что при её использовании дополнительные пересборы семантики 'от Маркина' уже не требуются, а это не просто двойная, но и очень трудоемкая работа. В SEO принцип Бритвы Оккама действует крайне эффективно.



Очевидно, что данный подпункт избыточен т.к. дублирует работу сделанную на предыдущем этапе, где мы уже собрали семантику (ту же самую из того же keys.so), если хотите быть на 200% уверенным, что не пропустили ни единого запроса, то просто на предыдущем этапе при сборе семантики не фильтруйте по частоте запросы. Хотя и это не обязательно т.к. недостающие редкие слова подтянутся при сборе LSI.

Как проверять подобные схемы на адекватность и избыточность? Достаточно просто... Вы должны прочитать каждый подпункт и ответить на вопросы:
  • что мне дает этот пункт?
  • почему без него нельзя обойтись?
  • является ли данный метод оптимальным?

Вся остальная критика уже не к Вам, а к Маркину... Вы же лишь титаническим трудом пытались выцепить и структурировать информацию из данного курса. Я набросал простую схему, даже кинул сюда, но удалил ибо это очевидный оффтоп т.к. она не имеет ничего общего с курсом Маркина, ну кроме базовых SEO терминов)
как получить схему, которую вы скинули, а потом удалили, заинтриговали )))
 
К Вам претензия только одна, Вы не задумываясь вписали мою схему сбора семантики, не подумав, что при её использовании дополнительные пересборы семантики 'от Маркина' уже не требуются, а это не просто двойная, но и очень трудоемкая работа. В SEO принцип Бритвы Оккама действует крайне эффективно.
Я специально не стал удалять подпункт "Точечная семантика для отдельных страниц", так как он предназначался для случаев, когда по каким-то причинам не надо собирать семантику для всего сайта. Конечно, мне стоило это пометить в описании.

Я набросал простую схему, даже кинул сюда, но удалил ибо это очевидный оффтоп т.к. она не имеет ничего общего с курсом Маркина, ну кроме базовых SEO терминов)
Очень хотелось бы посмотреть) Как я уже упоминал выше, некоторые вещи кажутся очевидными большинству людей, но некоторым они в новинку :)
 
берем на складчике любой дешевый сервис выгрузки запросов (я предпочитаю Кейс.so ~400руб/пол года)
Уважаемый, я никогда ничего не приобретал на складчиках. Если вас не затруднит – дайте точные координаты, где взять keys.so по таким расценкам.
 
как получить схему, которую вы скинули, а потом удалили, заинтриговали )))
Раз народ просит...

Схема проработки нового сайта

Поиск прямых конкурентов
отбрасываем агрегаторы и сайты с более широкой семантикой чем нам нужно... чем больше оставим лишнего, тем больше ручной работы будет в дальнейшем на этапе кластеризации и формирования структуры сайта

Сбор семантики
  1. берем на складчике любой дешевый сервис выгрузки запросов(я предпочитаю Кейс.so ~400руб/пол года), полученные ключи отсекаем по частотности и нескольким другим критерием(отсекая кучу мусора)
  2. запихиваем в КейКоллектор 4 бетка (1800руб однократно за софт, он того стоит)
  3. собираем данные serp Яндекс используя свои или покупные xml лимиты(5 руб. за 1000 запросов)
  4. запускаем нужный тип кластеризации(soft/hard) в зависимости от типа интентов.
  5. на выходе получаем отличную кластеризацию, которую можно либо прямо в КейКоллекторе преобразовать структуру либо закинуть заголовки нужных групп(кластеров) в любой MindMap и разбросать по разделам уже там, опираясь на структуру конкурентов. Не забываем фильтровать не нужные кластеры
Примечание: Складчик - это https://skladchik.com заходить на него через VPN т.к. заблокирован РКН на территории РФ, самое простое включить в браузере Opera режим VPN. Регистрируйтесь и в поиске вбиваете Keys.so, там всегда есть активные темы со складчиной на данный сервис.

Проработка семантики кластеров
для каждого кластера из финальной структуры получаем список слов из запросного листа(все запросы кластера) в любом анализаторе текста(https://advego.com/text/seo/), в дополнение к нему собираем LSI фразы через любой сервис(Арсенкин Тулс), своими скриптами или ручками. Полезное чтиво для начала по сбору LSI (https://devaka.ru/articles/lsi-tools)

Формирование мета-тегов и контента страницы
1 кластер = 1 страница. Составляем Title, H1, и, крайне желательно, теги H2 на основе кластера. Как это делать уроков море (пример)
на основе анализа конкурентов по основному запросу выявляем необходимые блоки для страницы(цены, фото, видео, текст), при написании текста ориентируемся по плотности вхождения тех или иных слов на ТОП, например с помощью инструмента Текстового анализатора Мегаиндекс (https://ru.megaindex.com/a/textanalysis). Кое что по поводу внедрения активных элементов объяснял ранее в этой теме(ссылка)

Работа с коммерческими факторами
коммерческие факторы(КФ) многогранны и сильно зависят от типа сайта с которым мы работаем, работа с КФ - это работа с сайтом в целом и с конкретными страницы. Начать изучение можно тут(https://tools.pixelplus.ru/optimization/kommercheskie-faktory), при выборе КФ мы опираемся на анализ конкурентов в ТОП


PS: схема универсальная, использует по максимуму бесплатные сервисы, не привязана к типу сайта и никак не связана с курсом Маркина, поэтому в ней отсутствуют многие элементы, которые он продвигает как обязательные. На практике подобная схема несмотря на её простоту дает хороший результат и экономит огромное количество времени
 
Последнее редактирование:
Проработка семантики кластеров
для каждого кластера из финальной структуры получаем список слов из запросного листа(все запросы кластера) в любом анализаторе текста(https://advego.com/text/seo/), в дополнение к нему собираем LSI фразы через любой сервис(Арсенкин Тулс), своими скриптами или ручками. Полезное чтиво для начала по сбору LSI (https://devaka.ru/articles/lsi-tools)

Для сбора LSI через Арсенкин Тулс используется только самый жирный (основной) запрос кластера или все запросы кластера?
 
Для сбора LSI через Арсенкин Тулс используется только самый жирный (основной) запрос кластера или все запросы кластера?
Вы задаете очень точные вопросы)

Чем больше ключей кластера Вы подадите Арсенкину на вход -> тем более широкий список LSI Вы получите.

Для большинства задач:
  1. подаю 5-10 наиболее частотных запросов из кластера (https://arsenkin.ru/tools/sp/)
  2. получаю леммы подсветок (лемматизатор подсветок не всегда корректно у Арсенкина работает, альтернатив много, например lenartools.ru/tools/lemmatizator/ )
  3. добавляем к ним слова, задающие тематику(лемматизированные)

Ещё один безумно простой и быстрый способ получить LSI - это взять проверенный временем Мегаиндекс

  1. подаю 5-10 наиболее частотных запросов из кластера (инструмент текстовый анализатор)
  2. копирую все столбцы из ТЗ для копирайтера внизу страницы в эксель, объединяем все слова из столбцов в один единый, отделяем число вхождений(текст по стобцам) и на выходе получаем список всех значимых слов включая дубли
  3. получаю леммы с чисткой от дублей через lenartools.ru/tools/lemmatizator/

Арсенкин дает возможность получить больше слов т.к. парсит в глубину ТОП50, а Мегаиндекс ТОП10(даже меньше), но в Арсенкине есть лимиты на данный инструмент, а метод через Мегаиндекс абсолютно бесплатен и не имеет ограничений.

Подчеркиваю - это лишь некоторые из вариантов сбора LSI приведенные для примера, вариантов очень много, инструментов, в том числе бесплатных достаточно. Сначала нужно понимание того что такое LSI, затем ищете способы их максимально быстрого сбора. Выходите на автоматизацию всех процессов. Тем более если Вы написали скрипт по сбору показателей сайтов-конкурентов, то столь простую задачу как парсинг LSI фраз Вы сможете автоматизировать на 100%.
 
Последнее редактирование:
тем более широкий список LSI Вы получите
Арсенкин же просто парсит подсветки Яндекса. В принципе все сервисы парсят подсветки, в которых, в основном, синонимы. Интересно было бы попробовать сервис, который парсит именно тематические термины, а не тупо подсветки.
 
Арсенкин же просто парсит подсветки Яндекса. В принципе все сервисы парсят подсветки, в которых, в основном, синонимы. Интересно было бы попробовать сервис, который парсит именно тематические термины, а не тупо подсветки.
Арсенкин парсит сниппеты до ТОП-50 и выцепляет из них:
  • подсветки
  • слова задающие тематику(тематические термины)
в большинстве случаев это хорошая основа для списка LSI

Если хотите собирать LSI на основе анализа самих страниц конкурентов, а не сниппетов, т.е. копнуть ещё глубже, то я привел в пример Мегаиндекс, где сначала сервис парсит страницы по заданным запросам и на их основе составляет рекомендуемые списки слов для каждой области т.е. то самое сборное ТЗ, которые мы берем за основу. Подробнее про работу инструмента -> SEO-Анализ текста Megaindex
Можно сравнить оба метода, можно объединить их.

Повторюсь, инструментов очень много... пробуйте разные варианты, сравнивайте результаты...
 
слова задающие тематику(тематические термины)
Эти слова так же Арсенкин собирает на выдаче, как я понимаю. Точнее, я не понимаю, откуда он их собирает, может быть из документов, мол, если в топ-50 сколько-то документов одно и тоже слово имеют в теле – значит оно тематическое.

К примеру, посмотрел я слово фотоаппарат и вот что увидел:
цена
магазин
купить
цифровой
доставка
интернет
характеристика
продажа
фотокамера
выбирать
выбор
россия
хороший
фототехника
заказывать
модель
компактный
большой
широкий
год
возможность
камера
зеркальный
отличный
время
товар
рассрочка
Даже сильно не вглядываясь можно обнаружить, что здесь какие-то синонимы максимум, а всё остальное – просто слова, которые можно найти на странице любого интернет-магазина, причём, он может торговать чем угодно, хоть фотоаппаратами, хоть насосами для велосипедов, потому что эти слова могут характеризовать только то, что это страница интернет-магазина, но никак не характеризуют фотоаппарат.

А слова, которые действительно задавали бы тематику в этом случае выглядеть должны примерно так:
диафрагма
выдержка
iso
глубина резкости
цветопередача
и т.д. и т.п.
Т.е. можно конечно упороться и добавлять на страницу термины из того, что находит Арсенкин, только это вообще никак не связано с LSI и тематичности тексту не прибавит от слова совсем.

Кстати, вы случайно не пробовали акварель Чекушинскую? Руки как-то не дошли, но что-то подсказывает, что это должно быть что-то достойное.
 
И нафига я курсы покупал раньше?
1561638047175019364.jpg


PendalF,
aleksakfima,
Zzznoked,

не останавливайтесь, я записываю каждое слово


0e15ceea1d122aae22fa19be046d5c12.jpg



У меня получится свой собственный самый крутой курс без воды и херни.

Если запишу - пришлю вам ссылки на скачивание )))
 
Эти слова так же Арсенкин собирает на выдаче, как я понимаю. Точнее, я не понимаю, откуда он их собирает, может быть из документов, мол, если в топ-50 сколько-то документов одно и тоже слово имеют в теле – значит оно тематическое.
Арсенкин НЕ анализирует документы, он анализирует сниппеты из выдачи по заддным запросам, именно из них он берет текстовую часть и анализируют находящиеся там слова на частоту употребления.
1613572882358.png
К примеру, посмотрел я слово фотоаппарат и вот что увидел:
цена
магазин
купить
цифровой
доставка
интернет
характеристика
продажа
фотокамера
выбирать
выбор
россия
хороший
фототехника
заказывать
модель
компактный
большой
широкий
год
возможность
камера
зеркальный
отличный
время
товар
рассрочка
Даже сильно не вглядываясь можно обнаружить, что здесь какие-то синонимы максимум, а всё остальное – просто слова, которые можно найти на странице любого интернет-магазина, причём, он может торговать чем угодно, хоть фотоаппаратами, хоть насосами для велосипедов, потому что эти слова могут характеризовать только то, что это страница интернет-магазина, но никак не характеризуют фотоаппарат.
Сниппет в большинстве случаев и не содержит ультра-специфичных слов, а больше относится к сути ответа на интент пользователя. В данном запросе основной интент - покупка фотоаппарата и 1 абзац текста по мнению Яши лучше всего описывающий данный интент не может содержать специфичные термины.

Хотите получать LSI слова на основе страниц конкурентов, а не выдачи -> используйте Мегаиндекс или аналоги, которые парсят именно страницы конкурентов.

А слова, которые действительно задавали бы тематику в этом случае выглядеть должны примерно так:
диафрагма
выдержка
iso
глубина резкости
цветопередача
и т.д. и т.п.
Т.е. можно конечно упороться и добавлять на страницу термины из того, что находит Арсенкин, только это вообще никак не связано с LSI и тематичности тексту не прибавит от слова совсем.
Не согласен, изучите https://en.wikipedia.org/wiki/Latent_semantic_analysis

Для каждого кластера в рамках одной тематики LSI могут существенно отличаться.
Так LSI для запроса "Фотоаппарат" и "характеристики фотоаппарата canon 600d" будут отличаться как небо и земля.

Чтобы это понять... вбейте в МСК регионе запрос фотоаппарат, откройте все сайты в ТОП10 за исключением сервисов Яндекс и википедии и посчитайте сколько раз в них каждое из указанных Вами LSI слов употреблено.
Например слово выдержка используется 1 раз на 1-м сайте в ТОП10, поэтому очевидно что анализаторы игнорируют столь редкое включение.

Хотите получать и столь редкие слова? Без проблем, используйте сервисы, которые парсят абсолютно все слова, например https://miratext.ru/seo_analiz_text


Кстати, вы случайно не пробовали акварель Чекушинскую? Руки как-то не дошли, но что-то подсказывает, что это должно быть что-то достойное.
Пробовал... не имеет смысла, есть бесплатные аналоги, бесплатный софт, который все тоже самое позволяет собирать. Можете проверить сами в JM есть тестовые лимиты на бесплатном аккаунте, на 1 проверку в сутки в Акварель генераторе хватит.
 
Сниппет в большинстве случаев и не содержит ультра-специфичных слов, а больше относится к сути ответа на интент пользователя. В данном запросе основной интент - покупка фотоаппарата и 1 абзац текста по мнению Яши лучше всего описывающий данный интент не может содержать специфичные термины.
Таким образом Арсенкин – это вообще не про тематические слова, я об этом и говорю.
Для каждого кластера в рамках одной тематики LSI могут существенно отличаться.
Так LSI для запроса "Фотоаппарат" и "характеристики фотоаппарата canon 600d" будут отличаться как небо и земля.
Всё правильно. К примеру слово веник. Мы спамим в тексте это слово, но поиск не понимает о чём текст. Ну веник, а что веник? И в этот момент, если в тексте есть слово баня, то это один веник, а если слово подметать – то уже другой. При этом, наличие слова купить ни в одном ни в другом тексте нисколько тематичности не добавит и не даст поиску представление о том, какой же всё таки веник мы продаём.
Например слово выдержка используется 1 раз на 1-м сайте в ТОП10, поэтому очевидно что анализаторы игнорируют столь редкое включение.
Так это не редкие слова. Это как раз слово, которое характеристику фотоаппарата описывает. И для фотографа это важный параметр, причём, независимо от того, хочет он купить фотоаппарат или хочет научиться фотографировать или хочет почитать инструкцию пользователя. Я об этом и говорю, что это как раз слово, задающее тематику, а Арсенкин этого не видит, потому что парсит какие-то куски текста на выдаче. Вот именно наличие таких слов и бустанёт нас в ранжировании, потому что Гоогле уже тысячу текстов видел, где слово фотоаппарат и слово выдержка употребляются вместе.

Собственно, я к чему всё это. Вот вы говорите, что в выдаче только на одном сайте из топ-10 есть слово выдержка. Я уверен, что словосочетание глубина резкости тоже редко в топ-10 можно встретить. Тем не менее, если рядом с фотографами постоять, которые что-то обсуждают – у них в разговоре эти термины как раз будут проскакивать часто. Так же часто, как в этом диалоге проскакивает Арсенкин или LSI)))) Потому что это и есть слова, задающие тематику.
Пробовал... не имеет смысла, есть бесплатные аналоги, бесплатный софт, который все тоже самое позволяет собирать.
Вот тут можно поподробнее? Что за софт бесплатный? Я почему именно про акварель поинтересовался... Чекушин вроде как говорил, что акварель не по 1 слову термины дёргает, а умеет доставать биграммы.
 
У меня получится свой собственный самый крутой курс без воды и херни.

Если запишу - пришлю вам ссылки на скачивание )))
Главное, чтоб Маркин и остальные Шульги не начали это опять продавать за деньги)
 
Алексей Чекушин — мы говорим сложно о простом)
 
Сегодня применил полученные здесь знания на практике.
Решил провести эксперимент на одной из страниц сайта: https://probanki.org/kredity/moskva/pod-zalog-nedvizhimosti/

Вот что я сделал:
  1. Собрал точечно семантику для страницы (конкурентов по запросу "кредит под залог недвижимости" закинул в keys.so, удалил дубли)
  2. Через текстовый анализатор https://advego.com/text/seo/ разбил семантику на отдельные слова
  3. Получил LSI-слова https://arsenkin.ru/tools/sp/ по запросу "кредит под залог недвижимости" и добавил их в список слов
  4. Удалил мусор из списка слов и прикинул на каких элементах можно эти слова использовать, получил вот такую таблицу:
    2021-02-17_19-00-13.png
  5. В итоге что-то внедрил, что-то нет, зеленым пометил то, что внедрил. Есть ощущение что что-то "недовнедрял" и вообще где-то ошибся.
  6. Удалил блок перелинковки снизу (ссылки на другие подборки)
  7. Закрыл в тег <noindex> фильтратор. До сих пор не уверен, что это правильное решение. Руководствовался тем, что Маркин ссылался на сайт https://www.dns-shop.ru/ в котором фильтратор закрыт. Я думаю, что логика здесь такая: чтобы не размывать семантику, фильтратор закрываем.
  8. Полностью переработал генерёнку текста снизу и перенёс её вверх. В ней вписал ключи из таблицы и сократил по-максимуму до читаемого вида. Не уверен, что генерёнку можно назвать сео-текстом, так как по сути это некий сниппет для Яши и попутно призыв к действию. Я считаю, что подобные генеренки нужны и они лучше сео-текста, который никто не читает. Поправьте меня если я не прав.
  9. В верхней плитке тегов вписал только тематичные теги (из списка слов)
  10. Изменил ссылки на страницы в карточках кредитов. Раньше было просто "Залоговый плюс", а теперь "Кредит «Залоговый плюс» в Сбербанке"
  11. Убрал все рекламные блоки
После внедрения, проверил страницу в анализаторе текста Мегаиндекса, оказалось что где-то переспам, где-то недоспам.
2021-02-17_19-24-29.png


У меня на сайте много подобных страниц-подборок, эксперимент провёл только на странице https://probanki.org/kredity/moskva/pod-zalog-nedvizhimosti/, остальные страницы не трогал. Вы можете посмотреть что на них по-прежнему снизу есть сквозной блок перелинковки и сверху сквозная плитка тегов, которые никак не меняются от страницы к странице. На данный момент экспериментируемая страница находится на 55 месте в Яндексе (снимал позиции только сегодня).

По итогу нет ощущения того, что всё сделал правильно.
 
Таким образом Арсенкин – это вообще не про тематические слова, я об этом и говорю.
Нет, Арсенкин в том числе и про тематические слова, просто про наиболее релевантные интенту запроса по мнению ПС. Но из-за специфики сбора он не может учесть ультра-специфичные слова, которые употребляются 1 раз на 100тыс символов)

Всё правильно. К примеру слово веник. Мы спамим в тексте это слово, но поиск не понимает о чём текст. Ну веник, а что веник? И в этот момент, если в тексте есть слово баня, то это один веник, а если слово подметать – то уже другой. При этом, наличие слова купить ни в одном ни в другом тексте нисколько тематичности не добавит и не даст поиску представление о том, какой же всё таки веник мы продаём.
Если бы Вы не теоретизировали, а имели на руках реальные кластеры, то они бы выглядели как "веник для бани" и "веник для уборки", и собрав даже Арсенкиным ограниченное количество задающих тематику слов, у Вас были бы хорошие шансы на попадание в топ. Хотите глубже? Берите Мегаиндекс... ещё глубже? Берите другие сервисы, которые копают глубже... но, помните, чем глубже копаете, тем больше мусора нужно будет чистить руками.

Так это не редкие слова. Это как раз слово, которое характеристику фотоаппарата описывает.
Одно другому не мешает - это характеризующее тематику РЕДКОЕ слово(по частоте употребления) в рамках ТОП по нашему кластеру.

Для фотографа это важный параметр, причём, независимо от того, хочет он купить фотоаппарат или хочет научиться фотографировать или хочет почитать инструкцию пользователя. Я об этом и говорю, что это как раз слово, задающее тематику, а Арсенкин этого не видит, потому что парсит какие-то куски текста на выдаче. Вот именно наличие таких слов и бустанёт нас в ранжировании, потому что Гоогле уже тысячу текстов видел, где слово фотоаппарат и слово выдержка употребляются вместе.
Вполне логично, но, если Вы ещё раз изучите ТОП10 выдачи то обнаружите ТОП забитый сайтами не содержащими данную фразу и необходимость её присутствия именно на каталожной странице вызывает некоторые вопросы. Задает ли она тематику? Да. Нужно ли это слово в рамках сайта? Да! Нужно ли оно в рамках категории? Не факт т.е. я бы на Вашем месте не ждал 'буста' от подобных внедрений.
Чтобы иметь более четкую картину лучше анализировать менее частотные запросы, с упором на анализ молодых сайтов.

Вот тут можно поподробнее? Что за софт бесплатный? Я почему именно про акварель поинтересовался... Чекушин вроде как говорил, что акварель не по 1 слову термины дёргает, а умеет доставать биграммы.
да, но в биграммах мусора обычно много... Пиксель Тулс в ТЗ для копирайтера тоже биграммы вытягивает, сейчас это не ноу-хау.
Десктопный бесплатный софт есть UltimateKeywordHunter если хорошенько разобраться и чуток причесать выходные данные, то получится монстр, по крайней мере он не режет слова т.е. все ваши даже сверх-редкие задающие тематику останутся в списке... останется лишь почистить их. N-граммы присутствуют)
 

Создайте учетную запись или войдите, чтобы комментировать или скачивать материалы!

У вас должна быть учетная запись, чтобы оставлять комментарии

Зарегистрироваться

Создайте учетную запись. Это просто!

Авторизоваться

У вас уже есть аккаунт? Войдите здесь.

Последние темы автора

Алан-э-Дейл
Ответы
5
Просмотры
7K
meow_meow
Алан-э-Дейл
Ответы
1
Просмотры
11K
VIT1103
VIT1103
Алан-э-Дейл
Ответы
2
Просмотры
5K
Captain Sparrow
Captain Sparrow
Алан-э-Дейл
Ответы
4
Просмотры
8K
Тотуся
Тотуся

Похожие темы

Сверху Снизу