Ответы:
1. Чем больше, тем лучше
2. Примерно 350 слов на страницу - минимум в среднем. Меньше - будут хуже покупать.
3. хз
4. Если источников много, то может быть
5. Как тиц поднимете немножко, раньше не имеет смысла
Лучше не беритесь за это дело. Опоздали уже. Сейчас говносайты, в т.ч. и сайты под сапу, Яндекс выкидывает в огромных количествах. С очень большой вероятностью будете впустую тратить время и силы. Лучше сделайте пару нормальных сайтов.
telejob
Нормальный сайт это как правило большой труд и маленькие деньги. Честные деньги они всегда маленькие )
Artem N, с чего вы так решили? Да, создание нормального сайта требует большого труда. Маленькие деньги или большие - вопрос спорный. Всегда можно привести примеры обратного. Зато совершенно однозначно, что это стабильные и длинные деньги.
2awert
Есть сайты для людей (СДЛ), есть сайты для поисковых машин (СДПС). Есть нечто среднее между ними.
1. Больше 10 точно, в среднем около ~100.
2. На одну страницу ~2800-6800-10000 символом с пробелами.
3. Чем меньше, тем лучше. Процентах? хм) есть не только проценты но и шаг слова, это используется в шинглах. Близкий к уникальному обычно это 10% и меньше совпадения при шаге слова ~10 и менее при учете ~5000 символов с пробелами.
4. Если софт нормальный то можно, но на софт потратитесь - врятли..
5. вот это не знаю
Заключение: все познается на практике, но без теории практика может оказаться плачевной :)
сапа - вчерашний день, регулярный бан яндекса делает все трудозатраты делом неблагодарным.
стучитесь 247108116 - расскажу кое что получше
Не клпеая сайты под сапу, потому что не умею нагонять тИЦ. Но в общем случае логика простая.
В сапе цена тем выше, чем выше пузомерки.
Уник контент проверять врядли будут на ваших страницах, особенно те, кто закупается оптом. Но неуник запросто побанят, поэтому нужен рерайт.
Количество страниц - на ваше усмотрение. Лучше, если контент будет регулярно обновляться, чтобы за 1 максимум 2 апдейта ссылки, купленные на вашем MFS попадали в индекс.
Насчет рсс - все возможно, если сделать с умом. Но лучше как-то идти по другому пути наполнения сайта.
Сграбил 20300 страниц (движок вордпресс)
Итог:
Гугл отфильтровал автоматически грабенные , оставил только чистые и которые вместе статьи
Яша:
забанила весь сайт вручную
Вчера оптимизировал сайт по 1 ключевому слову, появилось 4 000 посетителей в день с гугла
В гугле аналитик резко поднялась шкала вверх
15 лет назад