что впринципе необходимо,
для появления в основном индексе:
уникальный контент, сам контент должен быть разбавлен кеями, плюс правильная перелинковка,
Соотвественно внешние ссылки с PR и бонусных сайтов,
Лишь бы не на главной странице, на сайте маил.ру новости неудобно "навязчивые".
Пользователь заходит просмотреть почту, а его засыпают информацией с первой страницы. Если бы было: "у вас новых писем 0", и только тогда появлялась маленькая ссылка "новости", и при просмотре всех писем появлялась... другое дело.
Года два назад этот метод был очень популярен, и востребован.
На этом принципе лепили псевдоновостные сайты все, кто мог.
Скрипт "нюсграббер" был нарасхват.
Потом, сначала Гугл, а потом и Яндекс повели планомерную борьбу с этим явлением.
Первым, и наиболее радикальным, конечно стал Гугл, который ввел т.н. "сапплемент" - т.е. такие "сграбленные" страницы заносились в специальный индекс, который не учитывался в выдаче, но предоставлялся по особому запросу. Если сайт весь состоял из такого контента он очень низко ранжировался Гуглом. Но такого явления, как вылет из индекса Гугл никогда не практиковал, чем заслуживает уважения.
Яндекс... Ох, все не по-человечески. Сначала его алгоритмы чрезвычайно высоко оценивали такие дермосайты. Потом, все же взялись за ум, и ... начались "ночи длинных ножей".
При детектировании алгоритмами Яндекса сайтов, которые используют RSS грабберы, самый распостраненный ход - выброс из индекса. Причем часто это происходит по ошибке, а сайты-воришки на плаву.
В любом случае, при размещении чужих RSS, надо учитывать, что опасность штрафных санкций, которые можно огрести от поисковых систем перевешивают сомнительную пользу. Но, если новости делаются для тех, кто читает - можно закрыть эти страницы от индексации, и тогда наказания не будет, а текст останется для читателей.
Есть еще один хитрый метод,- использовать автоматический синонимизатор. Чтобы стыренный текст отличался от оригинала. Но это достаточно сложно, и такие скрипты очень дорогие.
Так что лучше от этого отказаться.
Без переделки (дополнения, изменения), уникализации контента который будете грабить по rss больших результатов не получите и, как уже сказали, есть риск что сайт вылетит из индекса. По опыту могу сказать, что результат будет, но он не стоит того. Риска загубить сайт больше, а сколь-либо ощутимый результат можно получить только если страницы будут добавлять сотнями в месяц.
-Если к имеющемуся статическому сайту компании просто добавить страницы с RSS, которую постоянно наполнять контентом по тематике сайта. Это будет очень эффективно и для поисковика и для посетителей.
- Страницы добавлять с пингом серверов(списки русских серверов существуют). Что такое пинг -http://blogs.yandex.ru/pings
Список
http://www.wpdot.com/wordpress/spisok-pingping-servisov.html
И для этого вам понадобиться модуль для пинга, или он есть если использовать вердпресс.