Программы для скачивания сайтов.
Когда нужно скачать сразу несколько страниц сайта очень удобно пользоваться программой, которая делает это автоматически. Т.е. не надо открывать каждую страничку в отдельности и сохранять её. Просто задаешь адрес начальной странички и программа скачивает все странички, на которые ссылается данная страничка и т.д. до уровня ветвления задаваемой глубины. Такаю штуку позволяет делать программа teleport.
Единственно что в этой схеме мне не нравится - это то, что, зачастую, скачивается много не нужной, например, рекламной информации. Потому, что когда задаешь скачивать все страницы заданной глубины, то программа, например, скачивает какую-нибудь не нужную, например, рекламную страницу, потом скачивает все страницы, на которые были даны ссылки с этой рекламной страницы и т.д. И если задаешь большую глубину, то может оказаться, что скачаешь очень много бесполезной информации, что будет и долго и не дешёво. Не знает ли кто как с этим можно "бороться"? Например, как-нибудь вводить дополнительное условие на скачивание, состоящее в том, что скачиваться будут только страницы данного сайта или, ещё лучше, только страницы, содержащие в своем адресе в качестве первых символов заданную последовательность. Или хорошо бы, если была бы возможность вводить странички, которые скачивать не надо. В телепорте что-то я потыкался, потыкался в свойствах и не нашел такой возможности. Правда, боюсь, что с моим "кривым" английским что-то упустил. Может, есть какие-то другие, аналогичные телепорту программы, позволяющие решать сформулированную проблему?
|