Что-то тема незаслуженно забИта…
У меня есть вопрос.
В каких из обсуждаемых программ корректно работают URL-фильтры?
Поясню, что мне нужно. Есть сайт, на главной странице которого есть множество ссылок на другие страницы этого же сайта. Большая часть этих ссылок не представляют для меня интереса. Скачивать всю информацию со всех ссылок даже на небольшую глубину (2-3 уровня) при моем диал-апе занимает очень много времени. Есть желание настроить фильтры так, что бы можно было создать список ссылок, по которым будет производиться скачивание, а остальные будут игнорироваться по умолчанию (или наоборот: отфильтровывать по списку, а остальное - закачивать).
Я пользуюсь WebCopier Pro 4.0, в которой (по теории) есть URL Filters. Однако ссылки, которые отмечены в списке как Exclude, продолжают "благополучно" закачиваться.
У кого-нибуть есть опыт работы с подобными фильтрами? Поделитесь: где, как.
|