imho.ws |
|
|
Сообщения:
Перейти к новому /
Последнее
|
Опции темы |
22.11.2002, 21:55 | # 1 |
Guest
Сообщения: n/a
|
Скачивание сайта целиком - изготовление локальной копии
Чем можно сохранить на локальный диск просматриваемую ВЕБ-страничку? А еще лучше не всю, а только выделенную ее часть.
Кто чем пользуется? +++++++++++++++++++++++++++++++++++++++++++++++ Обсуждаем: Сохранение локально сайтов целиком либо их частей Сохранение отдельных частей (например, только картинок) с сайта Сохранение множества вебстраниц в один файл Дополнительно: Лучшая сайтокачалка Последний раз редактировалось Borland; 09.03.2008 в 14:37. Причина: шапка |
09.12.2003, 16:57 | # 61 |
Banned
Регистрация: 18.05.2003
Адрес: Belgium
Сообщения: 375
|
Скачивание сайта целиком - изготовление локальной копии
народ значи так. Вот тут такой сайтик http://www.soundcoder.com мне его нужно какойнебуть программой скачать полностью на мой комп и потом уже в офф лайне просматривать. Может знает ктонебуть такую программу?
|
09.12.2003, 17:05 | # 62 |
::VIP::
Массовик-Затейник-2004 Регистрация: 17.06.2003
Адрес: -= Ростов-на-Дону =-
Пол: Male
Сообщения: 1 741
|
А TeleportPro, WebReaper, Offline Explorer, WebCopier, HTTP Weazel, NetGrabber, Website Extractor и т.д. и т.п. не подходят?
__________________
Когда на сердце так тоскливо,
Что даже чай не лезет в глотку, Тебе поможет только пиво Которым запивают водку! |
19.12.2003, 13:49 | # 64 |
Junior Member
Регистрация: 23.08.2002
Сообщения: 92
|
Css-проблема со скачиванием
Подскажите,пожалуйста,каким образом(какой программой,качалкой) можно скачать страницу полностью, со всеми картинками. если ссылки на эти картинки указаны в файле css?
Например картинка фона указана вот так: body { font: 9pt/17pt georgia; color: #555753; background: #fff url(/001/blossoms.jpg) no-repeat bottom right; margin: 0px; padding: 0px; } Понятно,что адрес можно в ручную подставить,но хотелось бы автоматизировать этот процесс. В этом деле не помогли следующие программы: Teleport Pro WebCopier |
20.01.2004, 21:55 | # 66 |
Member
Регистрация: 05.12.2003
Адрес: Краснодар
Пол: Male
Сообщения: 337
|
Любой офлайн браузер, WebCopier тоже подойдет, ставь чтобы качал тока рисунки- jpg, jpe,jpeg файлы и ограничение на меньший скачиваемый файл 50кб и все будет у тебя качать как надо.
__________________
Каждый день годен чтобы быть прожитым или стать последним. Последний раз редактировалось Zhiberya; 20.01.2004 в 21:58. |
20.01.2004, 22:59 | # 67 |
::VIP::
Массовик-Затейник-2004 Регистрация: 17.06.2003
Адрес: -= Ростов-на-Дону =-
Пол: Male
Сообщения: 1 741
|
WebPictures (или WebPic)
Picture Pump WebPictureBoss
__________________
Когда на сердце так тоскливо,
Что даже чай не лезет в глотку, Тебе поможет только пиво Которым запивают водку! Последний раз редактировалось Appz-newS; 20.01.2004 в 23:02. |
21.01.2004, 16:51 | # 70 |
Guest
Сообщения: n/a
|
Zhiberya
Cпасибо но яписал именно только рисунки. Так я тоже делаю но неудобно каждый раз в новом проекте. Заходить в настройки и ставить. Что только рис. качались Vagus Спасибо но мне только рис. webCopier тоже сайты целиком качает. a.Ardvark Appz_newS Попробую надо вот только их достать. ------------------------------------------------------------------------ Спасибо народ. |
22.01.2004, 07:39 | # 73 |
::VIP::
IMHO Молодожен-2006 Регистрация: 14.06.2002
Адрес: Moscow
Сообщения: 2 921
|
очень удобно пользовать picture pump - подставляет инкримент вместо знака (@ не важно - любого знака).
т.е. если именна файлов пронумерованы некоторым образом, то задаем программу и: ссылки _www.картинки.ru/pict1.jpg . . . _www.картинки.ru/pict9.jpg ставим в ссылку вместо числительных @ и усе... все картинке на диске... для других целей picter pump не пригоден. |
22.01.2004, 09:32 | # 74 |
Full Member
Регистрация: 30.11.2002
Адрес: Баку
Сообщения: 507
|
Counter - S
Я имел ввиду,что прога качает любого рода сайты,хоть на джаве..А в проектах можно спокойно выставлять что тебе трэба-хоть весь сайт,хоть картинки,хоть картинки с определённым разрешением и прочие завороты.. Мне понравилась,недавно подсел..
__________________
Всё выше,выше и выше... |
26.02.2004, 12:13 | # 75 |
Junior Member
Регистрация: 22.05.2003
Сообщения: 179
|
Как скачть книгу 2000 стр. если сайт даёт без пароля лишь по 10 стр.. Как обхитрить?
Страница где лежит книга:
http://www.wolframscience.com/nksonline/ Пароль можно получить зарегистрировавшись. Однако качать громадное число страниц в ручную мне тяжко. Когда ставлю качалку teleport - скачивает лишь с десяток первых страниц. Далее надо вводить пароль. Следующие 10 страниц - без пароля и т.д. . Т.е. всё преимущество качалки - "лопается". Но в телепорте предусмотрена возможность скачивать в случае если на скачиваемую страницу стоит пароль. Я ввел пароль, который получил при регистрации. Но не помогло. Мне подсказали на одном форуме ( http://www.scientific.ru/dforum/common/1077616918 ) , что если удалять Cookie (что это такое мне не известно) каждые 10 страниц, то сервер не будет "зарезать" скачивание. Но вручну удалять - долго. Но подумал, что может быть это можно как-то автоматизировать? Например запустить одновременно программу качалку и какую-то программу, которая будет периодически удалять Cookie. В результате качалка будет качать. Не докачав очередные 10 траниц Cookie будет удалён "удалялкой". И поэтому качалка сможет далее благополучно качать и т.д. . Но я не знаю где такую программу - "удалялку" взять. А сам написать её не могу. И боюсь, что если "удалялка" будет делать "обычное" удаление, то возникнет конфликт между качалкой и "удалялкой". Но это лишь моя делитанская догадка. Надеюсь на совет специалиста. |
26.02.2004, 12:39 | # 77 |
::VIP::
Звезда первого сезона Молчун-2004 Регистрация: 24.08.2002
Сообщения: 1 575
|
В настройках телепорта при создании проекта есть такая штука: имя и пароль для доступа к сайту - попробуй, может поможет...
__________________
Действовать надо тупо и это лучшее доказательство нашей чистоты и силы! |