Kopiowanie stron WWW na dysk
Moderatorzy: Moderatorzy, Administratorzy
Kopiowanie stron WWW na dysk
Witam,
Zna ktoś może jakiś program do zapisu serwisów WWW na dysk ? Chodzi mi o jakiś program żeby zapisywał również podstrony z zawartością do danego katalogu na dysku.
Pozdrawiam
Zna ktoś może jakiś program do zapisu serwisów WWW na dysk ? Chodzi mi o jakiś program żeby zapisywał również podstrony z zawartością do danego katalogu na dysku.
Pozdrawiam
Re: Kopiowanie stron WWW na dysk
Hmm... może wget? Albo wget lub ten, no, wget Sam nie wiem na co się zdecydować...
Opis jak to zrobić znajdziesz na pewno (jeden post niżej w tym samym dziale!).
Opis jak to zrobić znajdziesz na pewno (jeden post niżej w tym samym dziale!).
Ostatnio zmieniony 2006-05-15, 12:46 przez Mariusz, łącznie zmieniany 1 raz.
Re: Kopiowanie stron WWW na dysk
HTTRACK RULEZ
[url=http://bdtk.sourceforge.net][img]http://pin.if.uz.zgora.pl/~beton/bdt-ready.png[/img][/url] #337142
--------------------------------------------
"I had a letter in the post today. It said 'Gas Bill'. It sounds a tempting offer." -- Alan Cox
"Users have been trained that when a computer bluescreens and losing all of their data, it's either (a) just the way things are, or (b) it's microsoft's fault." -- Theodore Tso
--------------------------------------------
"I had a letter in the post today. It said 'Gas Bill'. It sounds a tempting offer." -- Alan Cox
"Users have been trained that when a computer bluescreens and losing all of their data, it's either (a) just the way things are, or (b) it's microsoft's fault." -- Theodore Tso
- Phantom_Warrior
- Użytkownik
- Posty: 141
- Rejestracja: 2005-09-26, 16:30
- Lokalizacja: Zielona Góra
- Kontakt:
Re: Kopiowanie stron WWW na dysk
wget nie jest zly :>
[url=http://bdtk.sourceforge.net][img]http://bdtk.sourceforge.net/bdt-ready.png[/img][/url] [url=http://www.gnu.org/software/bash/bash.html][img]http://pin.if.uz.zgora.pl/~mosy_phx/bash_button.png[/img][/url] [url=http://www.vim.org][img]http://pin.if.uz.zgora.pl/~mosy_phx/vim_the_editor.png[/img][/url] #339995
Re: Kopiowanie stron WWW na dysk
Może zostanę uznany za średnio sprytnego, ale za nic nie mogę skopiować zawartości tego serwisu
Re: Kopiowanie stron WWW na dysk
Owszem, zapisuje na dysk, ale linki na stronach wskazują nadal do strony w internecie, mam na myśli że linki nie kierują do podtron na moim dysku
Re: Kopiowanie stron WWW na dysk
To moze po prostu zamien jakims programem wszystkie wystapienia ciagu znakow "http://adresstronyinternetowy/ na /home/ja/blabla/"
Re: Kopiowanie stron WWW na dysk
Pytałem o jakiś program, do pobrania zawartości strony do przeglądania offline. Co to za wygoda zamieniaćć potem ciągi znaków ? Na pewno da się to jakoś uzyskać za pomocą wget. Nie wiem tylko jak
Re: Kopiowanie stron WWW na dysk
Nikt ci nie mowi, zebys to recznie zmienial. Zrob sobie skrypcik, ktory sciagnie stronke wgetem, a nastepnie zamieni te ciagi znakow samemu.
Re: Kopiowanie stron WWW na dysk
no właśnie, napisz skrypcik, a skrypciku nie trzeba najpierw ręcznie wklepać do komputera ?
Po co ? Dla wprawy ?
Nie żyjemy za czasów średniowiecza, nie wierzę żeby wget był taki toporny żeby sobie z tą stroną nie poradził. Nadmienię że cała dokumentację GLUT zassał bez problemu. Ma ktoś może jakiś pomysł ?
Po co ? Dla wprawy ?
Nie żyjemy za czasów średniowiecza, nie wierzę żeby wget był taki toporny żeby sobie z tą stroną nie poradził. Nadmienię że cała dokumentację GLUT zassał bez problemu. Ma ktoś może jakiś pomysł ?
Re: Kopiowanie stron WWW na dysk
Jak to po co wklepywac ? Po to, zeby miec skrypt sciagajacy strony ...
Dokumentacja GLUT-a mogla zassac sie bez problemu, gdyz zawierala miekkie odnosniki w formie /dupa.html , /dupa2.html, jezeli strona ma twarde odnosniki w formie http://blabla.pl/dupa.html to musisz zrobic tak jak mowie badz tez znalezc juz gotowy skrypt/program. Gdzie ty widzisz sredniowiecze? Dla mnie sredniowieczem jest bycie skazanym na programy GUI do najprostszych czynnosci.
Dokumentacja GLUT-a mogla zassac sie bez problemu, gdyz zawierala miekkie odnosniki w formie /dupa.html , /dupa2.html, jezeli strona ma twarde odnosniki w formie http://blabla.pl/dupa.html to musisz zrobic tak jak mowie badz tez znalezc juz gotowy skrypt/program. Gdzie ty widzisz sredniowiecze? Dla mnie sredniowieczem jest bycie skazanym na programy GUI do najprostszych czynnosci.
Re: Kopiowanie stron WWW na dysk
W tym widzę śreniowiecze, że trzeba wszystko klepać samemu. Gui nie koniecznie jest złe. Jeśli tak nie lubisz Gui to siedź pod konolą i klep w języku maszynowym kod Nie no na serio to ja Cię rozumiem, wiem że pod Gui nigdy nie wiesz dokładnie co komputer robi, ale przecież w tym wypadku to nie jest takie krytyczne, chodzi tylko o zczytanie zawartości serwisu, a nie o program do robienia tomografii
Wiadomo że inne wymagania są stawiane podczas pisania kodu programu sterującego dla przykładu narzędziami pomiarowymi, a inne są stawiane programom odpowiedzialnym za mieszanie pojemników z farbami
Problem w tym, że ja nie korzystam teraz z programu GUI, działam zwykłym programem pod konsolą, który ma kilka przełączników, w którym jeden jest odpowiedzialny za zmianę linków. Nie rozumiem tylko dlaczego to nie działa.(Być może coś źle zrozumiałem) Sam/Sama (sorry) chyba rozumiesz ile czasu by zajęło po każdej wykonanej przez komputer czynności pisać skrypt, który by poprawiał przetworzone przez niego wyniki (mam na myśli wszelakie zadania, nie tylko ten wget).
W sumie może spróbuję tym httrackiem, ale to nie jest rowiązanie przejść do innego narzędzia bo to nie działa Dalej czekam na pomysły
Pozdrawiam
Wiadomo że inne wymagania są stawiane podczas pisania kodu programu sterującego dla przykładu narzędziami pomiarowymi, a inne są stawiane programom odpowiedzialnym za mieszanie pojemników z farbami
Problem w tym, że ja nie korzystam teraz z programu GUI, działam zwykłym programem pod konsolą, który ma kilka przełączników, w którym jeden jest odpowiedzialny za zmianę linków. Nie rozumiem tylko dlaczego to nie działa.(Być może coś źle zrozumiałem) Sam/Sama (sorry) chyba rozumiesz ile czasu by zajęło po każdej wykonanej przez komputer czynności pisać skrypt, który by poprawiał przetworzone przez niego wyniki (mam na myśli wszelakie zadania, nie tylko ten wget).
W sumie może spróbuję tym httrackiem, ale to nie jest rowiązanie przejść do innego narzędzia bo to nie działa Dalej czekam na pomysły
Pozdrawiam
Re: Kopiowanie stron WWW na dysk
Sektor, pobaw sie httrack'iem. Nie bedziesz musial nic zmieniac, bardzo ladnie i szybko rippuje serwisy na hd.
[url=http://bdtk.sourceforge.net][img]http://pin.if.uz.zgora.pl/~beton/bdt-ready.png[/img][/url] #337142
--------------------------------------------
"I had a letter in the post today. It said 'Gas Bill'. It sounds a tempting offer." -- Alan Cox
"Users have been trained that when a computer bluescreens and losing all of their data, it's either (a) just the way things are, or (b) it's microsoft's fault." -- Theodore Tso
--------------------------------------------
"I had a letter in the post today. It said 'Gas Bill'. It sounds a tempting offer." -- Alan Cox
"Users have been trained that when a computer bluescreens and losing all of their data, it's either (a) just the way things are, or (b) it's microsoft's fault." -- Theodore Tso