Problemy z kopiowaniem stron WWW za pomocą WinHTTrack polskie litery w nazwach plików i skrypty uruchamiane na stronach

Tematy

Moonlight Sonata // Saucedo Odkrywa Miłuje Kocha

Postanowiłem wypróbować program WinHTTrack do pobrania na dysk stron WWW, aby je móc potem przeglądać offline.
To co mi ściągnęło wygląda ogólnie tak jak w oryginale, ale mam dwa problemy.

1. Jeśli w nazwach plików są polskie litery (np. Strona_główna.html), to nie dość, że mi je nieprawidłowo nazywa (w tym przypadku: Strona_gı‚Ăłwna.html - to jeszcze jest do przełknięcia skoro Windows akceptuje takie nazwy), to na dodatek w treści źródłowej plików zapisuje inne odwołania (Strona_główna.html, co jest interpretowane jako Strona_główna.html, bo tak mi wyświetla przeglądarka komunikując, że nie może znaleźć strony). Jednocześnie wszystkie teksty pokazywane na stronach są wyświetlane prawidłowo - z ładnymi polskimi literami.
Czy można coś gdzieś ustawić (w programie albo w Windows), aby nazwy były prawidłowe (tzn. najlepiej z "normalnymi" znakami, a jeśli muszą być "krzaczki", to takie same jak potem będzie oczekiwać przeglądarka czytając linki w źródle wyświetlanej strony)?

2. Mam wrażenie, że program kopiuje również skrypty związane z pobranymi stronami, ale nie wiem, czy niektórych nie jest w stanie pobrać (nie znam się na tym, więc mam nadzieję, że pytanie nie jest zbyt naiwne), czy pobrał, ale nie potrafi użyć, czy może muszę jakoś mu pomóc w pobieraniu, albo je jakoś zmodyfikować, żeby działały lokalnie.
Konkretnie chodzi o przeszukiwanie pobranych stron (jak np. szukanie wskazanego słowa w różnego rodzaju sklepach, encyklopediach, czy choćby na tym forum). Jak klikam szukaj na stronie, którą mam teraz lokalnie, to szukanie działa, ale znajduje odpowiednią stronę w necie zamiast u mnie. Jeśli się odłączę od internetu, to widząc z jaką stroną przeglądarka chciała się połączyć, będę mógł na tej podstawie wpisać odpowiednią nazwę lokalną, ale byłoby to bardzo uciążliwe i w praktyce raczej nie wchodzi w rachubę jeśli chciałbym trochę więcej "pogrzebać" po ściągniętych stronach.
Czy można coś z tym zrobić?



Prościej otwierasz stronkę w IE dajesz plik zapisz jako na dole wybierasz z typu jako kompletna do przeglądania offline wybierasz miejsce zapisu i masz.

Jeśli by chodziło o jedną, czy nawet kilka stron, to nie byłoby problemu. Jeśli jednak chcę ściągnąć całą witrynę (setki stron), żeby móc ją przeglądać po odłączeniu się od sieci, to program sprawdza się całkiem nieźle. Tyle, że trafiłem na dwa opisane powyżej problemy.

  • zanotowane.pl
  • doc.pisz.pl
  • pdf.pisz.pl
  • milosnikstop.keep.pl
  • Powered by MyScript