закачка файлов

Менеджер закачек Downloader for X

Домашняя страница: нет

Назначение:  Менеджер закачек

D4X — имеет GTK+ интерфейс, хотя возможен запуск и без интерфейса. D4X умеет закачивать файлы и целые сайты по протоколам FTP и HTTP, в том числе рекурсивно, ведет отдельный каталог для каждой закачки, работает через прокси-сервер.

Среди полезных возможностей встроенный планировщик для выполнения различных операций по расписанию, выборочный фильтр при закачке по HTTP, FTP-поиск для нахождения ближайшего сервера, ограничение скорости закачки и скачивание файла в несколько потоков для увеличения скорости. Реализована функция дистанционного управления программой, поддержка Drag-n-Drop, возможность ввода паролей. Имеется функции журналирования, возможно продолжение докачки файла после аварийного завершения D4X или отключения питания.
В настоящее время проект мертв. В связи с использованем устаревшей линцезии Artistic 1.0, которую FSF не классифицирует как свободную, проект может быть удален из дистрибутивов Linux со строгой лицензионной политикой.

Tags:

Менеджер закачек Aria2

Домашняя страница: http://aria2.sourceforge.net

Назначение:  Менеджер закачек

Командная утилита поддерживающая протоколы HTTP/HTTPS/FTP/BitTorrent и Metalink. Изначально поддерживается сегментирование файла, поэтому в одной строке можно указать сразу несколько зеркал указывающих на один файл. Имеет интерфейс XML–RPC, есть возможность выполнения команд во время начала/окончания загрузки, а также возможность сохранения cookies. API XML–RPC позволяет пользователям добавлять закачки – HTTP(S)/FTP/torrent/Metalink и динамически изменять их параметры. Также доступны API, позволяющие работать с: отчетом о прогрессе загрузки, путям к файлам, URI. Утилита сама разобьет файл на части, скачает, соберет и проверит.
Например, так можно качать файл с помощью одного соединения:

$ aria2c http://server.com/file.zip

А так будет задействовано 2 подключения к одному серверу:

$ aria2c -s 2 http://server.com/file.zip

А теперь заберем файл с двух разных серверов:

$ aria2c http://server.com/file.zip http://example.com/file.zip

Причем в одной команде можно смешивать разные протоколы, скачивая файл, с http и с ftp серверов. С torrent aria2 работает аналогично. Просто указываем .torrent файл с помощью параметра -T:

$ aria2c -T test.torrent

А такой командой можно просмотреть список файлов:

$ aria2c -T test.torrent -S

Tags:

Менеджер закачек сURL

Домашняя страница: http://curl.haxx.se/

Назначение:  Менеджер закачек

Утилита поддерживает большое количество протоколов: FTP, FTPS, HTTP, HTTPS, SCP, SFTP, TFTP, TELNET, DICT, FILE, BitTorrent и Metalink  и LDAP. Знает об сертификатах SSL, прокси, cookies, возможна аутендификация пользователей по имени и паролю.

Например, чтобы скачать заглавную страницу сайта, вводим:

$ curl http://www.linux.org/ -o linux.html

Параметров у нее довольно много, расскажу только о самом интересном, который привлек в свое время мое внимание именно к этой утилите. Называется он -r/–range. С его помощью можно указать только на часть файла. Что это нам дает? Находим несколько зеркал и загружаем файл частями с каждого зеркала, а затем собираем.

$ curl -r 0-350000000 http://mirror.sov.uk.goscomb.net/linuxmint.com/stable/7/LinuxMint-7.iso -o LinuxMint-7 &
$ curl -r 350000001- hhttp://mirror.sov.uk.goscomb.net/linuxmint.com/stable/7/LinuxMint-7.iso -o LinuxMint-7_2 &

После того как обе части будут скачаны, соединяем их, командой

$ cat LinuxMint-7* > LinuxMint-7.iso.

Проверяем контрольную сумму при помощи md5sum и если все нормально записываем дистрибутив на диск.

Tags:

Менеджер закачек — Wget

Домашняя страница: http://www.gnu.org/software/wget/

Назначение:  Менеджер закачек

Самым популярным инструментом для закачки файлов и целых сайтов является утилита GNU Wget, которая, как правило, устанавливается по умолчанию. Поддерживает все популярные протоколы HTTP/HTTPS и FTP, умеет работать через HTTP прокси-сервер. Чем так удобен wget? Самое главное, что wget является не-интерактивной программой, поэтому натравив программу на сайт вообще можно о ней забыть. Повлиять на ее работу можно только убив процесс (например, нажатием Ctrl+D в той консоли в которой запущена программа). При использовании веб-браузера, пользователь должен постоянно отвечать на какие то вопросы и скачивание больших объемов информации может быть утомительно. Чтобы скопировать весь сайт целиком достаточно ввести команду:

$ wget http://server.org/

И через некоторое время в текущем каталоге появится полная копия сайта. Чтобы при обрыве соединения закачка возобновлялась добавляем параметр -с. Так можно скачать отдельный файл.

$ wget -c http://server.org/file.rar

Параметр -r указывает на рекурсивный обход, а -l на его глубину. Обойдем рекурсивно все каталоги сайта, на глубину не более 10:

$ wget -r -l10 http://server.org/

Наиболее часто используемые параметры можно указать в конфигурационном файле .wgetrc, который создается в домашнем каталоге пользователя.

Tags:

Follow tux_in on Twitter