прокси

Родительский контроль в Linux — Nanny

Домашняя страница:
http://projects.gnome.org/nanny/

Лицензия: GNU GPL

Назначение: фильтрация сайтов, родительский контроль

Сегодня компьютером пользуются и дети, поэтому вопрос ограничения доступа к нежелательным ресурсам и регламентирования времени работы за ПК стоит перед родителями очень остро. Один из вариантов Squid, SquidGuard или Dansguardian. Но их конфигурация требует некоторой подготовки пользователя. Проект GNOME Nanny (Няня), установив которую можно контролировать некоторые действия выбранного пользователя:

  • доступ к определенным сайтам — белый, черный список сайтов, в том числе и автоматически загружаемый с внешних ресурсов;
  • продолжительность использования по дням недели отдельно для компьютера, веб-браузера для просмотра веб-страниц, электронной почтой и программами обмена мгновенными сообщениями (icq, jabber и другими)

Продолжительность можно указать в часах в день или установить при помощи таблицы периоды использования, для каждого часа в неделю индивидуально. Причем можно отметить только первый или второй получасовой промежуток. Установить программу легко.

$ sudo apt-get install nanny

Далее запускаем консоль управления из меню или при помощи команды:

$ gksudo nanny-admin-console

Tags: ,

WWWOffle — прокси для локального просмотра

Домашняя страница:  http://www.gedanken.demon.co.uk/wwwoffle/

Назначение:  прокси

WWWOffle (World Wide Web Offline Explorer) представляет собой простой прокси-сервер ориентированный в первую очередь на пользователей коммутируемых соединений, хотя будет естественно полезен и тем которые беспокоятся о сумме приходящих счетов от провайдера. Работает он просто, пользователь настраивает свой веб-браузер так чтобы он выходил в Интернет не напрямую, а через WWWOffle, затем заходит на нужный сайт, переходит по  ссылкам. WWWOffle между тем запоминает все, что было загружено. Отключившись от Сети, пользователь, набрав в строке веб-браузера адрес того же ресурса, получает возможность полностью повторить весь путь в Интернет. Удобств несколько. Можно быстро пройтись по нужным ресурсам, а затем, отключившись от Сети спокойно все почитать, при повременной оплате это неплохой способ сэкономить. Кроме того, теперь нет необходимости сохранять на диск все без разбора и куда попало, можно в архив отобрать то, что действительно необходимо. При восстановлении связи будут загружены только изменившиеся страницы, пользователь может вручную указать, какие страницы ему потребуются или которые кэшировать не нужно. WWWOffle может быть настроен на автоматическое установление связи и загрузку не кэшируемых или отсутствующих страниц. Кэшируются протоколы HTTP, FTP и finger, работает и с защищенным HTTPS протоколом. Понимает HTML 4.0, CSS, Java классы, и частично VRML с XML и разные типы объектов — картинки, таблицы стилей, фреймы, скрипты, Java и другие.

Режимы работы WWWOffle

В WWWOffle реализовано четыре режима работы: online, offline, autodial и fetch. В режиме online WWWOffle работает как обычный прокси, когда пользователь работает в Интернет, собирая все в кэш. Соответственно в offline режиме, прокси работает, когда пользователь просматривает страницы из локального кэша отключившись от Интернета. В режиме autodial WWWOffle будет дозваниваться в Интернет в том случае, когда пользователь нажмет на ссылку которой нет в кэше и наконец режим отложенного просмотра fetch.

Предназначен этот режим для закачки файлов поставленных пользователем в очередь. Добавляются они просто. Щелкаете по ссылке в режиме offline, если нужной информации нет в кэше, то она будет поставлена в очередь автоматически. Для управления работой демона wwwoffled используется утилита wwwoffle. Так режим online устанавливается командой wwwoffle –on, offline соответственно — wwwoffle –off. Режимы autodial и fetch также устанавливается соответствующими командами wwwoffle – autodial и -fetch. У wwwoffle есть еще ряд полезных команд, например, введя status можно просмотреть статус работы демона, -purge позволит почистить кэш программы, а -config заставит демон wwwoffled перечитать конфигурационный файл. Кроме командной строки работой демона, можно управлять через веб-интерфейс. Отсюда же можно производить все необходимые настройки. Получить к нему доступ, можно набрав в строке браузера http://localhost:8080/  и использовав для доступа пользователя proxy и пароль введенный при установке (это все можно просмотреть в файле wwwoffle.conf). Страницы частично локализованы, поэтому вы без труда разберетесь с большинством параметров. Еще одной особенностью WWWOffle, является возможность поиска в локальном кэше нужной информации с помощью поисковых машин mnoGoSearch (search.mnogo.ru) или ht://Dig (www.htdig.org, он давно не обновлялся), которые указаны в качестве “мягких” зависимостей пакета wwwoffle. Для поиска также используется веб-интерфейс.
Конфигурационный файл WWWOffle
Основной конфигурационный файл называется wwwoffle.conf, разбит на несколько секций, каждая отвечает за свой участок. Все описывать не буду, приведу только основные. В секции StartUp описываются параметры, требуемые для загрузки демона, команда wwwoffle –config игнорирует эту секцию. Параметр http-port указывает на порт который будет использован демоном для подключения клиентов, в run-uid и password задаются пользователь и пароль, которым разрешено редактирование конфигурации через веб-интерфейс. В том случае, когда скорость соединения мала, измените значение max-servers отвечающее за максимальное количество контролируемых серверов, и max-fetch-servers – число максимальных отложенных закачек (это число должно быть меньше предыдущего).
Секция Options управляет уровнем отладочной информации в журналах, время ожидания соединения и при DNS запросах, и реакцию при отсутствии ответа, ssl-allow-port задает порт защищенного https соединения. Целый ряд параметров начинающихся на run-*, позволяет указать программу или скрипт которые будут выполнены при переходе в соответствующий режим работы демона. В OnlineOptions и OfflineOptions определяется поведение WWWOffle соответственно в режимах online и offline. Здесь устанавливаются параметры кэширования информации, выбраны они достаточно разумно, можно их пока не трогать, но распространяются они на все сайты. Для некоторых сайтов можно указать персональные настройки для некоторых сайтов. Например, для файлов изображений с некоторых сайтов установить больший период обновления. Так параметры request-changed request-changed-once отвечают за повторную загрузку страницы, если возраст не превышает установленного значения, то информация будет взята из кэша, а не получена с сайта. Если раскомментировать пример:
<*://*/*> dont-request = yes
Новые страницы (шаблон *://*/* подпадает под все запросы) загружаться не будут. Это можно использовать, например, в школах, чтобы ученики могли просматривать разрешенные страницы, учась работать в Интернет, но новые загрузить не могли. В секции FetchOptions определяется загрузка различных типов объектов в fetch режиме. По умолчанию не загружаются Java объекты и скрипты. Индексирование страниц настраивается в IndexOptions, а модификация загружаемых страниц в ModifyHTML.

Tags:

Follow tux_in on Twitter