Любые обсуждения по этой теме. Само-пиар или резюме публиковать на другие наши проекты, например host.camp или vm.center. Тут только клиентские запросы на помощь.
  • Дата создания
    17 марта 2019
  • Топиков
    908
  • Ограничение на постинг
    0.000
  • Категория:
    Администрирование и настройка

DNS Bind, forwarers { ... } через прокси

Здравствуйте.
Учусь разворачивать DNS в сети. Понимаю принцип работы Bind, но ранее всегда настраивал его с прямым доступов в Сеть, что позволяло указывать в секции forwaders { 8.8.8.8; 8.8.4.4; }; и запросы на внешние ресурсы уходили на сервера Google. Сейчас в тестовой среде появился прокси на Squid (Debian, версия Squid 3.1.20), который минимально настроен на проксирование запросов из внутренней сети без авторизации.

Конфиги в минимальном состоянии, только чтобы работало:
directory "/var/cache/bind"; forwarders { 8.8.8.8; 8.8.4.4; }; dnssec-validation auto; auth-nxdomain no; # conform to RFC1035 listen-on port 53 { 127.0.0.1; 10.1.1.3; }; disable-empty-zone yes; zone «agc.com» { type master; file «db-agc.com»; journal "/var/cache/bind/db-agc.com.jnl"; allow-update {key rndc-key;}; }; zone «1.1.10.in-addr.arpa» { type master; file «db-1.1.10»; journal "/var/cache/bind/db-1.1.10.jnl"; allow-update { key rndc-key; }; };
Разрешение прямое и обратное для внутренних хостов работает.
Примерная схема сети:
Схема">

Как настроить домен 3-го уровня на Apache?

Здравствуйте!
Задача настроить домен 3го уровня на веб-сервере Apache
Имеется:
ОС windows 2003;
Apache 2.2.4;
Служба DNS;
Уже настроенный и работающий сайт;
Что сделано:
Файл httpd.conf содержит в том числе:
ServerRoot «C:/web/Apache» Listen 80 ServerName server.yarrsk.ru:80 DocumentRoot «C:/web/htdocs» Options Indexes FollowSymLinks AllowOverride All Order allow,deny Allow from all
Файл httpd.conf — раскомментирована строка:
Include conf/extra/httpd-vhosts.conf
Файл httpd-vhosts.conf содержит:
NameVirtualHost 127.0.0.1:80 DocumentRoot «C:/web/htdocs» ServerName yarrsk.ru ServerPath «C:/web/htdocs» DocumentRoot «C:/web/htdocs_old» ServerName old.yarrsk.ru ServerPath «C:/web/htdocs_old»
Служба DNS настроена следующим образом:
Создана зона прямого просмотра yarrsk.ru, в ней создан узел А с именем old
Проблема при переходе на old.yarrsk.ru отображается содержимое в DocumentRoot «C:/web/htdocs», вместо DocumentRoot «C:/web/htdocs_old»
Подскажите в чем может быть проблема. Спасибо

Как решить ошибку Error 41 Microsoft Windows Kernel Power на сервере?

Приветствую всех! Не знаю как и быть, но со свежекупленном сервером происходит такая беда — 41ая ошибка и как следствие — спонтанная перезагрузка. Исходя из этого support.microsoft.com/kb/2028504/ru мой случай аккурат подпадает по 3тий вариант развития событий, а именно жесткое зависание и отсутствие бсода. Форумные эксперты, найденные на просторах сети, подсказали отключить: все С-state процессора, SpeedStep, TurboBoost и С1E (С1E в биосе нет), короче говоря, все, что влияет на питание процессора. После отключения, время жизни без перезагрузок увеличивается до нескольких дней, и все равно сервак перезагружается.
Эксперименты с подлкюченным одним из двух блоков питания — появляется ошибка whea_uncorrectable_error на обоих бп. Всегда после таких перезагрузок на лицевой панели корпуса зеленый диод меняет цвет на желтый (знак восклицания в треугольнике).
Проверенно в ОС windows 2008R2, 2012, 2012R2
Конфигурация: платформа P4208IP4LHGC, проц. Xeon E5-2620 2шт
Платформа прошита на последнюю версию 02.01.0002

Как пробросить принтеры через 2x client или исправить «серые экраны» в remmina?

Есть сеть 80-100 машин linux xubuntu. Работа через терминал — 2003r2 2008r2. Сейчас работа идет через remmina. С ней есть проблема. Часто, при коннекте в сессию, после ввода логина и пароля, окно приглашения пропадает, остается «серый экран», и клиент зависает. Исправляется выбрасыванием пользователя из сессии. Нашел программу 2x client там все работает замечательно, но не пробрасываются принтеры. Техподдержка платная, и стоит дорого. Посему прошу помощи здесь. Может кто сталкивался? Как пробросить принтеры чере

Неожиданная перезагрузка EJabberd — как такое возможно?

Здравствуйте, специалисты по Linux, Erlang и/или EJabberd.

Я столкнулся с очень странной (и даже невероятной) ситуацией при использовании EJabberd. Необъяснимость произошедшего очень заинтересовала, но собственное расследование ни к чему не привело. Надеюсь на помощь сообщества.

Исходные данные: VDS под Xen, на которой уже полгода крутится Ubuntu 12.04, и стандартные пакеты: изолированный (без S2S) EJabberd и RabbitMQ. За всё это время оба приложения перезагружались только планово при обновлениях или перезагрузках всего сервера, в остальном работали стабильно. К ejabberd локально подключен jabber-bot.

Недавно, пересматривая логи, обнаружил что бот терял связь с сервером на 40 секунд. Удивился, не сеть localhost же отваливался — посмотрел больше. И тут началось интересное.

Исходя из логов и таблицы процессов оказалось что процесс с Erlang VM (beam) был перезагружен. Время создание beam-процесса и его внутренний uptime (ejabberdctl stats uptimeseconds) конечно же соответствовали времени отключения бота.

Вопросы: почему упал(?) хвалёный пуленепробиваемый elrang. И, что более интересно, — кто его перезапустил?
Читать дальше

delay_pools в squid3 и 100%-я загрузка процессора

Имеется Ubuntu Server 12.10 (крутится на железе Intel Xeon E31235 @ 3.20GHz / 16 Gb RAM), раздающий пользователям интернет через прокси-сервер squid. При включении в конфиге squid'а шейпинга через delay_pools squid нагружает процессор до 100%. При выключенных delay_pools все нормально — загрузка не превышает 10-15% при общей ширине канала в 16 мбит/с, пользователей около 70-90 одновременно в сети.

Версия squid — 3.1.20 (amd64)
Ниже часть конфига:

acl adm src 192.168.2.99/32 acl users src 192.168.0.0/16 delay_pools 2 delay_class 1 1 delay_class 2 3 delay_access 1 allow adm delay_access 1 deny all delay_access 2 allow users delay_access 2 deny all http_access allow users http_access allow adm http_access deny all delay_parameters 1 -1/-1 delay_parameters 2 250000/250000 125000/125000 125000/125000

В чем может быть причина высокой загрузки CPU squid'ом?

Freebsd JAIL + VNET двойной запуск rc?

Есть машина с jailaми, которые админятся через ezjail в который прикручен сетевой стек. Конфиг выглядет так.

# To specify the start up order of your ezjails, use these lines to # create a Jail dependency tree. See rcorder(8) for more details. # # PROVIDE: standard_ezjail # REQUIRE: # BEFORE: # export jail_vpn0_rooml_ru_flags="-c vnet name=vpn0_rooml_ru allow.raw_sockets=1 allow.sysvipc=1" # export jail_vpn0_rooml_ru_hostname=«vpn0.rooml.ru» # export jail_vpn0_rooml_ru_exec_prestart0=«ifconfig epair0 create» export jail_vpn0_rooml_ru_exec_prestart1=«ifconfig bridge0 addm epair0a» export jail_vpn0_rooml_ru_exec_prestart2=«ifconfig epair0a up» # #export jail_vpn0_rooml_ru_exec_start="/bin/sh /etc/rc" # export jail_vpn0_rooml_ru_exec_poststart0=«ifconfig epair0b vnet vpn0_rooml_ru» export jail_vpn0_rooml_ru_exec_poststart1=«jexec vpn0_rooml_ru ifconfig lo0 127.0.0.1» export jail_vpn0_rooml_ru_exec_poststart2=«jexec vpn0_rooml_ru ifconfig epair0b 192.168.5.2/24 up» export jail_vpn0_rooml_ru_exec_poststart3=«jexec vpn0_rooml_ru route add default 192.168.5.1» export jail_vpn0_rooml_ru_exec_poststart4=«jexec vpn0_rooml_ru /etc/rc.d/ipfw start» export jail_vpn0_rooml_ru_exec_poststart5=«jexec vpn0_rooml_ru /bin/sh /etc/rc» # #export jail_vpn0_rooml_ru_exec_poststop0=«jexec vpn0_rooml_ru /bin/sh /etc/rc.shutdown» #export jail_vpn0_rooml_ru_exec_poststop1=«ifconfig bridge0 deletem epair0a» #export jail_vpn0_rooml_ru_exec_poststop2=«ifconfig epair0a destroy» # export jail_vpn0_rooml_ru_ip="" export jail_vpn0_rooml_ru_rootdir="/usr/home/main/jail/vpn0.rooml.ru" #export jail_vpn0_rooml_ru_exec_start1="/bin/sh /etc/rc" export jail_vpn0_rooml_ru_exec_stop="" export jail_vpn0_rooml_ru_mount_enable=«YES» export jail_vpn0_rooml_ru_devfs_enable=«YES» export jail_vpn0_rooml_ru_devfs_ruleset=«devfsrules_jail» export jail_vpn0_rooml_ru_procfs_enable=«YES» export jail_vpn0_rooml_ru_fdescfs_enable=«YES» export jail_vpn0_rooml_ru_image="" export jail_vpn0_rooml_ru_imagetype="" export jail_vpn0_rooml_ru_attachparams="" export jail_vpn0_rooml_ru_attachblocking="" export jail_vpn0_rooml_ru_forceblocking="" export jail_vpn0_rooml_ru_zfs_datasets="" export jail_vpn0_rooml_ru_cpuset="" export jail_vpn0_rooml_ru_fib="" export jail_vpn0_rooml_ru_parentzfs="" export jail_vpn0_rooml_ru_parameters="" export jail_vpn0_rooml_ru_post_start_script=""
Читать дальше

Проблемы (возможно) с диском под ESXi 5.1 у Hetzner?

«Внезапно» перестали заводиться виртуалки под ESXi 5.1 на сервере «с дешевым несерверным железом» у Хетцнера. Сам хост заводится, могу зайти на него по ssh. Еще могу зайти на сбойный диск и сделать ls и прочитать некоторые файлы, но большинство попыток прочитать другие файлы заканчивается так:

/vmfs/volumes/5060d5c3-875cbeb8-a8d3-406186e9d73d/Gentoo# tail -f vmware.log
tail: can't open 'vmware.log': Input/output error
tail: no files

Есть слабая надежда, что ситуацию можно исправить запустив какую-ту команду для проверки и восстановления файловой системы. Возможно, кто-то сталкивался с подобной проблемой и знает эти волшебные слова.

Вот фрагмент из /var/log/vmkernel.log, который, на мой взгляд, имеет отношение к этой проблеме.
Читать дальше

Заставить работать Samba 4

Система ArchLinux, имеется минимальный конфиг:
[server@dga-serv ~]$ cat /etc/samba/smb.conf [global] workgroup = WORKGROUP security = user [Pomoika] path = /mnt/p1/ guest ok = yes read only = No

проверяем конфиг:
[server@dga-serv ~]$ testparm -s /etc/samba/smb.conf Load smb config files from /etc/samba/smb.conf rlimit_max: increasing rlimit_max (1024) to minimum Windows limit (16384) Processing section "[Pomoika]" Loaded services file OK. Server role: ROLE_STANDALONE [global] idmap config *: backend = tdb [Pomoika] path = /mnt/p1/ read only = No guest ok = Yes

запускаем:
sudo systemctl start smbd nmbd

проверяем:

[server@dga-serv ~]$ ps -ef | grep smbd root 1485 1 0 17:38? 00:00:00 /usr/bin/smbd -D root 1488 1485 0 17:38? 00:00:00 /usr/bin/smbd -D server 1616 1150 0 17:58 pts/0 00:00:00 grep smbd [server@dga-serv ~]$ ps -ef | grep nmbd root 1483 1 0 17:38? 00:00:00 /usr/bin/nmbd -D server 1628 1150 0 17:59 pts/0 00:00:00 grep nmbd Проверяем Samba: [server@dga-serv ~]$ smbclient -L localhost -U% protocol negotiation failed: NT_STATUS_CONNECTION_DISCONNECTED

Получающий соединитель для Exchange 2007

Здравствуйте, друзья.
Прошу помощи у специалистов по MS Exchange 2007.

Такое дело: пытаюсь создать соединитель отправки, через который смогу посылать письма из командной строки, телнетом. Перепробовал все варианты — ничего не получается :( Какие бы способы проверки подлинности не указывал, неизменно возвращается такая ошибка:
# telnet mx.domain.local 250 Trying 192.168.1.3… Connected to mx.domain.local. Escape character is '^]'. 220 mx.domain.local Microsoft ESMTP MAIL Service ready at Tue, 6 Aug 2013 13:10:10 +0700 EHLO 250-mx.domain.local Hello [192.168.1.7] 250-SIZE 10485760 250-PIPELINING 250-DSN 250-ENHANCEDSTATUSCODES 250-AUTH LOGIN 250-8BITMIME 250-BINARYMIME 250 CHUNKING AUTH LOGIN 334 VXNlcm5hbWU6 bm90aWZpZXI= 334 UGFzc3dvcmQ6 bm90aWZpZXI= 535 5.7.3 Authentication unsuccessful QUIT 221 2.0.0 Service closing transmission channel Connection closed by foreign host.

В общем не проходит аутентификация. Пользователь конечно создан, логин/пароль передаю, как видите, в base64 (notifier/notifier) Уже всю голову сломал. Помогите советом :(