Куда конектится ssh?

система убунта 10.04
в логе auth.log странные записи:
Nov 10 08:26:55 Server sshd[16455]: error: connect_to 46.147.40.71 port 60281: failed. Nov 10 08:27:23 Server sshd[16455]: error: connect_to 93.157.125.35 port 51413: failed. Nov 10 08:27:24 Server sshd[16455]: error: connect_to 109.104.173.190 port 54877: failed. Nov 10 08:27:25 Server sshd[16455]: error: connect_to 213.131.78.234 port 24842: failed. Nov 10 08:28:26 Server sshd[16455]: error: connect_to 213.131.78.234 port 24842: failed. Nov 10 08:29:28 Server sshd[16455]: error: connect_to 78.25.122.80 port 15570: failed. Nov 10 08:29:28 Server sshd[16455]: error: connect_to 88.147.242.139 port 13091: failed. Nov 10 08:29:28 Server sshd[16455]: error: connect_to 85.115.243.108 port 38588: failed. Nov 10 08:29:28 Server sshd[16455]: error: connect_to 92.113.161.124 port 26964: failed. Nov 10 08:29:29 Server sshd[16455]: error: connect_to 93.170.72.244 port 63483: failed. Nov 10 08:29:29 Server sshd[16455]: error: connect_to 93.169.238.42 port 26418: failed. Nov 10 08:29:30 Server sshd[16455]: error: connect_to 46.133.238.206 port 29078: failed. Nov 10 08:29:30 Server sshd[16455]: error: connect_to 178.64.174.219 port 30450: failed. Nov 10 08:29:31 Server sshd[16455]: error: connect_to 95.24.33.179 port 14800: failed. Nov 10 08:29:31 Server sshd[16455]: error: connect_to 46.39.228.170 port 52090: failed. Nov 10 08:29:32 Server sshd[16455]: error: connect_to 178.92.180.233 port 60920: failed. Nov 10 08:29:32 Server sshd[16455]: error: connect_to 37.78.251.188 port 11769: failed. Nov 10 08:29:34 Server sshd[16455]: error: connect_to 178.121.192.60 port 29471: failed. Nov 10 08:29:34 Server sshd[16455]: error: connect_to 2.132.83.130 port 26108: failed. Nov 10 08:29:34 Server sshd[16455]: error: connect_to 189.105.92.155 port 41819: failed. Nov 10 08:29:35 Server sshd[16455]: error: connect_to
Читать дальше

Как управлять monit в системах с systemd, например на новой debian 8?

Дано: Debian 8, Monit
Нужно управлять сервисами через systemd

root@XXX: cat /etc/monit/conf.d/*
set httpd port XXX allow admin:******** check process openvpn matching «openvpn» start program = "/etc/init.d/openvpn start" stop program = "/etc/init.d/openvpn stop" if failed host 127.0.0.1 port XXX then restart if 5 restarts within 5 cycles then timeout

С указанием в конфигах управления через init.d все работает, но ни один из вариантов записи systemctl, systemd, service не работает

root@XXX: /etc/openvpn# monit validate
/etc/monit/conf.d/openvpn.cfg:3: Program does not exist: 'systemctl' /etc/monit/conf.d/openvpn.cfg:4: Program does not exist: 'systemctl'

Не устанавливаются агенты SC DPM 2012 R2?

Не могу установить удаленно агенты Data Protection Manager 2012 на рабочих станциях и серверах. При установке в оснастке Data Protection Manager пишет ошибку:
Сбой Установить агент защиты на SRV-DC1.domen.local:
Ошибка 324: Операция агента завершилась сбоем, так как служба координатора агента DPM на сервере SRV-DC1.domen.local не отвечает.
Описание: Код внутренней ошибки: 0x8099090E
А в событиях на устанавливаемой машине написано следующее:
Сбой связи агента DPM со службой DPM на сервере SRV-SC-DPM.domen.local, поскольку доступ запрещен. Убедитесь, что на сервере SRV-SC-DPM.domen.local имеются разрешения на запуск DCOM и доступ для компьютера, на котором запущен агент DPM (Код ошибки: 0x97e5f0, полное имя: SRV-SC-DPM.domen.local).
Какие разрешения надо дать?

Редиррект из корня сайта в подпапку (без отображения подпапки в URL)?

Дано:
В папке сайта (скажем site.ru) есть две подпапки: /dev и /web.
Мне нужно, чтобы при обращении в браузере к site.ru — грузился index.php из папки /web, и при этом в URL отображалось именно site.ru, а не site.ru/web.
Как это сделать? Через .htaccess можно или где-то в настройках сервера?

P.S. В /web лежит сайт на Joomla (и в его конфиге я ничего кроме пути к логам и tmp не нашел)

Проблема с базой?

Проблема такая при попытке вручную выгрузить базу начало выбивать такое сообщение "./run_1: line 8^ 12078 Аварийная остановка" и на экране виртуальной машины «Error writing 'Universal Server Massage Log' errno=28/opt/IBM/informix/tmp/online.log» при этом сам скрипт для выгрузки не был изменен, до вчерашнего дня отлично работал, на вопрос администратору «вы там что то изменяли?» был поставлен ответ про скачок электричества в тот день(я думаю вряд ли эти два события связаны, у них выгрузка происходит в 12 часов ночи). Я понимаю что информации мало, вы просто подскажите где копать, а я как нибудь справлюсь. п.с. Ехать лично к ним офис не очень хочу

Можно ли своим nginx'ом выбрать, что будет отдавать Cloudflare?

Дело в том, что сайт пока на стадии проектирования и логика сильно зависит от того, получится ли следующее:
1) Юзер делает запрос к странице, например, mysite.com/2193021
2) Cloudflare пересылает этот запрос на nginx моего хоста
3) Мой nginx проверяет, есть ли этот id в redis'е
— а) Если есть, отдает то, что сгенерит php-fpm
— б) Если нет, говорит Cloudflare отдать страницу из своего кэша
Собственно, возможно ли это сделать? С Cloudflare дел не имел, прочитал только пару мануалов.
Есть вариант возвращать какой-то код ошибки, к которому привязана статичная страница, что-то вроде 404. Но мне важно, чтобы до юзера она доходила с кодом 200 и без редиректов.

Почему Monit создает zombie процесс ruby (Rails+Puma)?

Добрый день! Возникла проблема на production при мониторинге процессов Rails приложения c сервером Puma. Для мониторинга и автозапуска использую Monit. Он успешно запускает Puma-сервер, worker'ы запускаются, начинают отжирать ресурсы, как положенно, но затем, спустя секунд 20, worker'ы становятся zombie с нулями ресурсов, и затем пытаются снова запуститься, и всё переходит в замкнутый цикл — ресурсы есть — зомби — ресурсы есть. Соответственно приложение на запросы не отвечает. Вот скрипт для Monit в /etc/monit/conf.d/puma.monit:

check process puma with pidfile /usr/local/src/my_site/shared/tmp/puma.pid group puma start program = "/bin/su username -c 'cd /usr/local/src/my_site/current && ( RACK_ENV=production /usr/bin/env bundle exec puma -C /usr/local/src/my_site/shared/config/puma.rb --daemon )'" stop program = "/bin/su username -c 'cd /usr/local/src/my_site/current && ( bundle exec pumactl -P /usr/local/src/my_site/shared/tmp/puma.pid stop)'"

OS — Linux 3.13.0-042stab111.12 (Ubuntu 14.04, x86_64, English)
Monit version 5.14

Если же делать запуск Puma вручную из консоли от user'a, то все работает прекрасно, но естественно нет мониторинга и автозапуска после ребута сервера. (cd /usr/local/src/my_site/current && ( RACK_ENV=production /usr/bin/env bundle exec puma -C /usr/local/src/my_site/shared/config/puma.rb --daemon )
Может кто-то сталкивался с такой проблемой, буду очень благодарен за совет? Курил маны, гуглил форумы очень долго — вроде настроил все верно…

Что мешает web-серверу?

Здравствуйте. Помогите пожалуйста решить проблему. На сервере спокойно жила панель управления webmin(на 10000 порту), так же крутился апач. После установки некоторого ПО, все это перестало быть доступным. Не понимаю что может этому мешать.
nmap localhost

Starting Nmap 6.40 ( nmap.org ) at 2015-10-24 19:41 EDT
mass_dns: warning: Unable to determine any DNS servers. Reverse DNS is disabled. Try using --system-dns or specify valid servers with --dns-servers
Nmap scan report for localhost (127.0.0.1)
Host is up (0.0012s latency).
Not shown: 991 closed ports
PORT STATE SERVICE
21/tcp open ftp
22/tcp open ssh
25/tcp open smtp
80/tcp open http
111/tcp open rpcbind
139/tcp open netbios-ssn
445/tcp open microsoft-ds
3306/tcp open mysql
10000/tcp open snet-sensor-mgmt
Читать дальше

Как организовать автоматизацию включения и выключения серверов в облаке Microsoft Azure?

Требуется организовать возможность включения и выключения серверов в облаке пользователями. Пользователь должен заполнять форму когда ему нужен доступ к серверу, желательно чтобы эта форма была на каком-либо общедоступном ресурсе- типа google drive. Пользователь заполняет поля Включить с ВРЕМЯ до ВРЕМЯ, после этого меняется график включения серверов. После этого, отправляем письмо группе рассылке с текстом «Пользователь ИМЯ_ПОЛЬЗОВАТЕЛЯ», изменил время работы серверов с 07:00 до 23:45.

Сейчас включение и выключение организовано с помощью powershell и планировщика задач на одном из серверов в облаке, корректировка графика производится администратором.
Как возможно автоматизировать процесс обработки заявок от пользователей о времени включения-выключения серверов?

та веб-страница нужна для того, чтобы пользователи могли самостоятельно устанавливать время работы серверов в компании. Стандартный график задает администратор. Пользователи вносят в него изменения, при необходимости.

1. Делаем веб-страницу с авторизацией в домене Windows. Без сохранения где-либо пароля доменной учетной записи. Нужна прозрачная авторизация для доменных авторизованных пользователей.
Читать дальше

В чем ошибка смены пароля в roundcube?

Добрый день! Имеется связка Openldap + dovecot + postfix + roundcube на Centos7. Авторизацию dovecot + postfix + roundcube я все настроил через Openldap. Я без проблем логинюсь в roundcube, аутлук, почта отправляется и приходит. Но вот встала задача сделать так чтобы производилась смена пароля в roundcube. Попробовал сменить пароль в текущей конфигурации получил ошибку «Не могу сохранить новый пароль. Ошибка соединения.»
И дальше начались пляски с бубном.
Первое что пришло в голову это отсутствие прав записи у учетных записей служб в опенлдап, добавил возможность записывать и видеть пароли — резутат тот же(
Менял тип шифрования пароля через «phpldapadmin»,
менял значения в файле (/usr/share/roundcubemail/plugins/password/config.inc.php ) "$config['password_ldap_encodage'] = 'ssha';" (было и clear и md5 и crypt),
пробовал добавлять «default_pass_scheme = CRYPT» в файл "/etc/dovecot/dovecot-ldap.conf.ext"
пробовал добавлять «cram-md5» в файле "/etc/dovecot/conf.d/10-auth.conf" в строке «auth_mechanisms = plain login», но тогда авторизация ломается, тк пытается авторизовываться через cram-md5.
В логах тоже ничего полезного не пишут (смотрел /var/log/maillog)
Помогите разобраться в чем проблема?!
немного конфигов
подключение довкот /etc/dovecot/dovecot-ldap.conf.ext
hosts = server.com:389 auth_bind = yes dn = uid=dovecot,ou=services,dc=server,dc=com dnpass = pass ldap_version = 3 base = dc=server,dc=com deref = never scope = subtree user_attrs = mailHomeDirectory=home,uidNumber=uid,gidNumber=gid user_filter = (&(objectClass=PostfixBookMailAccount)(mail=%u)) pass_attrs = mail=user,userPassword=password
Читать дальше