Можно ли узнать, какой файл открыл SMTP соединение на сервере с Exim?

Хостер часто блокирует почтовый трафик на сервере, после последней проверки не удалось выявить каких-либо вредоносных скриптов, по заголовкам из писем удалось получить список файлов, которые выполняли отправку — они так же были проверены и угроз не несут. Возникло подозрение, что возможно помимо спама с помощью функции mail() на сервере, сервер подцепил что-то, что рассылает спам через сторонний сервер.

Команда lsof | grep smtp вывела:
[root@domain ~]# lsof | grep smtp exim 12669 exim 3u IPv6 1617849445 0t0 TCP *:smtp (LISTEN) exim 12669 exim 4u IPv4 1617849446 0t0 TCP *:smtp (LISTEN) exim 21248 exim 10u IPv4 1791358785 0t0 TCP domain.ru:52790->ol-in-f27.1e100.net:smtp (SYN_SENT) exim 21957 exim 9u IPv4 1791378187 0t0 TCP domain.ru:smtp->52.175.23.137:63597 (CLOSE_WAIT) exim 21957 exim 10u IPv4 1791378187 0t0 TCP domain.ru:smtp->52.175.23.137:63597 (CLOSE_WAIT)

После перезапуска exim:

[root@domain~]# lsof | grep smtp exim 12669 exim 3u IPv6 1617849445 0t0 TCP *:smtp (LISTEN) exim 12669 exim 4u IPv4 1617849446 0t0 TCP *:smtp (LISTEN) exim 25222 exim 9u IPv4 1792563905 0t0 TCP domain.ru:smtp->52.175.23.137:54652 (CLOSE_WAIT) exim 25222 exim 10u IPv4 1792563905 0t0 TCP domain.ru:smtp->52.175.23.137:54652 (CLOSE_WAIT) exim 25227 exim 9u IPv4 1792575077 0t0 TCP domain.ru:smtp->52.175.23.137:54046 (ESTABLISHED) exim 25227 exim 10u IPv4 1792575077 0t0 TCP domain.ru:smtp->52.175.23.137:54046 (ESTABLISHED)

Не силен в администрировании, но так понимаю, что перед перезапуском было открыто соединение с сервером ol-in-f27.1e100.net — явно какая-то нечисть. UDP — выяснил что это гугл, но через его SMTP с сервера ничего отправляться не должно. Только яндекс и выделенный почтовый сервер на стороне мелкомягких.

Собственно, возник вопрос: а можно ли узнать, какой файл на сервере открыл соединение с тем или иным сервером из вывода этой команды? Спасибо.

Как ускорить exim4?

Задача, отправлять письма максимально быстро.
У нас есть база в 400к легально собранных адресов, людей, которые сами подписались, так что это не спам.
Хочется 400к писем отправиться за 1-2 часа.
Есть ли у кого рецепты, как с 1 сервера отправить быстро через exim4 столько писем?
1. spool в память запихнули
2. паралельную отправку включили
в целом, все рецепты из интернетов попробовали, но имеет около 15-20 писем в секунду, надо больше.
По ресурсам не упираемся ни в сеть ни в диски ни в процессор.

Подозрительные запросы к серверу?

Здравствуйте! Помогите разобраться, с самого момента регистрации vps-сервера к серверу идут запросы на поиск уязвимостей, запросы идут с разных ip адресов, техподдержка хостера говорит что это не их проблемы, на данный момент сменить хостера нет возможности. Подскажите как с этим бороться?
Запросы вида:
/catalog/?arrFilter_23_2322626082=Y%26amp%3Bset_filter%3DY%20UNION%20ALL%20SELECT%20NULL%2CNULL%2CNULL%2CNULL%2CNULL%2CNULL%2CNULL%2CNULL%2CNULL%2CNULL%23
/phpma/index.php
/db/index.php
/pmamy2/index.php
/scripts/setup.php
/sql/scripts/setup.php
/webdb/
/agSearch/SQlite/main.php
/SQlite/main.php
/bitrix/cache/js/s1/romza_shinmarket_1.4.0/kernel_main/kernel_main.js?1483711787412009
/zabbix/jsrpc.php

Маршрут в локальную сеть клиента Openvpn через его сервер, как настроить?

Есть сервер OpenVPN, к нему подключены клиенты, нужно настроить маршрутизацию до локальной сети, которая доступа за одним из клиентов
IP OpenVPN сервера — 192.168.1.1
IP Клиента за которым. нужно получить доступ в локальную сеть — 192.168.1.10
Локальная сеть за ним — 10.0.2.0.24
Прописываю маршрут в сторону OVPN-клиента
route add -net 10.0.2.0/24 gw 192.168.1.10
openvpn# route -n Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 10.0.2.0 192.168.1.10 255.255.255.0 UG 0 0 0 tun-o
Но пинга нет
Что надо еще настроить?

Как запустить sqlite3.exe из косноли чтобы применить команду vacuum к базе?

Доброго времени суток!

Подскажите, пожалуйста, реальный пример как использовать утилиту sqlite3.exe чтобы освободить пустое пространство в базе (применить команду vacuum), пример нужен со всеми параметрами, тонкостями, кавычками, требованиями к путям и т. д. ибо абсолютно не понятно как пользоваться утилитой из cmd файла. Уже много времени потратил, но никак не могу разобраться, а откладывать в долгий ящик надоело.

Дополнительные пожелания: крайне желательно чтобы временный файл хранился в ОЗУ.

Будет применяться так:

forfiles.exe /p "%PATH_TO_VACUUM%" /s /m *.sqlitedb /c «sqlite3.exe XXXXXX @path\@file XXXXXX „

Какое правило IPTABLES мешает работе виртуалки?

Пробую настроить виртуализацию на сервере SoyouStart (OVH) — вроде всё настроил правильно, но не работает резолв адресов внутри виртуалки. В ней же невозможно что либо установить и нет возможности связаться с ней по SSH. Как оказалось, в предустановленном образе ОС от ovh ipitables настроен необычным образом.

Я сбросил все правила ipitables на хосте и в виртуалке всё заработало
iptables-restore # Таблица filter и её цепочки *filter :INPUT ACCEPT [0:0] :FORWARD ACCEPT [0:0] :OUTPUT ACCEPT [0:0] # Разрешаем связанные и установленые соединения -A INPUT -m conntrack --ctstate RELATED,ESTABLISHED -j ACCEPT # Разрешаем служебный icmp-трафик -A INPUT -p icmp -j ACCEPT # Разрешаем доверенный трафик на интерфейс loopback -A INPUT -i lo -j ACCEPT COMMIT

Помогите пожалуйста понять, какое именно правило мешает нормальной работе виртуалки.
Дамп правил до полного сброса

# Generated by iptables-save v1.6.0 on Fri Feb 9 17:02:38 2018 *raw :PREROUTING ACCEPT [45528:3229067] :OUTPUT ACCEPT [28390:6649125] COMMIT # Completed on Fri Feb 9 17:02:38 2018 # Generated by iptables-save v1.6.0 on Fri Feb 9 17:02:38 2018 *nat :PREROUTING ACCEPT [18482:1078668] :INPUT ACCEPT [5690:338420] :OUTPUT ACCEPT [2108:902153] :POSTROUTING ACCEPT [5977:1025961] -A POSTROUTING -s 192.168.122.0/24 -d 224.0.0.0/24 -j RETURN -A POSTROUTING -s 192.168.122.0/24 -d 255.255.255.255/32 -j RETURN -A POSTROUTING -s 192.168.122.0/24! -d
Читать дальше

Как проверить статус Zope (NauDoc, электронный документооборот)?

Привет. Пытаюсь поднять на Centos7 систему электронного документооборота NauDoc. Он требует установку Zope. Сама установка проходит нормально. При запуске сервера приложений Zope командой zopectl start из её родного каталога система выдает ". daemon process started, pid=_например_2838". И как будто все запустилось. Но такого процесса не существует (существует _например_ 2837, который через пару минут пропадает ), обозначенным портом по умолчанию (8080, разрешен в iptables) никто не пользуется, веб-интерфейс по пути не доступен. Кто-то сталкивался с такой штукой вообще? Есть ли возможность выяснить, запустилась ли эта Zope вообще? Может быть, её можно запустить как-то иначе (например, более правильно)? Логов не создает (или прячет так глубоко, что не могу найти).
Запускаю на виртуалке, настроенной мостом. На этой же виртуалке уже крутится астериск с FreePBX, они отвечают нормально, доступ к вебморде есть.

MySQL: как при удаленном запросе получить данные о результатах выполнения как при локальном запросе?

При локальном выполнении запроса mysql выдает после выполнения данные о количестве измененных строк, времени выполнения и т.д.

mysql> update testtable set comment='comment_new' where comment='comment_1';
Query OK, 1 row affected (0.03 sec)
Rows matched: 1 Changed: 1 Warnings: 0

Если же выполнить запрос удаленно

mysql --user username --password paswd -h 192.168.x.x --database testdb -e «update testtable set comment='comment_new' where comment='comment_1';»

то при успешном выполнении запроса в выводе будет пусто.

Соответственно, вопрос: как при удаленном выполнении получить данные о количестве затронутых строк и времени выполнения запроса?

Почему не получается установить session.gc_maxlifetime?

Здравствуйте!
Вот чать конфигурации:
session.auto_start = 1 session.gc_probability = 100 session.gc_divisor = 1 session.gc_maxlifetime = 100
То есть сессии должны отчищаться с частотой 1 секунда со 100%-й вероятностью
Вот код:

Я обновляю страницу каждые 5 секунд (сессия в это время должна отчиститься), и почему то сессия до сих пор жива! Ведь прошло аж 5 секунд! И счетчие почему то инкрементируется! Что я делаю не так?
У меня получается, что сессия умирает только если закрыть браузер.
Заранее спасибо.

Как перенести данные на новый контейнер, без потерь?

Всем привет! Суть вопроса следующая. У меня есть контейнер с Nextcloud, данные и база данных на отдельных «хостах».
БД (postgres), хранилище подключается по nfs. Вышел официальный контейнер Nextcloud. Не получается его запустить на существующие данные и бд.
Новый контейнер запускаю направляю его на ранее используемые директории (предыдущего) и передаю при запуске образа в переменных БД.

Не пойму где ошибку искать контейнер работает, не отваливается. Захожу внутрь контейнера директории внутри него замонтированы, но APP не отвечает?
Также проверяю внутри контейнера переменную BD база верная.

При старте контейнера не создается конфиг. Я конфиг копирую руками и правлю под нужды.
В чем может быть проблема? В каккую сторону копать, как задебажить ошибку?

docker logs container — ничего полезного не показывает.