Какую DKIM запись делать в DNS, если DKIM с другого домена на том же VPS?

Домены на одном VPS ( ISPmanager 5, CentOS 7 64)

При рассылке писем c с сайта XXX.TLD используется адрес домена YYY.TLD, на который прописан PTR
(и соответственно записи DNS):
Домен xxx.tld: Хост ххх.tld. Тип: MX Значение: mail.yyy.tld
Домен yyy.tld: Хост yyy.tld Тип: MX Значение: mail.yyy.tld

Googl-mail отправляет почтовую рассылку с сайта XXX.TLD в спам-ящик (что уже хорошо),
указывая:
SPF: SOFTFAIL, IP-адрес 2a03:ax00:1:7502:5054:xf:fe00:b0f1 Подробнее…
DKIM: PASS, домен YYY.TLD Подробнее…
DMARC: FAIL Подробнее…(… Чтобы обеспечить аутентификацию почты, отправляемой независимыми поставщиками, предоставьте им свой ключ DKIM, который они должны добавлять в ваши сообщения, или организуйте пересылку этих сообщений через вашу сеть)

Вопрос: Какие записи DNS надо произвести (селектор rsmail) для того, чтоб почта поступала у Googlemail c DMARC: PASS?

Полная запись в письме при поступлении письма подписки в Gmail:
Delivered-To: ххх@gmail.com
Received: by 10.83.21.17 with SMTP id 17csp10675yxv;
Fri, 9 Jun 2017 17:58:18 -0700 (PDT)
Читать дальше

Apache Ошибка 400 При запросе через https. Как найти причину?

Здравствуйте!
Физический сервер, Debian, ISPmanager, Apache, PHP как модуль Apache.
Недавно купил сертификат, установил его через ISPManager. При переходе через my.domain — сайт открывается и работает нормально. Но при переходе через my.domain — Chrome вообще не открывает сайт, а Mozilla, Safari и другие выводят ошибку 400.

MOD_SSL — включен. Содержимое ssl.conf:
SSLRandomSeed startup builtin SSLRandomSeed startup file:/dev/urandom 512 SSLRandomSeed connect builtin SSLRandomSeed connect file:/dev/urandom 512 AddType application/x-x509-ca-cert .crt AddType application/x-pkcs7-crl .crl SSLPassPhraseDialog builtin SSLSessionCache shmcb:${APACHE_RUN_DIR}/ssl_scache(512000) SSLSessionCacheTimeout 300 SSLMutex file:${APACHE_RUN_DIR}/ssl_mutex SSLCipherSuite HIGH:MEDIUM:!aNULL:!MD5 #SSLCipherSuite RC4-SHA:AES128-SHA:HIGH:MEDIUM:!aNULL:!MD5 #SSLHonorCipherOrder on # enable only secure protocols: SSLv3 and TLSv1, but not SSLv2 SSLProtocol all -SSLv2 # Allow insecure renegotiation with clients which do not yet support the # secure renegotiation protocol. Default: Off SSLInsecureRenegotiation off # Whether to forbid non-SNI clients to access name based virtual hosts. # Default: Off SSLStrictSNIVHostCheck off

apache2.conf:
# It is split into several files forming the configuration hierarchy outlined # below, all located in the /etc/apache2/ directory: # # /etc/apache2/ # |-- apache2.conf # | `-- ports.conf # |-- mods-enabled # | |-- *.load # | `-- *.conf # |-- conf.d # | `-- * # `-- sites-enabled # `-- *
Читать дальше

Работа с виртуальным адаптером сети Proxmox, две сети, как быть?

Привет коллеги, помогите пожалуйста, давно с сетями не работал сижу ломаю голову у меня есть Proxmox v4 установленный на Debian
Имею две сети VMBR0 — с выходом в инет и VMBR2 локальная сеть 192.168.0.1/24
Есть несколько выделенных IP они ходят в инет через VMBR0, но виртуальные машины должны тоже иметь выход в инет и иметь доступ до виртуалок с выделенным IP, я настроил маскарадинг для VMBR2 через VMBR0 т.е NAT теперь машины 192.168.0.1 имеют выход в инет но не могут достучаться до виртуалок с выделенным IP, я к виртуалкам с выделенным IP подключил второй адаптер VMBR2 и выдал им iP из сети 192.168.0.1 теперь все работает, но мне кажется это не правильно и можно как-то разрулить это все маршрутами, или я не прав?
И ещё вопрос если на виртулках которые используют VMBR2 или VMBR2 и VMBR0 включить на интерфейсе VMBR2 фаервол то пинг до внешних ресурсов перестает проходить, хотя с VMR0 таких проблем нет, настроил нужные порты и все работает, в чем может быть загвоздка?
Спасибо!

Как правильно настроить маршрутизацию?

В локальной сети есть web-сервер, который настроен на 80 порт. На Микротике №1 настроен DNAT, с помощью которого пробрасываю 80 порт с WAN на web-сервер. Адрес Микротика №1 192.168.100.254, а адрес web-сервера 192.168.100.100. Проброс работает замечательно, пока Микротик №1 и web-сервер в одной подсети:

/ip firewall nat add action=dst-nat chain=dstnat dst-address=1.2.3.4 dst-port=80 \ in-interface=eth10 protocol=tcp to-addresses=192.168.100.100 to-ports=80

Но как только я переключаю web-сервер на подсетку 192.168.200.0/24 (присваиваю ему адрес 192.168.200.100), проброс перестаёт работать:

/ip firewall nat add action=dst-nat chain=dstnat dst-address=1.2.3.4 dst-port=80 \ in-interface=eth10 protocol=tcp to-addresses=192.168.200.100 to-ports=80

Хотя на Микротике №1 в статических маршрутах я указал подсеть 192.168.200.0/24, а на Микротике №2 указал подсеть 192.168.100.0/24. Обе подсети без проблем доступны друг другу.

Почему перестаёт работать проброс после переключения web-сервера на другую подсеть? Web-сервер без проблем пингуется. В логах видно, что NAT работает. Но складывается ощущение, что ответ от web-сервера не приходит.

Схема для наглядности:

Как исправить ошибку запуска steambot (LOGON FAIL 85)?

Здравствуйте, помогите пожалуйста.
Ошибка запуска steambot logon fail 85
Error: Logon fail: 85
at SteamClient.handlers.(anonymous function) (/bot/node_modules/steam/lib/handlers/user.js:178:11)
at SteamClient._netMsgReceived (/bot/node_modules/steam/lib/steam_client.js:106:26)
at SteamClient.handlers.(anonymous function) (/bot/node_modules/steam/lib/steam_client.js:192:10)
at SteamClient._netMsgReceived (/bot/node_modules/steam/lib/steam_client.js:106:26)
at emitOne (events.js:115:13)
at Connection.emit (events.js:210:7)
at Connection._readPacket (/bot/node_modules/steam/lib/connection.js:50:8)
at emitNone (events.js:105:13)
at Connection.emit (events.js:207:7)
at emitReadable_ (_stream_readable.js:500:10)
КАК МОЖНО ИСПРАВИТЬ?
Заранее Спасибо)

Проблема с пренаправлением почты. Как исправить?

Добрый день.
Для почтового ящика на сервере Postfix настроил перенаправление входящей почты по схеме
sender1@domain1.com -> user@MYDOMAIN.com -> recipient@domain2.com
Оно работает, но если domain1.com=domain2.com, т.е. получается
sender1@domain1.com -> user@MYDOMAIN.com -> recipient@domain1.com,
то доставка до recipient@domain1.com не осуществляется, а sender1@domain1.com получает от сервера MYDOMAIN.com ошибку авторизации на сервере domain1.com. Зачем он запрашивает авторизацию — не понимаю.

Использую систему:
CentOS Linux release 7.3.1611 (Core)
MySQL: Mariadb-server 5.5.52
web-server: Nginx 1.10.2
iRedMail-0.9.6 MARIADB edition
iRedAdmin-Pro-SQL-2.6.0
Уже пробовал настраивать перенаправление через:
1) iRedAdmin-Pro в разделе Forwarding;
2) iRedAdmin-Pro в разделе BCC;
3) в клиентском интерфейсе почтового ящика;
4) через SQL-сервер, добавление/редактирование таблицы vmail.alias

Моё понимание происходящего осложняется ещё и тем, что если в качестве sender1@domain1.com и
Читать дальше

Как монтировать в ubuntu raid fake?

Добрый день, уважаемые эксперты! Прошу прощение. что отвлекаю Вас от ваших дел. Но нужен совет, своего опыта не хватает.
Ситуация такая, используется fakeraid на материнской плате www.supermicro.com/products/motherboard/xe....
Есть 4 жестких диска, 2 ssd и 2 hdd. Через утилиту встроенную в материнскую плату, поднято 2 raid 1го уровня.
Установка ubuntu идет на raid SSD, все проходит хорошо, система устанавливается. Вопрос, как монтировать raid который на HDD?
PS. автор поста понимает, что лучше сделать софт раид, но увы руководств автора, его не признают.
sudo blkid:
/dev/sda: TYPE=«isw_raid_member» /dev/mapper/isw_dbaicgbcdf_Volume0: PTUUID=«08f441da-6c5c-45d0-9b40-519ef99e9218» PTTYPE=«gpt» /dev/sdb: TYPE=«isw_raid_member» /dev/mapper/isw_dbaicgbcdf_Volume0p1: UUID=«50A9-186B» TYPE=«vfat» PARTLABEL=«EFI System Partition» PARTUUID=«debec49a-ae0c-4062-a715-d87b0e6f8eb7» /dev/sdc: TYPE=«isw_raid_member» /dev/mapper/isw_dbaicgbcdf_Volume0p2: UUID=«d326f6ae-afc5-46d8-b2df-5bc78193821b» TYPE=«ext4» PARTUUID=«13abac44-78e3-4bd5-9fd9-d6c8ceeea109» /dev/mapper/isw_dbaicgbcdf_Volume0p3: UUID=«682006d7-9bf6-456e-be98-d79e8d076aab» TYPE=«swap» PARTUUID=«31767d24-f4d3-4516-8db0-8f3a1bc96aeb» /dev/sdd: TYPE=«isw_raid_member» /dev/sdf1: LABEL=«FREEDOS» UUID=«52D4-FCF6» TYPE=«vfat» PARTUUID=«23526cf6-01»

cat /proc/partitions
major minor #blocks name 8 0 146523384 sda 8 16 146523384 sdb 253 0 139143300 dm-0 8 32 976762584 sdc 253 1 524288 dm-1 253 2 105176064 dm-2 253 3 33441792 dm-3 8 48 976762584 sdd 253 4 927881348 dm-4 8 80 3933184 sdf 8 81 3887072 sdf1
sudo mount /dev/sdd /mnt/bd -t auto -o rw,nls=utf8,noatime
mount: unknown filesystem type 'isw_raid_member'
/dev/mapper/
control isw_dbaicgbcdf_Volume0p1 isw_dbaicgbcdf_Volume0p3 isw_dbaicgbcdf_Volume0 isw_dbaicgbcdf_Volume0p2 isw_dhfhegacbi_Volume1

Заранее спасибо Вам за вашу помощь!

Как правильно организовать отказоустойчивость ESXi?

Здравствуйте, у меня 2 сервера с ESXi 6.0, один обычный, второй за серой сетью, но перед ним маршрутизатор, на котором можно поднять VPN. Первый сервер у Хецнера, второй в подвале. Второй планируется делать резервным, чтобы на него переключаться, в случае проблем с основой. Внутри из сервисов: терминальный сервер, мускуль и 1С с файловиком, обычная структура малого бизнеса. Как правильнее организовать отказоустойчивость, при наличии белого адреса только у одного из серверов?
Во-первых, сначала хотелось бы завести серверы в сферу, сначала казалось, что нужно будет пробрасывать кучи портов ESXi-приблуд и т.д., но пока писал этот пост понял, что сам сервер сферы можно поставить на резерв, так и ресурсы сэкономим и по серому адресу к резерву спокойно сможем обратиться (Кластеру же не нужно в обе стороны между собой общаться белыми адресами?). Если этого сделать не удастся, то планирую снять за 200руб\мес у какого-нибудь Айхора виртуалку на KVM, поднять openvpn-сервер, настроить DMZ в резервный сервер через тоннель, т.о. обеспечив ему якобы белый IP. Затем, написать в iptables этой виртуалки направление RDP на Основной сервер и комментировать его при необходимости переключения. Собственно, есть ли какие-то более гладкие способы решения задачи и приведения всего в божеский вид? Мне не нравится, что пользователям в этом случае обязательно придётся бегать через тоннель. Или можно написать правило, которым vpn-виртуалка будет без тоннеля на основной сервер перенаправлять пакеты пользователей, а уже в случае ЧП заворачивать их в резервный? Всё равно лишний узел в цепи получается. Опять же, можно на самом Хенцере услугу перенаправления заказать, что-то такое было, включать её в случае ЧП. Поделитесь опытом, пожалуйста.

В ISPManager пропали домены в пункте WWW, как вернуть?

Поставил связку Apache+Nginx и пропали в ISPManager в пункте WWW домены.

Сапорт написал:
Здравствуйте.

Данная проблема связана с тем что ISPmanager не может найти записи по доменах в файле nginx.conf
May 13 16:36:46 [ 7998:12] WARNING vhost '*******a.net' not found in main config. Skip it
May 13 16:36:46 [ 7998:12] WARNING vhost '*******a.ru' not found in main config. Skip it
May 13 16:36:46 [ 7998:12] WARNING vhost '*******e.ru' not found in main config. Skip it
May 13 16:36:46 [ 7998:12] WARNING vhost '*******ame.ru' not found in main config. Skip it
May 13 16:36:46 [ 7998:12] WARNING vhost '*******bs.info' not found in main config. Skip it
May 13 16:36:46 [ 7998:12] WARNING vhost '*******a.ru' not found in main config. Skip it

Вам нужно передавить www домены в панель управления ISPmanager

Предупреждаю сразу, я тупой, ткните пожалуйста носом куда что прописать, чтобы исправить.)))

Чем может быть вызвана такая ошибка supervisord?

Пытаюсь запустить эту сборку через docker-compose
При запуске выпадает такой лог и все:
docker-compose up Starting example_php-server_1 Attaching to example_php-server_1 php-server_1 | /usr/lib/python2.7/dist-packages/supervisor/options.py:297: UserWarning: Supervisord is running as root and it is searching for its configuration file in default locations (including its current working directory); you probably want to specify a "-c" argument specifying an absolute path to a configuration file for improved security. php-server_1 | 'Supervisord is running as root and it is searching ' php-server_1 | 2017-05-11 18:50:01,689 CRIT Set uid to user 0 php-server_1 | 2017-05-11 18:50:01,690 WARN No file matches via include "/etc/supervisor/conf.d/*.conf" php-server_1 | 2017-05-11 18:50:01,718 INFO RPC interface 'supervisor' initialized php-server_1 | 2017-05-11 18:50:01,719 CRIT Server 'unix_http_server' running without any HTTP authentication checking php-server_1 | 2017-05-11 18:50:01,720 INFO supervisord started with pid 1 php-server_1 | 2017-05-11 18:50:02,725 INFO spawned: 'cron' with pid 7 php-server_1 | 2017-05-11 18:50:02,735 INFO spawned: 'nginx' with pid 8 php-server_1 | 2017-05-11 18:50:02,764 INFO spawned: 'php-fpm7.0' with pid 9 php-server_1 | 2017-05-11 18:50:03,950 INFO success: cron entered RUNNING state, process has stayed up for > than 1 seconds (startsecs) php-server_1 | 2017-05-11 18:50:03,951 INFO success: nginx entered RUNNING state, process has stayed up for > than 1 seconds (startsecs) php-server_1 | 2017-05-11 18:50:03,952 INFO success: php-fpm7.0 entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)

Система чистая. Все ставится первый раз. Сейчас только учусь работать с докером и всем вытекающим. Исходя из гугления — не совпадают переменные окружения. Но решения как все донастроить я не нашел. Да и знаний в администрировании у меня мало. Подскажите, как решить?
Заранее благодарю