Почему не работает systemd?

по факту есть — "/root/work/src/app/project" — это директория go проекта. Там есть бинарник
— «project», полученный через go build.

А теперь сам сервисный файл (goproject.service) находящийся в "/etc/systemd/system":
[Unit] Description=goproject [Service] User=root Group=root Restart=on-failure ExecStart=/root/work/src/app/project [Install] WantedBy=multi-user.target

systemctl status goproject:
goproject.service — goproject
Loaded: loaded (/etc/systemd/system/goproject.service; enabled; vendor preset: enabled)
Active: inactive (dead) (Result: exit-code) since Sun 2017-06-18 06:38:27 UTC; 1min 4s ago
Process: 20271 ExecStart=/root/work/src/app/project (code=exited, status=203/EXEC)
Main PID: 20271 (code=exited, status=203/EXEC)

Jun 18 06:38:27 project systemd[1]: goproject.service: Unit entered failed state.
Jun 18 06:38:27 project systemd[1]: goproject.service: Failed with result 'exit-code'.
Jun 18 06:38:27 project systemd[1]: goproject.service: Service hold-off time over, scheduling restart.
Jun 18 06:38:27 project systemd[1]: Stopped goproject.
Jun 18 06:38:27 project systemd[1]: goproject.service: Start request repeated too quickly.
Jun 18 06:38:27 project systemd[1]: Failed to start goproject.
Jun 18 06:38:35 project systemd[1]: goproject.service: Start request repeated too quickly.
Jun 18 06:38:35 project systemd[1]: Failed to start goproject.

Однако сам проект запускается, если запускать его вот так:
$ cd /root/work/src/app/project $ project

P.S. в системном администрирование новичок. Пожалуйста объясните ошибку по подробнее.

Какую DKIM запись делать в DNS, если DKIM с другого домена на том же VPS?

Домены на одном VPS ( ISPmanager 5, CentOS 7 64)

При рассылке писем c с сайта XXX.TLD используется адрес домена YYY.TLD, на который прописан PTR
(и соответственно записи DNS):
Домен xxx.tld: Хост ххх.tld. Тип: MX Значение: mail.yyy.tld
Домен yyy.tld: Хост yyy.tld Тип: MX Значение: mail.yyy.tld

Googl-mail отправляет почтовую рассылку с сайта XXX.TLD в спам-ящик (что уже хорошо),
указывая:
SPF: SOFTFAIL, IP-адрес 2a03:ax00:1:7502:5054:xf:fe00:b0f1 Подробнее…
DKIM: PASS, домен YYY.TLD Подробнее…
DMARC: FAIL Подробнее…(… Чтобы обеспечить аутентификацию почты, отправляемой независимыми поставщиками, предоставьте им свой ключ DKIM, который они должны добавлять в ваши сообщения, или организуйте пересылку этих сообщений через вашу сеть)

Вопрос: Какие записи DNS надо произвести (селектор rsmail) для того, чтоб почта поступала у Googlemail c DMARC: PASS?

Полная запись в письме при поступлении письма подписки в Gmail:
Delivered-To: ххх@gmail.com
Received: by 10.83.21.17 with SMTP id 17csp10675yxv;
Fri, 9 Jun 2017 17:58:18 -0700 (PDT)
Читать дальше

Apache Ошибка 400 При запросе через https. Как найти причину?

Здравствуйте!
Физический сервер, Debian, ISPmanager, Apache, PHP как модуль Apache.
Недавно купил сертификат, установил его через ISPManager. При переходе через my.domain — сайт открывается и работает нормально. Но при переходе через my.domain — Chrome вообще не открывает сайт, а Mozilla, Safari и другие выводят ошибку 400.

MOD_SSL — включен. Содержимое ssl.conf:
SSLRandomSeed startup builtin SSLRandomSeed startup file:/dev/urandom 512 SSLRandomSeed connect builtin SSLRandomSeed connect file:/dev/urandom 512 AddType application/x-x509-ca-cert .crt AddType application/x-pkcs7-crl .crl SSLPassPhraseDialog builtin SSLSessionCache shmcb:${APACHE_RUN_DIR}/ssl_scache(512000) SSLSessionCacheTimeout 300 SSLMutex file:${APACHE_RUN_DIR}/ssl_mutex SSLCipherSuite HIGH:MEDIUM:!aNULL:!MD5 #SSLCipherSuite RC4-SHA:AES128-SHA:HIGH:MEDIUM:!aNULL:!MD5 #SSLHonorCipherOrder on # enable only secure protocols: SSLv3 and TLSv1, but not SSLv2 SSLProtocol all -SSLv2 # Allow insecure renegotiation with clients which do not yet support the # secure renegotiation protocol. Default: Off SSLInsecureRenegotiation off # Whether to forbid non-SNI clients to access name based virtual hosts. # Default: Off SSLStrictSNIVHostCheck off

apache2.conf:
# It is split into several files forming the configuration hierarchy outlined # below, all located in the /etc/apache2/ directory: # # /etc/apache2/ # |-- apache2.conf # | `-- ports.conf # |-- mods-enabled # | |-- *.load # | `-- *.conf # |-- conf.d # | `-- * # `-- sites-enabled # `-- *
Читать дальше

Работа с виртуальным адаптером сети Proxmox, две сети, как быть?

Привет коллеги, помогите пожалуйста, давно с сетями не работал сижу ломаю голову у меня есть Proxmox v4 установленный на Debian
Имею две сети VMBR0 — с выходом в инет и VMBR2 локальная сеть 192.168.0.1/24
Есть несколько выделенных IP они ходят в инет через VMBR0, но виртуальные машины должны тоже иметь выход в инет и иметь доступ до виртуалок с выделенным IP, я настроил маскарадинг для VMBR2 через VMBR0 т.е NAT теперь машины 192.168.0.1 имеют выход в инет но не могут достучаться до виртуалок с выделенным IP, я к виртуалкам с выделенным IP подключил второй адаптер VMBR2 и выдал им iP из сети 192.168.0.1 теперь все работает, но мне кажется это не правильно и можно как-то разрулить это все маршрутами, или я не прав?
И ещё вопрос если на виртулках которые используют VMBR2 или VMBR2 и VMBR0 включить на интерфейсе VMBR2 фаервол то пинг до внешних ресурсов перестает проходить, хотя с VMR0 таких проблем нет, настроил нужные порты и все работает, в чем может быть загвоздка?
Спасибо!

Как правильно настроить маршрутизацию?

В локальной сети есть web-сервер, который настроен на 80 порт. На Микротике №1 настроен DNAT, с помощью которого пробрасываю 80 порт с WAN на web-сервер. Адрес Микротика №1 192.168.100.254, а адрес web-сервера 192.168.100.100. Проброс работает замечательно, пока Микротик №1 и web-сервер в одной подсети:

/ip firewall nat add action=dst-nat chain=dstnat dst-address=1.2.3.4 dst-port=80 \ in-interface=eth10 protocol=tcp to-addresses=192.168.100.100 to-ports=80

Но как только я переключаю web-сервер на подсетку 192.168.200.0/24 (присваиваю ему адрес 192.168.200.100), проброс перестаёт работать:

/ip firewall nat add action=dst-nat chain=dstnat dst-address=1.2.3.4 dst-port=80 \ in-interface=eth10 protocol=tcp to-addresses=192.168.200.100 to-ports=80

Хотя на Микротике №1 в статических маршрутах я указал подсеть 192.168.200.0/24, а на Микротике №2 указал подсеть 192.168.100.0/24. Обе подсети без проблем доступны друг другу.

Почему перестаёт работать проброс после переключения web-сервера на другую подсеть? Web-сервер без проблем пингуется. В логах видно, что NAT работает. Но складывается ощущение, что ответ от web-сервера не приходит.

Схема для наглядности:

Как исправить ошибку запуска steambot (LOGON FAIL 85)?

Здравствуйте, помогите пожалуйста.
Ошибка запуска steambot logon fail 85
Error: Logon fail: 85
at SteamClient.handlers.(anonymous function) (/bot/node_modules/steam/lib/handlers/user.js:178:11)
at SteamClient._netMsgReceived (/bot/node_modules/steam/lib/steam_client.js:106:26)
at SteamClient.handlers.(anonymous function) (/bot/node_modules/steam/lib/steam_client.js:192:10)
at SteamClient._netMsgReceived (/bot/node_modules/steam/lib/steam_client.js:106:26)
at emitOne (events.js:115:13)
at Connection.emit (events.js:210:7)
at Connection._readPacket (/bot/node_modules/steam/lib/connection.js:50:8)
at emitNone (events.js:105:13)
at Connection.emit (events.js:207:7)
at emitReadable_ (_stream_readable.js:500:10)
КАК МОЖНО ИСПРАВИТЬ?
Заранее Спасибо)

Проблема с пренаправлением почты. Как исправить?

Добрый день.
Для почтового ящика на сервере Postfix настроил перенаправление входящей почты по схеме
sender1@domain1.com -> user@MYDOMAIN.com -> recipient@domain2.com
Оно работает, но если domain1.com=domain2.com, т.е. получается
sender1@domain1.com -> user@MYDOMAIN.com -> recipient@domain1.com,
то доставка до recipient@domain1.com не осуществляется, а sender1@domain1.com получает от сервера MYDOMAIN.com ошибку авторизации на сервере domain1.com. Зачем он запрашивает авторизацию — не понимаю.

Использую систему:
CentOS Linux release 7.3.1611 (Core)
MySQL: Mariadb-server 5.5.52
web-server: Nginx 1.10.2
iRedMail-0.9.6 MARIADB edition
iRedAdmin-Pro-SQL-2.6.0
Уже пробовал настраивать перенаправление через:
1) iRedAdmin-Pro в разделе Forwarding;
2) iRedAdmin-Pro в разделе BCC;
3) в клиентском интерфейсе почтового ящика;
4) через SQL-сервер, добавление/редактирование таблицы vmail.alias

Моё понимание происходящего осложняется ещё и тем, что если в качестве sender1@domain1.com и
Читать дальше

Как монтировать в ubuntu raid fake?

Добрый день, уважаемые эксперты! Прошу прощение. что отвлекаю Вас от ваших дел. Но нужен совет, своего опыта не хватает.
Ситуация такая, используется fakeraid на материнской плате www.supermicro.com/products/motherboard/xe....
Есть 4 жестких диска, 2 ssd и 2 hdd. Через утилиту встроенную в материнскую плату, поднято 2 raid 1го уровня.
Установка ubuntu идет на raid SSD, все проходит хорошо, система устанавливается. Вопрос, как монтировать raid который на HDD?
PS. автор поста понимает, что лучше сделать софт раид, но увы руководств автора, его не признают.
sudo blkid:
/dev/sda: TYPE=«isw_raid_member» /dev/mapper/isw_dbaicgbcdf_Volume0: PTUUID=«08f441da-6c5c-45d0-9b40-519ef99e9218» PTTYPE=«gpt» /dev/sdb: TYPE=«isw_raid_member» /dev/mapper/isw_dbaicgbcdf_Volume0p1: UUID=«50A9-186B» TYPE=«vfat» PARTLABEL=«EFI System Partition» PARTUUID=«debec49a-ae0c-4062-a715-d87b0e6f8eb7» /dev/sdc: TYPE=«isw_raid_member» /dev/mapper/isw_dbaicgbcdf_Volume0p2: UUID=«d326f6ae-afc5-46d8-b2df-5bc78193821b» TYPE=«ext4» PARTUUID=«13abac44-78e3-4bd5-9fd9-d6c8ceeea109» /dev/mapper/isw_dbaicgbcdf_Volume0p3: UUID=«682006d7-9bf6-456e-be98-d79e8d076aab» TYPE=«swap» PARTUUID=«31767d24-f4d3-4516-8db0-8f3a1bc96aeb» /dev/sdd: TYPE=«isw_raid_member» /dev/sdf1: LABEL=«FREEDOS» UUID=«52D4-FCF6» TYPE=«vfat» PARTUUID=«23526cf6-01»

cat /proc/partitions
major minor #blocks name 8 0 146523384 sda 8 16 146523384 sdb 253 0 139143300 dm-0 8 32 976762584 sdc 253 1 524288 dm-1 253 2 105176064 dm-2 253 3 33441792 dm-3 8 48 976762584 sdd 253 4 927881348 dm-4 8 80 3933184 sdf 8 81 3887072 sdf1
sudo mount /dev/sdd /mnt/bd -t auto -o rw,nls=utf8,noatime
mount: unknown filesystem type 'isw_raid_member'
/dev/mapper/
control isw_dbaicgbcdf_Volume0p1 isw_dbaicgbcdf_Volume0p3 isw_dbaicgbcdf_Volume0 isw_dbaicgbcdf_Volume0p2 isw_dhfhegacbi_Volume1

Заранее спасибо Вам за вашу помощь!

Как правильно организовать отказоустойчивость ESXi?

Здравствуйте, у меня 2 сервера с ESXi 6.0, один обычный, второй за серой сетью, но перед ним маршрутизатор, на котором можно поднять VPN. Первый сервер у Хецнера, второй в подвале. Второй планируется делать резервным, чтобы на него переключаться, в случае проблем с основой. Внутри из сервисов: терминальный сервер, мускуль и 1С с файловиком, обычная структура малого бизнеса. Как правильнее организовать отказоустойчивость, при наличии белого адреса только у одного из серверов?
Во-первых, сначала хотелось бы завести серверы в сферу, сначала казалось, что нужно будет пробрасывать кучи портов ESXi-приблуд и т.д., но пока писал этот пост понял, что сам сервер сферы можно поставить на резерв, так и ресурсы сэкономим и по серому адресу к резерву спокойно сможем обратиться (Кластеру же не нужно в обе стороны между собой общаться белыми адресами?). Если этого сделать не удастся, то планирую снять за 200руб\мес у какого-нибудь Айхора виртуалку на KVM, поднять openvpn-сервер, настроить DMZ в резервный сервер через тоннель, т.о. обеспечив ему якобы белый IP. Затем, написать в iptables этой виртуалки направление RDP на Основной сервер и комментировать его при необходимости переключения. Собственно, есть ли какие-то более гладкие способы решения задачи и приведения всего в божеский вид? Мне не нравится, что пользователям в этом случае обязательно придётся бегать через тоннель. Или можно написать правило, которым vpn-виртуалка будет без тоннеля на основной сервер перенаправлять пакеты пользователей, а уже в случае ЧП заворачивать их в резервный? Всё равно лишний узел в цепи получается. Опять же, можно на самом Хенцере услугу перенаправления заказать, что-то такое было, включать её в случае ЧП. Поделитесь опытом, пожалуйста.

В ISPManager пропали домены в пункте WWW, как вернуть?

Поставил связку Apache+Nginx и пропали в ISPManager в пункте WWW домены.

Сапорт написал:
Здравствуйте.

Данная проблема связана с тем что ISPmanager не может найти записи по доменах в файле nginx.conf
May 13 16:36:46 [ 7998:12] WARNING vhost '*******a.net' not found in main config. Skip it
May 13 16:36:46 [ 7998:12] WARNING vhost '*******a.ru' not found in main config. Skip it
May 13 16:36:46 [ 7998:12] WARNING vhost '*******e.ru' not found in main config. Skip it
May 13 16:36:46 [ 7998:12] WARNING vhost '*******ame.ru' not found in main config. Skip it
May 13 16:36:46 [ 7998:12] WARNING vhost '*******bs.info' not found in main config. Skip it
May 13 16:36:46 [ 7998:12] WARNING vhost '*******a.ru' not found in main config. Skip it

Вам нужно передавить www домены в панель управления ISPmanager

Предупреждаю сразу, я тупой, ткните пожалуйста носом куда что прописать, чтобы исправить.)))