Как ускорить отображение ОС из Virtualbox, запущенной из ОС, к которой подключились по RDP?

Здравствуйте! Подключаюсь по RDP к ОС Windows 10. Из Windows запускаю виртуалку с Linux и графическим интерфейсом. Этот графический интерфейс существенно тормозит и зависает. Есть ли способ оптимизировать/ускорить отображение ОС из виртуальной машины?

Проблемы с vmauthd, что делать?

В последнее время, у меня на работе, на сервере (Windows Server 2008 R2) начались проблемы — сервер начинает виснуть или не пускать по RTP.
Зашёл в диспетчер сервера — Журналы Windows — приложение — и заметил там каждые 5 секунд создаются около 5 ошибок со следующем текстом:
Malformed perfmon object, index=$N
где $N — это цифры от 0 до 5.
Код события: 1000.

В подробностях:
System — Provider [ Name] vmauthd — EventID 1000 [ Qualifiers] 0 Level 2 Task 0 Keywords 0x80000000000000 — TimeCreated [ SystemTime] 2018-01-24T05:16:16.000000000Z EventRecordID 26742686 Channel Application Computer 1Server Security

В гугле толком ни чего не нашёл. Есть какие-то предположения и каковы возможные решения? Заранее спасибо.

Правильность и оптимизация конфига nginx?

В панели ISPmanager 5 Lite использую свзяку Nginx + PHP-FPM (версия php 7.1). Потихоньку отхожу от привычной связки Nginx + Apache. В связи с тем, что классический .htaccess использовать нельзя, вношу некоторые правки в конфиг /etc/nginx/vhosts/siteru/site.ru.conf

Кто хорошо знаком со свзякой Nginx + PHP-FPM, подкажите, можно ли этот конфиг как-то улучшить? (смущает, что приходится дублировать все данные) Или же он идеален? :)

server { server_name site.ru www.site.ru; charset off; disable_symlinks if_not_owner from=$root_path; include /etc/nginx/vhosts-includes/*.conf; include /etc/nginx/vhosts-resources/site.ru/*.conf; access_log /var/www/httpd-logs/site.ru.access.log; error_log /var/www/httpd-logs/site.ru.error.log notice; ssi on; set $root_path /var/www/siteru/data/www/site.ru; root $root_path; location / { location ~ [^/]\.ph(p\d*|tml)$ { try_files /does_not_exists @php; } location / { try_files $uri $uri/ /index.php?$args; } } listen xx.xxx.xx.xx:80; index index.php; return 301 https://$host:443$request_uri; location @php { fastcgi_index index.php; fastcgi_param PHP_ADMIN_VALUE «sendmail_path = /usr/sbin/sendmail -t -i -f webmaster@site.ru»; fastcgi_pass unix:/var/www/php-fpm/siteru.sock; fastcgi_split_path_info ^((?U).+\.ph(?:p\d*|tml))(/?.+)$; try_files $uri =404; include fastcgi_params; } location = /wp-login.php { try_files /does_not_exists @deny; } location @deny { allow xx.xxx.xx.xxx; deny all; } location = /favicon.ico { log_not_found off; access_log off; } location = /robots.txt { allow all; log_not_found off; access_log off; } # Запрещаем доступ к скрытым файлам location ~ /\. { deny all; } # Запрещаем доступ к файлам .php в директории uploads location ~* /(?:uploads|files)/.*\.php$ { deny all; } } server { server_name site.ru www.site.ru; ssl on; ssl_certificate "/var/www/httpd-cert/siteru/site.ru_le1.crtca"; ssl_certificate_key "/var/www/httpd-cert/siteru/site.ru_le1.key"; ssl_ciphers EEEEH:+AEEE56:-EEES:REE+AES:!NULL:!RC4; ssl_prefer_server_ciphers on; ssl_protocols TLSv1 TLSv1.1 TLSv1.2; ssl_dhparam /etc/ssl/certs/dhparam4096.pem; charset off; index index.php; disable_symlinks if_not_owner from=$root_path; include /etc/nginx/vhosts-includes/*.conf; include /etc/nginx/vhosts-resources/site.ru/*.conf; access_log /var/www/httpd-logs/site.ru.access.log; error_log /var/www/httpd-logs/site.ru.error.log notice; ssi on; set $root_path /var/www/siteru/data/www/site.ru; root $root_path; listen xx.xxx.xx.xx:443 ssl http2; location / { location ~ [^/]\.ph(p\d*|tml)$ { try_files /does_not_exists @php; } location / { try_files $uri $uri/ /index.php?$args; } } location @php { fastcgi_index index.php; fastcgi_param PHP_ADMIN_VALUE «sendmail_path = /usr/sbin/sendmail -t -i -f webmaster@site.ru»; fastcgi_pass unix:/var/www/php-fpm/siteru.sock; fastcgi_split_path_info ^((?U).+\.ph(?:p\d*|tml))(/?.+)$; try_files $uri =404; include fastcgi_params; } location = /wp-login.php { try_files /does_not_exists @deny; } location @deny { allow xx.xxx.xx.xxx; deny all; } location = /favicon.ico { log_not_found off; access_log off; } location = /robots.txt { allow all; log_not_found off; access_log off; } # Запрещаем доступ к скрытым файлам location ~ /\. { deny all; } # Запрещаем доступ к файлам .php в директории uploads location ~* /(?:uploads|files)/.*\.php$ { deny all; } }

Exim relay not permitted?

При попытке отправить письмо из консоли получаю отлуп:
echo "" | mail -r root@my-domain.com -s «Test Mail» -a ~/test.file «какойто@gmail.com»
send-mail: RCPT TO: (550 relay not permitted)

При этом через exim:
echo «test» | exim -v какойто@gmail.com
уходит и доставляется без проблем

Помогите решить проблему. Конфиги предоставлю при необходимости

UODATE

В принципе сдвинулся с мертвой точки, указал в конфиге mailx метод аутентификации

set smtp-use-starttls set ssl-verify=ignore # set smtp=smtp://smtp.server.tld:port_number set smtp=smtp://my-domain.com:587 # tell mailx that it needs to authorise set smtp-auth=login # set the user for SMTP # set smtp-auth-user=user@domain.tld set smtp-auth-user=user@my-domain.com # set the password for authorisation set smtp-auth-password=p@s$woRd

Теперь в логе exim получаю следующие ошибки
2017-12-30 10:14:21 TLS error on connection from (mountain.pp.ua) [my_ip_addres] I=[my_ip_addres]:587 (SSL_accept): error:00000000:lib(0):func(0):reason(0)
2017-12-30 10:14:21 TLS client disconnected cleanly (rejected our certificate?)

Как сохранить конфих xl cpupool?

Имеется, значится, xen 4.8 поверх (под :) debian 9.
2 cpu-пула, скажем, Pool-0 и Pool-1
В Pool-0 cpu0 и cpu1
В Pool-1 cpu2 и cpu3.

В Pool-0 ворочаются dom0 и пара PV-гостей.
В Pool-1 один HV-гость и один PV.

Ладно, окей, xl cpupool-create, remove из Pool-0, add в Pool-1, вся фигня, но…
При рестарте все пулы идут нафиг, Pool-0 имеет стандартный набор из всех цпу системы.

В единственной разумной документации сказано, мол, создаете в /etc/xen файл именем POOL-NAME.cfg указанного формата и все типа заработает у вас как надо.

cat /etc/xen/Pool-0.cfg # ## # name=«Pool-0» #sched=«credit» cpus=[0, 1]

Такой же, соответственно, для Pool-1, но с нужными ЦПУ.
При рестарте конфиг не отрабатывает. В папку auto пихал (причем тут авто, если он обрабатывается xl create а не xl cpupool-create, да), в папку xlcpupool тоже пихал, тыча пальцем в небо.
xl cpupool-create жрет конфиги удачно, если только в Pool-0 нет cpu2 и cpu3, что, в принципе, логично.

Либо я, откровенно говоря, деградирую ближе к утру, либо документации кроме вшивого ман-файла нет.

Господа, подскажите пожалуйста, кто сталкивался, у кого получилось завести… В логах ксена только логи виртуалок.
egrep pool * -R по /etc/xen не возвращает ничего достойного. Точнее, вообще ничего.

Пока что в идеях только плюнуть на все, создать systemd-target, делающий все это ручками, с xendomains.service в wants…

(так же есть задача разобраться, почему не отрабатывает vcpu-pinning по средствам cpus=«2, 3» в конфиге виртуалки, но это уже совсем другой вопрос :)

Proxmox + openvpn, пробросить внутреннюю сеть?

Добрый день, помогите пожалуйста советом, с proxmox ранее не работал,
Есть debian на нем установлен Proxmox 5.1,
Настройки сети Proxmox два Linux Bridge:
auto vmbr0
iface vmbr0 inet static
address 192.168.88.248
netmask 255.255.255.0
gateway 192.168.88.1
bridge_ports enp3s0
bridge_stp off
bridge_fd 0

auto vmbr1
iface vmbr1 inet static
address 192.168.140.1
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up iptables -t nat -A POSTROUTING -s '192.168.140.0/24' -o enp3s -j MASQUEREAD
Читать дальше

Как автоматически передавать новые доменные зоны на dns slave?

Всем привет, ситуация такая поднял я 2 dns сервера один master второй соответственно slave на centos7 софтом bind, как мы знаем на мастере создаём доменную зону
zone «site.ru» {
type master;
file «site.ru»;
allow-transfer { 1.1.1.2; };
notify yes;
};
в named.conf создаём файл доменной зоны и прописываем в неё A, MX, NS и т.д. записи, затем на slave так же создаю доменную зону
zone «site.ru» IN {
type slave;
masters { 1.1.1.1; };
file «site.ru»;
};
в named.conf и slave сервер автоматически создаёт файл доменной зоны и с мастера подтягивает все записи по данной зоне, всё работает, всё отлично, но человеческая лень великая штука и вот собственно из за неё у меня вопрос, есть ли какой то метод, софт, функционал для того чтобы когда мы создаём зону на мастере она автоматически появлялась на slave сервере? Минуя так сказать этап ручного прописывания слейв зоны в named.conf
Буду очень благодарен любым наводкам по этой теме.

Почему не работает сайт — mpm_prefork:error?

Добрый день. Перестал отзываться сайт. Сайт находится на виртуальной машине Битрикс (apache, php7) вместе с несколькими другими (другие работают)
Залез в erroe_log
[Fri Dec 01 11:36:05.608603 2017] [mpm_prefork:error] [pid 3472] AH00161: server reached MaxRequestWorkers setting, consider raising the MaxRequestWorkers setting
Пошел в /etc/httpd/conf Там стоит
Include conf.modules.d/*.conf
Лезу в /etc/httpd/conf.modules.d/00-mpm.conf ставлю

LoadModule mpm_prefork_module modules/mod_mpm_prefork.so # worker MPM: Multi-Processing Module implementing a hybrid # multi-threaded multi-process web server # See: httpd.apache.org/docs/2.4/mod/worker.html # #LoadModule mpm_worker_module modules/mod_mpm_worker.so ServerLimit 250 StartServers 20 MinSpareThreads 75 MaxSpareThreads 250 ThreadLimit 64 ThreadsPerChild 32 MaxClients 10000 MaxRequestsPerChild 10000

Делаю service httpd restart

Ничего не происходит — в error ошибка та же
Не удается получить доступ к сайту Веб-страница по адресу site.ru/, возможно, временно недоступна или постоянно перемещена по новому адресу. ERR_CONTENT_DECODING_FAILED

Сайт, естественно, на месте

В чем проблема vsftp?

Всем привет, помогите решить проблему. Установил vsFtp на Ubuntu 16.04, окно авторизации выходит но сама авторизация не проходит.

Вот конфиг vsftpd.conf# Example config file /etc/vsftpd.conf # # The default compiled in settings are fairly paranoid. This sample file # loosens things up a bit, to make the ftp daemon more usable. # Please see vsftpd.conf.5 for all compiled in defaults. # # READ THIS: This example file is NOT an exhaustive list of vsftpd options. # Please read the vsftpd.conf.5 manual page to get a full idea of vsftpd's # capabilities. # # # Run standalone? vsftpd can run either from an inetd or as a standalone # daemon started from an initscript. listen=NO # # This directive enables listening on IPv6 sockets. By default, listening # on the IPv6 «any» address (::) will accept connections from both IPv6 # and IPv4 clients. It is not necessary to listen on *both* IPv4 and IPv6 # sockets. If you want that (perhaps because you want to listen on specific # addresses) then you must run two copies of vsftpd with two configuration # files. listen_ipv6=YES # # Allow anonymous FTP? (Disabled by default). anonymous_enable=NO # # Uncomment this to allow local users to log in. local_enable=YES # # Uncomment this to enable any form of FTP write command. write_enable=YES # # Default umask for local users is 077. You may wish to change this to 022, # if your users expect that (022 is used by most other ftpd's) #local_umask=022 # # Uncomment this to allow the anonymous FTP user to upload files. This only # has an effect if the above global write enable is activated. Also, you will # obviously need to create a directory writable by the FTP user. #anon_upload_enable=YES # # Uncomment this if you want the anonymous FTP user to be able to create # new directories. #anon_mkdir_write_enable=YES # # Activate directory messages — messages given to remote users when they # go into a certain directory. dirmessage_enable=YES # # If enabled, vsftpd
Читать дальше

Почему не работает кеширование в NginX?

Сервер на CentOS. Сайт полностью настраивался через ISPmanager. От себя я лишь добавил к стандартным настройкам хоста Alias (код сайта постоянно перезаливается, а картинки редко):
Alias /img "/var/www/www-root/data/img" #папка картинок
Alias /pma "/var/www/www-root/data/pma" #phpmyadmin
Проблема с кэшированием появилась изначально. Хотя соответствующая настройка в конфигурации домена в ISPmanage была выставлена. Выглядело это следующим образом: каждый раз при запуске браузера и открытии сайта он по-новой начинал прогружать статику. Если закрыть вкладу и еще раз запустить сайт уже в новой вкладке — кэш сохранялся. Я сперва это списал на медленную работу из-за https. Ибо не может же ISPmanager глючить на default'ых настройках…

Вчера к стандартным настройкам NginX добавил: «add_header Cache-Control „max-age=2592000, public“.
И о чудо кэш заработал. Увы, не на долго… (На сервере есть сайт пустышка — приоритетный сайт, чтобы не могли обращаться по IP к основе. Ему я случайно copy-paste'ул настройки nginx основы. Появился дубликат и nginx не запускался. Когда нашел и исправил проблему, не смотря на „add_header Cache-Control “max-age=2592000, public» в настройках основного сайта, кэш там работать не захотел.)

По ощущениям не работает какая-то мелочь из-за которой указанные настройки, по всей видимости, вообще не используются. Поэтому же трудно загуглить пример настроек и поэкспериментировать с ними…

Настройки IPSManager'a:
Читать дальше