Публикации

Почему запуск ESXi-Customizer-PS заканчивается ошибкой WinError 10054?

Хотел поставить на домашнем компьютере свежий ESXi 6.7, но не смог воспользоваться скриптом ESXi-Customizer-PS чтобы интегрировать драйверы для сетевой карты Realtek
Запускаю .\ESXi-Customizer-PS-v2.6.0.ps1 -v67 -vft -load sata-xahci,net55-r8168 и получаю ошибку
PS C:\Users\admin\Downloads> .\ESXi-Customizer-PS-v2.6.0.ps1 -v67 -vft -load sata-xahci,net55-r8168

Предупреждение о безопасности
Запускайте только сценарии, которым вы доверяете. Хотя сценарии из Интернета могут быть полезными, данный сценарий потенциально опасен для компьютера. Если вы доверяете ему, разрешите его выполнение без вывода предупреждающих сообщений, выполнив командлет Unblock-File.
Вы хотите запустить C:\Users\admin\Downloads\ESXi-Customizer-PS-v2.6.0.ps1?
[D] Не запускать — D [R] Запустить однажды — R [S] Приостановить — S [?] Справка (значением по умолчанию является «D»): R

This is ESXi-Customizer-PS Version 2.6.0 (visit ESXi-Customizer-PS.v-front.de for more information!)
(Call with -help for instructions)

Logging to C:\Users\admin\AppData\Local\Temp\ESXi-Customizer-PS-1000.log…

Running with PowerShell version 5.1 and VMware PowerCLI version 10.1.0.8344055

Connecting the VMware ESXi Online depot… [OK]
Читать дальше

Как правильно настроить локальный кеш сервер на nginx?

Всем доброго!
Пытаюсь решить задачу медленого доступа к некоторым ресурсам путем локального прокси сервера.
Но вот что тот не могу правильно конфиг написать (особо я не сталкивался с nginx), при проверке командой nginx -t получаю ошибку:
nginx: [emerg] https protocol requires SSL support in /usr/local/nginx/conf/nginx.conf:14 nginx: configuration file /usr/local/nginx/conf/nginx.conf test failed

вот мой nginx.conf:
events { worker_connections 1024; } http { proxy_cache_path /var/cache/nginx_cache levels=1:2 keys_zone=all:32m max_size=2g; server { listen 80; server_name localhost; location / { proxy_pass some.site.com; proxy_cache all; } } }

Собствено ошибка в proxy_pass some.site.com;

Подскажите пожалуйста как правильно будет написать конфиг?

П.С. для того, что бы потом достучатся к сайту some.site.com; нужно в браузере вводить адрес localhost или же просто в настройках браузера указать прокси сервер свой localhost?

Настройка сети Juniper SRX240h => pfSense — как сделать?

Всем доброго времени суток.
У меня, собственно, есть весьма глупый вопрос, на мой взгляд.
Сразу скажу, что не являюсь ни спецом по джуниперам, ни спецом по pf-сенсу, да и сетевиком себя назвать не могу, поэтому сразу прошу извинить за глупые вопросы — не виноватая я, а заставили.
Собственно, суть в чем.
Поменяли провайдера.
Нам выдали новый айпишник.
Сеть строится примерно так:
Есть интернет-шлюз Juniper SRX240H, есть шлюз для клиентов pfSense, все со старыми настройками.
По сути, делал по аналогии с предыдущими настройками, но что-то пошло не так.
В итоге получилось, что при принудительном указании на клиенте шлюза Juniper доступ в интернет есть.
Но через сенс не ходит — на самом сенсе гейтвей отображается как офлайн.
По настройкам получилось примерно так:
В первый порт джунипера приходит провод от провайдера и ему назначен выданным им же айпишник.
Сенс подключен через коммутатор D-link, насколько я понимаю, в нативный первый VLAN.
Связь с джунипером у сенса есть.
В настройках WAN-подключения указан тот же айпишник, что и у первого порта Juniper'a — очевидно, что это неверно.
Поэтому вопрос — получается, нам необходим еще один белый айпишник, который нужно будет отдать WAN-коннекту на сенсе и тогда связь появится?
Потому что, возможно, из-за замыленных глазьев уже не вижу, в чем еще может быть проблема. Или, возможно, стоит еще покопаться в какую-то сторону?

Заранее спасибо.

Как узнать, какие модули памяти сбоят (в каких слотах материнской платы они находятся)?

Всем привет!
В syslog увидел множество сообщений об ошибках памяти вот такоего вида:

May 28 06:26:52 ru-tul-dc01-mon02 kernel: [317191.270724] EDAC sbridge MC0: HANDLING MCE MEMORY ERROR
May 28 06:26:52 ru-tul-dc01-mon02 kernel: [317191.270726] EDAC sbridge MC0: CPU 0: Machine Check Event: 0 Bank 5: cc1d730000010092
May 28 06:26:52 ru-tul-dc01-mon02 kernel: [317191.271141] EDAC sbridge MC0: TSC 0
May 28 06:26:52 ru-tul-dc01-mon02 kernel: [317191.271142] EDAC sbridge MC0: ADDR 7f80bf80
May 28 06:26:52 ru-tul-dc01-mon02 kernel: [317191.271143] EDAC sbridge MC0: MISC 4078f886
May 28 06:26:52 ru-tul-dc01-mon02 kernel: [317191.271145] EDAC sbridge MC0: PROCESSOR 0:206d7 TIME 1527478012 SOCKET 0 APIC 0
May 28 06:26:52 ru-tul-dc01-mon02 kernel: [317191.271425] EDAC MC0: 30156 CE memory read error on CPU_SrcID#0_Ha#0_Chan#2_DIMM#0 (channel:2 slot:0 page:0x7f80b offset:0xf80 grain:32 syndrome:0x0 — OVERFLOW area:DRAM err_code:0001:0092 socket:0 ha:0 channel_mask:4 rank:1)

May 28 06:26:44 ru-tul-dc01-mon02 kernel: [317183.270202] EDAC sbridge MC0: HANDLING MCE MEMORY ERROR
May 28 06:26:44 ru-tul-dc01-mon02 kernel: [317183.270203] EDAC sbridge MC0: CPU 0: Machine Check Event: 0 Bank 9: 8c000050000800c1
May 28 06:26:44 ru-tul-dc01-mon02 kernel: [317183.270204] EDAC sbridge MC0: TSC 0
May 28 06:26:44 ru-tul-dc01-mon02 kernel: [317183.270205] EDAC sbridge MC0: ADDR 794717000
Читать дальше

Как выполнить cron команду в yii2?

Здравствуйте, недавно задавал похожий вопрос, но не смог получить ответа. Видимо из-за недостаточности информации. Попробую описать более подробно.

Переношу сайт (yii2 basic) с локального сервера на хостинг. Использую хостинг REGRU, панель управления хостингом — ISP Manager. Проблема — никак не могу правильно настроить «Планировщик заданий».

На локальном сервере запускал команду следующим образом:
//%progdir%\modules\php\%phpdriver%\php-win.exe -c %progdir%\modules\php\%phpdriver%\php.ini -q -f %sitedir%\mysite.loc\yii cron/end-order

На хостинге пытаюсь запускать следующим образом:
/usr/bin/php var/www/u0499712/data/www/mysite.com/yii cron/end-order

Получаю следующее сообщение:
Could not open input file: var/www/u0499712/data/www/mysite.com/yii

P.S. Добавил / перед var, теперь получаю такую ошибку
PHP Parse error: syntax error, unexpected T_OBJECT_OPERATOR in /var/www/u0499712/data/www/myslite.com/vendor/myclabs/deep-copy/src/DeepCopy/deep_copy.php on line 15

Версия PHP на сервере: 7.0 (хотя выводит 5.3...)
Мне кажется, что проблема именно в версии PHP. Меняю, но ничего не происходит.

Подскажите пожалуйста, что я делаю не так. Спасибо.

Как закрыть доступ локальным пользователям к XAMPP(Linux)?

Приветствую.

My OS GNU/Linux Mint.
~ $ uname -a Linux SpSystem 4.10.0-38-generic #42~16.04.1-Ubuntu SMP Tue Oct 10 16:32:20 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux).

Установил XAMPP for Ubuntu( xampp-linux-x64-7.2.4-0-installer.run ). Всё нормально работает, но Server Apache и ресурсы XAMPP доступны из локальной сети. Это не приемлемо для меня, так как в локальной сети моей квартиры находится множество устройств других людей, в том числе разбирающихся в ИТ. Я не хочу что бы они имели доступ к ресурсам развернутым на XAMPP: Смотрели как я разрабатываю сайты, на результаты моего труда(приватность).

Для того, что бы ресурсы XAMPP не были видны из локальной сети я правил файл конфигурации httpd ( /opt/lamp/etc/httpd.conf). Изменил параметры:

#AllowOverride none #Require all denied Order deny,allow Deny from all Allow from 127.0.0.1 #AllowOverride All #Order allow,deny #Allow from 127.0.0.1

Это дало результат: По внешнему локальному IP( Например: 192.168.0.110. Постоянный, локальный. ) начальная страница XAMPP стала недоступна. Но по 127.0.0.1(Внутренний IP) она доступна, хотя по localhost также не доступна.(Browser: Ferefox, Chromium). Странно. Проверил файл hosts(/etc/hosts): Запись localhost 127.0.0.1 имеется. PHP отдает phpinfo. Но PHPMyAdmin не работает.
Читать дальше

CLVM: возможно ли убрать флаг «clustered» и получить доступ к данным с другой машины?

Умер кластер Proxmox. Данные находятся в СХД на cLVM томах. При попытке смонтировать LUNы на другой машине получаю (хост смаплен в интерфесе СХД, доступ к LUNам есть)

Skipping clustered volume group vg-vm
Skipping clustered volume group shared_vm2
Skipping clustered volume group vg-voip3

vgdisplay vg-vm --config 'global {locking_type = 0}' | grep Clustered
WARNING: Locking disabled. Be careful! This could corrupt your metadata.
Found duplicate PV 0Z0c4e8fAZ2NSbY06fl5wXdtPpOrt5qZ: using /dev/mapper/3690b11c0005284f70000053a5845cc19 not /dev/sdj
Using duplicate PV /dev/mapper/3690b11c0005284f70000053a5845cc19 from subsystem DM, ignoring /dev/sdj
Found duplicate PV 0Z0c4e8fAZ2NSbY06fl5wXdtPpOrt5qZ: using /dev/mapper/3690b11c0005284f70000053a5845cc19 not /dev/sds
Using duplicate PV /dev/mapper/3690b11c0005284f70000053a5845cc19 from subsystem DM, ignoring /dev/sds
Clustered yes

Есть ли возможность таки получить доступ к данным? (конечно, можно просто удалить тома и создать новые без флага «с», но нужны данные, не все было забекаплено)

UPD:
Нашёл вариант vgchange -cn $vgname --config 'global {locking_type = 0}' — не могу пока понять, безопасен ли он для данных.

Как смонтировать .raw диск от виртуалки?

Всем привет! Есть образ диска от виртуалки в формате raw (виртуалка жила в Proxmox 3.x)
Задача минимумум: прочитать файлы, содержащиеся в образе.
Задача максимум: и прочитать файлы и засунуть виртуалку в Proxmox, в качестве хранилища использующий LVM на CephFS.

Как правильно монтировать raw? Структура файла такая:

# fdisk -l vm-173-disk-1.raw
Диск /home/pdv/pve/vm-173-disk-1.raw: 4 GiB, 4294967296 байтов, 8388608 секторов
Единицы измерения: секторов из 1 * 512 = 512 байтов
Размер сектора (логический/физический): 512 байт / 512 байт
I/O size (minimum/optimal): 512 bytes / 512 bytes
Тип метки диска: dos
Идентификатор диска: 0xb72d6534

Устр-во Загрузочный Start Конец Секторы Size Id Тип
/home/pdv/pve/vm-173-disk-1.raw1 * 2048 3905535 3903488 1,9G 83 Linux
/home/pdv/pve/vm-173-disk-1.raw2 3907582 4904959 997378 487M 5 Расширенный
/home/pdv/pve/vm-173-disk-1.raw3 4904960 8386559 3481600 1,7G 83 Linux
/home/pdv/pve/vm-173-disk-1.raw5 3907584 4904959 997376 487M 82 Linux своп / Solaris

Записи таблицы разделов не соответствуют порядку разделов на диске.

Как настроить два сетевых интерфейсов для Asterisk?

Добрый день, коллеги!
Подскажите как настроить два сетевых интерфейса в Asterisk на CentOS. Недавно наша МиниАТС вышла из строя и пришлось резко переходить на данную АТС. К сожалению раньше я практически не работал с Unix системами. Пришлось изучать огромное количество материала в короткие сроки. Теперь к сути проблемы:

У меня есть локальная сеть со следующими параметрами ip:10.101.33.26, dns 10.101.33.251, netmask 255.255.255.0;
При первоначальной настройке: настроил сеть, freepbx заработал и я смог подключиться к web-интерфейсу. Настроил внутренних абонентов и сделал несколько тестовых звонков внутри локальной сети. Затем договорился с провайдером, который нам представляет аналоговую телефонию на тестовые данные для asteriska. (Изначально провайдер в наше помещение завел оптику и поставил свой коммутатор). На этом коммутаторе нам выделили порт и дали IP, шлюз, логи, пароль и тестовый номер. В asterisk я вставил вторую сетевую карту, подключил к ней ethernet, в настройках интерфейса eth1 прописал аналогично этим:
DEVICE=eth1
BOOTPROTO=static
ONBOOT='yes'
IPADDR=11.22.33.45 //тут будет ваш IP — адрес
NETMASK=255.255.255.252
GATEWAY=11.22.33.46 //ваш адрес шлюза
HWADDR=00:15:5d:01:02:00 //mac – адрес NIC
ZONE=trusted
Сохранил. Перезагрузил сетевые интерфейсы командой: service network restart. Мне выдало ошибку: Job for networking.service failed because the control process exited with error code. See «systemctl status networking.service» and «journalctl -xe» for details.
Подскажите, в чем может быть проблема. Как правильно настроить два сетевых интерфейса. 1-интерфейс — наша сеть, в которой клиенты подключаются к АТС, 2-интерфейс — интерфейс провайдера.

Почему Proxmox не желает работать с хранилищем на СХД?

Есть СХД (Dell MD3600f). В нему через FC (multipath) подключены два сервера Proxmox, хранящие диски виртуалок в LVM-томах. Подключаю третий сервер, настраиваю iscsi, multipath — мультипас обнаруживает парные устройства и монтирует их, как положено, в /dev/mapper. Но когда дело доходит до pvdisplay, вижу следующее:

File descriptor 7 (pipe:[57622]) leaked on pvdisplay invocation. Parent PID 6642: bash
connect() failed on local socket: No such file or directory
Internal cluster locking initialisation failed.
WARNING: Falling back to local file-based locking.
Volume Groups with the clustered attribute will be inaccessible.
— Physical volume —
PV Name /dev/mapper/36c81f660e53d7e00220309ee04769705-part3
VG Name pve
PV Size 536.00 GiB / not usable 1.98 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 137215
Free PE 4043
Allocated PE 133172
PV UUID vLDITo-c7Ez-jK2W-WxNV-X71r-28cJ-3Q8c0b
Читать дальше