Любые обсуждения по этой теме. Само-пиар или резюме публиковать на другие наши проекты, например host.camp или vm.center. Тут только клиентские запросы на помощь.
  • Дата создания
    17 марта 2019
  • Топиков
    908
  • Ограничение на постинг
    0.000
  • Категория:
    Администрирование и настройка

Dovecot + Mail.ru: PAM_USER_UNKNOWN

Добрый день.

Пытаюсь настроить на mail.ru забор почты по POP3 со своего почтового сервера(postfix+dovecot).

С этого же сервера успешно забирают почту Gmail, Яндекс и TheBat, никогда никаких проблем не было.

Но Mail.ru ругается: «Соединение с сервером прошло успешно, но авторизоваться не удалось. Проверьте правильность имени ящика и пароля. „

В логах видно, что PAM не может найти пользователя. Естественно пользователь есть, да и другие клиенты авторизуются без проблем. Может кто-то уже сталкивался с подобным?

Нужен вариант именно с авторизацией через PAM.

В mail.log

Jul 26 12:32:26 actionlist dovecot: auth: Debug: auth client connected (pid=24277)
Jul 26 12:32:26 actionlist dovecot: auth: Debug: client in: AUTH 1 PLAIN service=pop3 lip=my_ip rip=209.85.219.7 lport=110 rport=64292 resp=Jul 26 12:32:26 actionlist dovecot: auth-worker: Debug: pam(info_ru,209.85.219.7): lookup service=dovecot
Jul 26 12:32:26 actionlist dovecot: auth-worker: Debug: pam(info_ru,209.85.219.7): #1/1 style=1 msg=Password:
Читать дальше

Удалить старый сертификат (debian)?

Добрый день.

Никак не могу найти как удалить сертификат, гугл в основном показывает как «заглушить», а мне бы удалить нормально и по новой запросить, на новых машинах все работает.

сервер на debain 5

в /etc/ssl/certs очень много файлов, какой из них удалять непонятно.

site:~# curl -Iv https://***.**/*** * About to connect() to *** port 443 (#0) * Trying ***… connected * Connected to *** (***) port 443 (#0) * successfully set certificate verify locations: * CAfile: none CApath: /etc/ssl/certs * SSLv3, TLS handshake, Client hello (1): * SSLv3, TLS handshake, Server hello (2): * SSLv3, TLS handshake, CERT (11): * SSLv3, TLS alert, Server hello (2): * SSL certificate problem, verify that the CA cert is OK. Details: error:14090086:SSL routines:SSL3_GET_SERVER_CERTIFICATE:certificate verify failed * Closing connection #0 curl: (60) SSL certificate problem, verify that the CA cert is OK. Details: error:14090086:SSL routines:SSL3_GET_SERVER_CERTIFICATE:certificate verify failed More details here: curl.haxx.se/docs/sslcerts.html curl performs SSL certificate verification by default, using a «bundle» of Certificate Authority (CA) public keys (CA certs). The default bundle is named curl-ca-bundle.crt; you can specify an alternate file using the --cacert option. If this HTTPS server uses a certificate signed by a CA represented in the bundle, the certificate verification probably failed due to a problem with the certificate (it might be expired, or the name might not match the domain name in the URL). If you'd like to turn off curl's verification of the certificate, use the -k (or --insecure) option.

Проблемы при установке PHP расширения v8js для FreeBSD и MAC OS X

Пробую ставить на Freebsd 9.1 x32, PHP 5.4.15 (cli).
Ставлю v8 из портов, локейшн по умолчанию.
root@papi:/root # pkg_info v8-3.18.5 -L Information for v8-3.18.5: Files: /usr/local/bin/d8 /usr/local/include/v8.h /usr/local/include/v8-debug.h /usr/local/include/v8-preparser.h /usr/local/include/v8-profiler.h /usr/local/include/v8-testing.h /usr/local/include/v8stdint.h /usr/local/lib/libv8.so /usr/local/lib/libv8.so.1

Ставлю расширение
root@papi:/root # pecl install v8js-0.1.3

Получаю fail
downloading v8js-0.1.3.tar… Starting to download v8js-0.1.3.tar (Unknown size) ..................done: 80,896 bytes 8 source files, building running: phpize Configuring for: PHP Api Version: 20100412 Zend Module Api No: 20100525 Zend Extension Api No: 220100525 Please provide the installation prefix of libv8 [autodetect]: /usr/local building in /tmp/pear/pear-build-root9uQTVr/v8js-0.1.3 running: /tmp/pear/v8js/configure --with-v8js=/usr/local checking for grep that handles long lines and -e… /usr/bin/grep checking for egrep… /usr/bin/grep -E checking for a sed that does not truncate output… /usr/bin/sed checking for cc… cc checking whether the C compiler works… yes checking for C compiler default output file name… a.out checking for suffix of executables… checking whether we are cross compiling… no checking for suffix of object files… o checking whether we are using the GNU C compiler… yes checking whether cc accepts -g… yes checking for cc option to accept ISO C89… none needed checking how to run the C
Читать дальше

m.domain.ru -> domain.ru/m на nginx (но с подковыркой)

Дано:
nginx на фронтэнде в качестве балансировщика.
jetty на бэкэнде.

Пользователи должны приходить на sub.domain.ru.
И в строке браузера должно везде оставаться sub.domain.ru.
Однако к jetty уже должны приходить запросы вида domain.ru/sub/

Пока что допёр до такой конфигурации.
Для domain.ru отправляем запрос на прямую на бэкэнд
А для m.domain.ru переписываем поле заголовка Host в domain.ru, а запрос отправляем к бэкэнду переписывая URI как /m/{запрос}
И вроде бы даже все работает. Но дело в том, что в приложении все URL к статике прописаны как /public/mobile. Соответственно при заходе на m.domain.ru они преобразовываются в mobile.ru/m/public/mobile, и сервер их не находит. Написал workaround, но что-то он не работает. Не пойму что я делаю не так.

Может быть есть вообще более изящное решение этой проблемы?

server { listen 80; server_name m.domain.ru; root /path/to/jetty/webapps/; # все запросы к m.domain.ru переписываем отправляем к jetty как localhost:8080/m/, а поле заголовка Host переписываем на domain.ru location / { proxy_pass 127.0.0.1:8080/m$request_uri; proxy_set_header Host domain.ru; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_cache off; proxy_redirect off; } #но делаем исключение для статики location /public/mobile { proxy_pass localhost:8080/; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header Host domain.ru; proxy_cache off; proxy_redirect off; } } server { listen 80; server_name domain.ru; root /path/to/jetty/webapps/; location / { proxy_pass localhost:8080/; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header Host $http_host; proxy_cache off; proxy_redirect off; } }

Настройка доступа для SFTP/OpenSSH и Samba под Ubuntu?

Всем привет.

Задача такая.

Имеется система Ubuntu 12.04 LTS, на которой необходимо создать некоторую папку, куда могут писать все, находящиеся в локальной сети. Клиенты — Windows. Очевидно, что надо делать под Самбу.

Также необходимо обеспечить удалённый доступ к этой папке по SFTP.

Реализовано так:

1. Поднят SFTP, как указано здесь: solderintheveins.co.uk/2011/03/ubuntu-sftp-only-ac…

Маленькое изменение:
Subsystem sftp internal-sftp -u 0000
Читать дальше

Перенаправление email

Здравствуйте, етсь у меня сервер на дебиане, на нем стоит exim4, вся почта редиректится на один ящик, т.е. можно отправлять письма на ***domain.com и все они складываются в одно место. Домен хостится на godaddy, чтобы правильно шла почта, сделал такие записи:

A (Host)
@ IP

CNAME (Alias)
imap @
mail @
pop @
smtp @

MX (MailExchanger)
0 @ @

В exim-конфиге есть пункт:
Читать дальше

Падает апач после ротации логов

Имеется сервер на FreeBSD 8.0 с Apache 2.2.23, PHP 5.4.10 и nginx 1.2.6. Соответственно, сначала стоит nginx, за ним Apache. Проблема в том, что стабильно раз в несколько дней падает Apache после ротации логов. Ротация логов выполняется с помощью logrotate с примерно таким конфигом:
"/usr/home/mysite/logs/*.log" "/var/log/*-error.log" "/var/log/*-access.log" { su root www daily rotate 7 compress ifempty missingok nomail prerotate /usr/local/www/awstats/tools/awstats_updateall.pl now -awstatsprog=/usr/local/www/awstats/cgi-bin/awstats.pl endscript postrotate /usr/bin/killall -HUP httpd endscript sharedscripts }

После ротации в старом error.log:
[Mon May 13 00:01:03 2013] [notice] SIGHUP received. Attempting to restart

В новом:
[Mon May 13 00:01:03 2013] [notice] Digest: generating secret for digest authentication… [Mon May 13 00:01:03 2013] [notice] Digest: done [Mon May 13 00:01:05 2013] [notice] Apache/2.2.23 (FreeBSD) PHP/5.4.10 configured — resuming normal operations [Mon May 13 00:01:06 2013] [notice] child pid 88614 exit signal Segmentation fault (11), possible coredump in /usr/local [Mon May 13 00:01:06 2013] [notice] child pid 88613 exit signal Segmentation fault (11), possible coredump in /usr/local [Mon May 13 00:01:06 2013] [notice] child pid 88612 exit signal Segmentation fault (11), possible coredump in /usr/local… [Mon May 13 00:02:48 2013] [notice] child pid 88818 exit signal Segmentation fault (11), possible coredump in /usr/local [Mon May 13 00:02:49 2013] [notice] child pid 88884 exit signal Segmentation fault (11), possible coredump in /usr/local [Mon May 13 00:02:49 2013] [notice] child pid 88883 exit signal Segmentation fault (11), possible coredump in /usr/local [Mon May 13 00:02:50 2013] [notice] caught SIGTERM, shutting down

В /usr/local/ создается файл httpd.core весом около 16 мегабайт.

Если после этого просто запустить Apache — он начинает дико жрать оперативку и проц. Если перезагрузить весь сервер — все работает нормально.

Как это можно исправить? Куда вообще копать?

После отключения APC на веб-сервере с LAMP сайты начали работать быстрее и разгрузился процессор. WTF?

Здравствуйте, коллеги и товарищи.

Имеем веб-сервер на CentOS 6.3 для хостинга ряда сайтов на Drupal (в основном, седьмой версии), куда накатан традиционный LAMP + nginx в роли обратного прокси. В качестве прекомпилера для PHP использовался APC. На сервере порядка 100 живых сайтов, высокой нагрузки — нет.

Большинство сайтов на веб-сервере появилось недавно, до этого было 5-6 сайтов и всё работало хорошо (с тем же самым APC). Но когда пришло много сайтов (при этом все новички — слабые, по 100 хостов в сутки) мы начали замечать периодические тормоза: один и тот же сайт загружался то нормально, то с затупом (и однозначно затуп воспроизвести не удавалось). Но когда сайты начали выстреливать нотисами типа Unable to allocate memory for pool… — виноватого нашли, им оказался APC (т.е., наверное, не он сам, а наши несовершенные дефолтные конфиги, но тем не менее).

Ситуация развивалась вот так:

Читать дальше

Маршрутизация дополнительного IP. Debian

Всем доброго здравия и с праздничками.

Имеется проблемка следующего характера. Раньше на сервере(колокейшн) был прикреплен 1 ip, таким вот образом в /etc/network/interfaces
auto eth0 iface eth0 inet static address A.A.A.B netmask N.N.N.N gateway A.A.A.A

где A.A.A.A определенный шлюз.
Дальше по запросу выделили второй IP. Да только этот IP уже находится не в подсети A.A.A.A а в подсети B.B.B.B

если дописать
auto eth0:1 iface eth0:1 inet static address B.B.B.C netmask N.N.N.N gateway B.B.B.B

То к серверу по IP A.A.A.B достучатся можно а вот по IP B.B.B.C в основном нет. Хотя если звезды правильно светят то иногда получается. Такое ощущение что оно пытается отправить ответ через первый шлюз хотя должно это делать через второй.

таблица роута такая получается
B.B.B.N 0.0.0.0 N.N.N.N U 0 0 0 eth0 A.A.A.B 0.0.0.0 N.N.N.N U 0 0 0 eth0 0.0.0.0 B.B.B.B 0.0.0.0 UG 0 0 0 eth0 0.0.0.0 A.A.A.A 0.0.0.0 UG 0 0 0 eth0

Гугл подсказывает что 2 шлюза не делается в /etc/network/interfaces, а нужно route писать. Пробовал писать… все становится еще хуже. Если прописать в interfaces gateway то так второй ip хоть иногда отвечает.

Может подсказать кто-то как повесить 2 IP с разных подсетей на 1 интерфейс. Заранее спасибо за любую помощь.

PS. Гуглил более 4 часов.

Пустые строки в Fabric после вызова любой команды

import fabric from fabric.api import * env.hosts = ['d1','d2','d3','e1','e2','e3','e4'] env.parallel = True env.use_ssh_config = True fabric.state.output['running'] = False @task def uname(): run('uname -a')

Результат:
iMac:Fabric-1.6.0 vizh$ fab uname [e1] out: Linux e1 2.6.32-5-686 #1 SMP Sun May 6 04:01:19 UTC 2012 i686 GNU/Linux [e1] out: [e4] out: Linux e4 2.6.32-5-686 #1 SMP Sun May 6 04:01:19 UTC 2012 i686 GNU/Linux [e4] out: [e3] out: Linux e3 2.6.32-5-686 #1 SMP Sun May 6 04:01:19 UTC 2012 i686 GNU/Linux [e3] out: [e2] out: Linux e2 2.6.32-5-686 #1 SMP Sun May 6 04:01:19 UTC 2012 i686 GNU/Linux [e2] out: [d2] out: Linux d2 2.6.32-5-686-bigmem #1 SMP Sun May 6 04:39:05 UTC 2012 i686 GNU/Linux [d2] out: [d1] out: Linux d1 2.6.32-5-686-bigmem #1 SMP Sun May 6 04:39:05 UTC 2012 i686 GNU/Linux [d1] out: [d3] out: Linux d3 2.6.32-5-686-bigmem #1 SMP Sun May 6 04:39:05 UTC 2012 i686 GNU/Linux [d3] out: Done.

Вопрос: как избежать вывода пустых строк, что бы получилось так:
iMac:Fabric-1.6.0 vizh$ fab uname [e1] out: Linux e1 2.6.32-5-686 #1 SMP Sun May 6 04:01:19 UTC 2012 i686 GNU/Linux [e4] out: Linux e4 2.6.32-5-686 #1 SMP Sun May 6 04:01:19 UTC 2012 i686 GNU/Linux [e3] out: Linux e3 2.6.32-5-686 #1 SMP Sun May 6 04:01:19 UTC 2012 i686 GNU/Linux [e2] out: Linux e2 2.6.32-5-686 #1 SMP Sun May 6 04:01:19 UTC 2012 i686 GNU/Linux [d2] out: Linux d2 2.6.32-5-686-bigmem #1 SMP Sun May 6 04:39:05 UTC 2012 i686 GNU/Linux [d1] out: Linux d1 2.6.32-5-686-bigmem #1 SMP Sun May 6 04:39:05 UTC 2012 i686 GNU/Linux [d3] out: Linux d3 2.6.32-5-686-bigmem #1 SMP Sun May 6 04:39:05 UTC 2012 i686 GNU/Linux Done.