Supervisor - это инструмент управления процессами в Linux.
Установка и запуск сервиса:
# yum install supervisor
# systemctl start supervisord
# systemctl enable supervisord
Файлы конфигурации процессов, за которыми будет следить supervisor хранятся тут: /etc/supervisord.d/
Для создания нового сервиса под управлением supervisor нужно создать новый файл в данном каталоге.
Для примера создадим сервис отслеживания и отправки писем.
# nano /etc/supervisord.d/mailer_worker.ini
Содержимое файла сервиса:
[program:mailer_worker]
; Команда запуска скрипта:
command=/usr/bin/php /var/mailer/mailer_worker.php
directory=/var/mailer
; process_name=%(program_name)s_%(process_num)02d
; process_name - Имя процесса (если запущено несколько воркеров)
; numprocs=2 ; Количество процессов (воркеров)
autostart=true
autorestart=true
; Количество попыток перезапуска:
startretries=10
user=korolev
; Логи. Ошибки перенаправляются в stdout
; Директория логов должна существовать
redirect_stderr=true
stdout_logfile=/var/log/supervisor/mailer_worker.log
stdout_logfile_maxbytes=10MB
stdout_logfile_backups=3
; Время на корректное завершение перед SIGKILL
stopwaitsecs=60
Главная строчка конфигурации – это команда:
command=/usr/bin/php /var/mailer/mailer_worker.php
При запуске просто так в командной строке, этот скрипт должен уходить в бесконечный цикл и не завершаться. Это главное условие работы сервиса mailer_worker под управлением supervisor.
Директива user определяет пользователя, под чьим именем будет работать сервис в системе.
Создаем директорию для логов сервиса supervisor:
# mkdir -p /var/log/supervisor
# chown -R korolev:korolev /var/log/supervisor
Запуск сервиса после добавления или изменения конфигурационных файлов:
# supervisorctl reread
# supervisorctl update
# supervisorctl start mailer_worker:*
Служебные команды проверки работы supervisor:
# supervisorctl status // Статус запущенных процессов
# supervisorctl avail // Проверка программ, под управлением supervisor
# systemctl restart supervisord // Перезапуск
# supervisorctl stop mailer_worker:* // Остановка сервисов, с именем mailer_worker
# supervisorctl start mailer_worker:* // Запуск сервисов, с именем mailer_worker
вторник, 5 августа 2025 г.
Установка RabbitMQ в Rocky Linux 9.6
1. Устанавливаем ключи для использования программного обеспечения из репозитариев Erlang и RabbitMQ
# rpm --import 'https://github.com/rabbitmq/signing-keys/releases/download/3.0/rabbitmq-release-signing-key.asc'
# rpm --import 'https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-erlang.E495BB49CC4BBE5B.key'
# rpm --import 'https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-server.9F4587F226208342.key'
# rpm --import 'https://github.com/rabbitmq/signing-keys/releases/download/3.0/rabbitmq-release-signing-key.asc'
# rpm --import 'https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-erlang.E495BB49CC4BBE5B.key'
# rpm --import 'https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-server.9F4587F226208342.key'
2. Создаем репозитарий rabbitmq
# nano /etc/yum.repos.d/rabbitmq.repo
Содержимое файла:
##
## Zero dependency Erlang RPM
##
[modern-erlang]
name=modern-erlang-el9
# Use a set of mirrors maintained by the RabbitMQ core team.
# The mirrors have significantly higher bandwidth quotas.
baseurl=https://yum1.rabbitmq.com/erlang/el/9/$basearch
https://yum2.rabbitmq.com/erlang/el/9/$basearch
repo_gpgcheck=1
enabled=1
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-erlang.E495BB49CC4BBE5B.key
gpgcheck=1
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
type=rpm-md
[modern-erlang-noarch]
name=modern-erlang-el9-noarch
# Use a set of mirrors maintained by the RabbitMQ core team.
# The mirrors have significantly higher bandwidth quotas.
baseurl=https://yum1.rabbitmq.com/erlang/el/9/noarch
https://yum2.rabbitmq.com/erlang/el/9/noarch
repo_gpgcheck=1
enabled=1
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-erlang.E495BB49CC4BBE5B.key
https://github.com/rabbitmq/signing-keys/releases/download/3.0/rabbitmq-release-signing-key.asc
gpgcheck=1
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
type=rpm-md
[modern-erlang-source]
name=modern-erlang-el9-source
# Use a set of mirrors maintained by the RabbitMQ core team.
# The mirrors have significantly higher bandwidth quotas.
baseurl=https://yum1.rabbitmq.com/erlang/el/9/SRPMS
https://yum2.rabbitmq.com/erlang/el/9/SRPMS
repo_gpgcheck=1
enabled=1
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-erlang.E495BB49CC4BBE5B.key
https://github.com/rabbitmq/signing-keys/releases/download/3.0/rabbitmq-release-signing-key.asc
gpgcheck=1
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
##
## RabbitMQ Server
##
[rabbitmq-el9]
name=rabbitmq-el9
baseurl=https://yum2.rabbitmq.com/rabbitmq/el/9/$basearch
https://yum1.rabbitmq.com/rabbitmq/el/9/$basearch
repo_gpgcheck=1
enabled=1
# Cloudsmith's repository key and RabbitMQ package signing key
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-server.9F4587F226208342.key
https://github.com/rabbitmq/signing-keys/releases/download/3.0/rabbitmq-release-signing-key.asc
gpgcheck=1
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
type=rpm-md
[rabbitmq-el9-noarch]
name=rabbitmq-el9-noarch
baseurl=https://yum2.rabbitmq.com/rabbitmq/el/9/noarch
https://yum1.rabbitmq.com/rabbitmq/el/9/noarch
repo_gpgcheck=1
enabled=1
# Cloudsmith's repository key and RabbitMQ package signing key
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-server.9F4587F226208342.key
https://github.com/rabbitmq/signing-keys/releases/download/3.0/rabbitmq-release-signing-key.asc
gpgcheck=1
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
type=rpm-md
[rabbitmq-el9-source]
name=rabbitmq-el9-source
baseurl=https://yum2.rabbitmq.com/rabbitmq/el/9/SRPMS
https://yum1.rabbitmq.com/rabbitmq/el/9/SRPMS
repo_gpgcheck=1
enabled=1
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-server.9F4587F226208342.key
gpgcheck=0
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
type=rpm-md
# nano /etc/yum.repos.d/rabbitmq.repo
Содержимое файла:
##
## Zero dependency Erlang RPM
##
[modern-erlang]
name=modern-erlang-el9
# Use a set of mirrors maintained by the RabbitMQ core team.
# The mirrors have significantly higher bandwidth quotas.
baseurl=https://yum1.rabbitmq.com/erlang/el/9/$basearch
https://yum2.rabbitmq.com/erlang/el/9/$basearch
repo_gpgcheck=1
enabled=1
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-erlang.E495BB49CC4BBE5B.key
gpgcheck=1
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
type=rpm-md
[modern-erlang-noarch]
name=modern-erlang-el9-noarch
# Use a set of mirrors maintained by the RabbitMQ core team.
# The mirrors have significantly higher bandwidth quotas.
baseurl=https://yum1.rabbitmq.com/erlang/el/9/noarch
https://yum2.rabbitmq.com/erlang/el/9/noarch
repo_gpgcheck=1
enabled=1
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-erlang.E495BB49CC4BBE5B.key
https://github.com/rabbitmq/signing-keys/releases/download/3.0/rabbitmq-release-signing-key.asc
gpgcheck=1
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
type=rpm-md
[modern-erlang-source]
name=modern-erlang-el9-source
# Use a set of mirrors maintained by the RabbitMQ core team.
# The mirrors have significantly higher bandwidth quotas.
baseurl=https://yum1.rabbitmq.com/erlang/el/9/SRPMS
https://yum2.rabbitmq.com/erlang/el/9/SRPMS
repo_gpgcheck=1
enabled=1
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-erlang.E495BB49CC4BBE5B.key
https://github.com/rabbitmq/signing-keys/releases/download/3.0/rabbitmq-release-signing-key.asc
gpgcheck=1
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
##
## RabbitMQ Server
##
[rabbitmq-el9]
name=rabbitmq-el9
baseurl=https://yum2.rabbitmq.com/rabbitmq/el/9/$basearch
https://yum1.rabbitmq.com/rabbitmq/el/9/$basearch
repo_gpgcheck=1
enabled=1
# Cloudsmith's repository key and RabbitMQ package signing key
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-server.9F4587F226208342.key
https://github.com/rabbitmq/signing-keys/releases/download/3.0/rabbitmq-release-signing-key.asc
gpgcheck=1
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
type=rpm-md
[rabbitmq-el9-noarch]
name=rabbitmq-el9-noarch
baseurl=https://yum2.rabbitmq.com/rabbitmq/el/9/noarch
https://yum1.rabbitmq.com/rabbitmq/el/9/noarch
repo_gpgcheck=1
enabled=1
# Cloudsmith's repository key and RabbitMQ package signing key
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-server.9F4587F226208342.key
https://github.com/rabbitmq/signing-keys/releases/download/3.0/rabbitmq-release-signing-key.asc
gpgcheck=1
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
type=rpm-md
[rabbitmq-el9-source]
name=rabbitmq-el9-source
baseurl=https://yum2.rabbitmq.com/rabbitmq/el/9/SRPMS
https://yum1.rabbitmq.com/rabbitmq/el/9/SRPMS
repo_gpgcheck=1
enabled=1
gpgkey=https://github.com/rabbitmq/signing-keys/releases/download/3.0/cloudsmith.rabbitmq-server.9F4587F226208342.key
gpgcheck=0
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt
metadata_expire=300
pkg_gpgcheck=1
autorefresh=1
type=rpm-md
3. Проводим обновление системы:
# dnf update -y
# dnf update -y
4. Устанавливаем (если его еще нет) пакет logrotate, который необходим для работы RabbitMQ
# dnf install -y logrotate
# dnf install -y logrotate
5. Теперь устанавливаем RabbitMQ
# dnf install -y erlang rabbitmq-server
# dnf install -y erlang rabbitmq-server
6. Стартуем сервис RabbitMQ:
# systemctl start rabbitmq-server
# systemctl enable rabbitmq-server
# systemctl status rabbitmq-server
# systemctl start rabbitmq-server
# systemctl enable rabbitmq-server
# systemctl status rabbitmq-server
7. Включаем web-интерфейс RabbitMQ:
# rabbitmq-plugins enable rabbitmq_management
# rabbitmq-plugins enable rabbitmq_management
8. Проводим открытие портов в файрволл для возможности обращаться к RabbitMQ по сети и просматривать статистику через web-интерфейс:
# firewall-cmd --permanent --add-port={4369/tcp,5672/tcp,25672/tcp,15672/tcp}
# firewall-cmd --reload
# firewall-cmd --permanent --add-port={4369/tcp,5672/tcp,25672/tcp,15672/tcp}
# firewall-cmd --reload
9. Пользователи. При установке и запуске сервера RabbitMQ автоматически создается пользователь guest с паролем guest который может подключаться к виртуальному хосту "/" брокера RabbitMQ только локально. Для работы в продакшен создаём пользователя myuser с паролем pass123, делаем этого пользователя администратором:
# rabbitmqctl add_user myuser pass123
# rabbitmqctl set_user_tags smarts administrator
# rabbitmqctl set_permissions -p / smarts ".*" ".*" ".*"
# rabbitmqctl delete_user guest
# rabbitmqctl add_user myuser pass123
# rabbitmqctl set_user_tags smarts administrator
# rabbitmqctl set_permissions -p / smarts ".*" ".*" ".*"
# rabbitmqctl delete_user guest
10. Проверяем доступ к web-интерфейсу RabbitMQ:
http://IPадрес:15672
При авторизации необходимо задать имя пользователя и пароль, определенные ранее.
После авторизации панель управления RabbitMQ будет выглядеть так:
11. Основные команды rabbitmq:
# rabbitmqctl status // Проверить статус
# rabbitmqctl list_users // Список пользователей
# systemctl stop rabbitmq-server // Остановка сервиса
# systemctl start rabbitmq-server // Запуск зерсиса
# rabbitmqadmin delete queue name=emails // Удаление очереди emails
# rabbitmq-diagnostics environment // Вывод переменныхконфигурации
12. Для корректной работы RabbitMQ необходимо увеличить максимальное количество открытых файлов для пользователя rabbitmq до 65536
Для этого выполняем следующее:
12.1 Увеличиваем лимит для пользователя операционной системы:
# nano /etc/security/limits.conf
Добавить перед строкой "# End of file" строки:
rabbitmq soft nofile 65536
rabbitmq hard nofile 65536
12.2 Отредактировать сервис systemd:
# systemctl edit rabbitmq-server
Добавить сверху блок:
[Service]
LimitNOFILE=65536
Затем перезапустить сервис:
# systemctl daemon-reexec
# systemctl daemon-reload
# systemctl restart rabbitmq-server
12.3 Проверка лимитов:
# sudo -u rabbitmq bash -c 'ulimit -n'
65536
# cat /proc/$(pgrep beam.smp)/limits | grep 'Max open files'
Max open files 65536 65536 files
http://IPадрес:15672
При авторизации необходимо задать имя пользователя и пароль, определенные ранее.
После авторизации панель управления RabbitMQ будет выглядеть так:
11. Основные команды rabbitmq:
# rabbitmqctl status // Проверить статус
# rabbitmqctl list_users // Список пользователей
# systemctl stop rabbitmq-server // Остановка сервиса
# systemctl start rabbitmq-server // Запуск зерсиса
# rabbitmqadmin delete queue name=emails // Удаление очереди emails
# rabbitmq-diagnostics environment // Вывод переменныхконфигурации
12. Для корректной работы RabbitMQ необходимо увеличить максимальное количество открытых файлов для пользователя rabbitmq до 65536
Для этого выполняем следующее:
12.1 Увеличиваем лимит для пользователя операционной системы:
# nano /etc/security/limits.conf
Добавить перед строкой "# End of file" строки:
rabbitmq soft nofile 65536
rabbitmq hard nofile 65536
12.2 Отредактировать сервис systemd:
# systemctl edit rabbitmq-server
Добавить сверху блок:
[Service]
LimitNOFILE=65536
Затем перезапустить сервис:
# systemctl daemon-reexec
# systemctl daemon-reload
# systemctl restart rabbitmq-server
12.3 Проверка лимитов:
# sudo -u rabbitmq bash -c 'ulimit -n'
65536
# cat /proc/$(pgrep beam.smp)/limits | grep 'Max open files'
Max open files 65536 65536 files
понедельник, 19 мая 2025 г.
Установка Wordpress
Установка Apache
# dnf install httpd -y
# systemctl start httpd
# systemctl enable httpd
Установка базы данных MariaDB
# dnf install mariadb-server mariadb -y
# systemctl start mariadb
# systemctl enable mariadb
Создаем root пароль базы MariaDB:
# mysql_secure_installation
Устанавливаем php и модули необходимые для работы wordpress
# dnf install php php-mysqlnd php-fpm php-{bz2,mysqli,curl,gd,intl,common,mbstring,xml} -y
# systemctl restart httpd
Подключаемся к базе MariaDB. Создаем базу данных «wordpress» для WordPress и пользователя, который будет работать с базой (например, пользователь admin с паролем passwd123)
# mysql -u root -p
>CREATE DATABASE wordpress;
>CREATE USER 'admin'@'localhost' IDENTIFIED BY 'passwd123';
>GRANT ALL PRIVILEGES ON wordpress.* TO 'admin'@'localhost';
>FLUSH PRIVILEGES;
Скачиваем и распаковываем набор скриптов wordpress
# cd /usr/src/
# tar -xzvf latest.tar.gz
В директории /usr/src образуется директория /usr/src/wordpress
Перемещаем все файлы из /usr/src/wordpress в /var/www/html
# mv /usr/src/wordpress/* /var/www/html
Задаем права:
# chown -R apache:apache /var/www/html
# chmod -R 755 /var/www/html
Удаляем уже не нужные файлы и папки в /usr/src
# rm -f latest.tar.gz
# rmdir wordpress
Обращаемся к серверу http://<IP адрес>
Должна сработать переадресация на страницу стартовых скриптов wordpress http://<IP адрес>/wp-admin/setup-config.php
Увидим сообщение:
После того, как скрипты worpress создадут базу для работы, потребуется указать название сайта, и завести пользователя:
После нажатия кнопки “Install WordPress” произойдет автоматическое развертывание системы Worddpress. Завершение установки будет сопровождаться сообщением “Success!”
# dnf install httpd -y
# systemctl start httpd
# systemctl enable httpd
Установка базы данных MariaDB
# dnf install mariadb-server mariadb -y
# systemctl start mariadb
# systemctl enable mariadb
Создаем root пароль базы MariaDB:
# mysql_secure_installation
Устанавливаем php и модули необходимые для работы wordpress
# dnf install php php-mysqlnd php-fpm php-{bz2,mysqli,curl,gd,intl,common,mbstring,xml} -y
# systemctl restart httpd
Подключаемся к базе MariaDB. Создаем базу данных «wordpress» для WordPress и пользователя, который будет работать с базой (например, пользователь admin с паролем passwd123)
# mysql -u root -p
>CREATE DATABASE wordpress;
>CREATE USER 'admin'@'localhost' IDENTIFIED BY 'passwd123';
>GRANT ALL PRIVILEGES ON wordpress.* TO 'admin'@'localhost';
>FLUSH PRIVILEGES;
Скачиваем и распаковываем набор скриптов wordpress
# cd /usr/src/
# tar -xzvf latest.tar.gz
В директории /usr/src образуется директория /usr/src/wordpress
Перемещаем все файлы из /usr/src/wordpress в /var/www/html
# mv /usr/src/wordpress/* /var/www/html
Задаем права:
# chown -R apache:apache /var/www/html
# chmod -R 755 /var/www/html
Удаляем уже не нужные файлы и папки в /usr/src
# rm -f latest.tar.gz
# rmdir wordpress
Обращаемся к серверу http://<IP адрес>
Должна сработать переадресация на страницу стартовых скриптов wordpress http://<IP адрес>/wp-admin/setup-config.php
Увидим сообщение:
Нажимаем “Submit”. В следующем окне, при необходимости можно изменить данные доступа вручную, которые пропишутся в файле «wp-config.php». Для продолжения нужно нажать “Run the installation”. В следующем окне так же нажать “Run the installation”
После того, как скрипты worpress создадут базу для работы, потребуется указать название сайта, и завести пользователя:
После нажатия кнопки “Install WordPress” произойдет автоматическое развертывание системы Worddpress. Завершение установки будет сопровождаться сообщением “Success!”
Настройка работы nginx в связке с php-fpm в Debian 12
Настройка возможности работы nginx с PHP файлами.
Работа nginx с PHP обеспечивается службой php-fpm.
Устанавливаем сервис php-fpm:
# install nginx php-fpm
Смотрим текущую версию php в системе
# php -v
PHP 8.2.28 (cli) (built: Mar 13 2025 18:21:38) (NTS)
В моем случае - это 8.2
Конфигурационный файл серввиса php-fpm: /etc/php/8.2/fpm/pool.d/www.conf
ini файл настроек PHP: /etc/php/8.2/fpm/php.ini
Заходим в конфигурацию php-fpm для версии 8.2:
# nano /etc/php/8.2/fpm/pool.d/www.conf
Здесь ищем директиву "listen", которая определяет, что будет прослушивать запущенный процесс php-fpm.
В нашей случае - указан сокет. Отлично, фиксируем путь к сокету
listen = /run/php/php8.2-fpm.sock
# php -v
PHP 8.2.28 (cli) (built: Mar 13 2025 18:21:38) (NTS)
В моем случае - это 8.2
Конфигурационный файл серввиса php-fpm: /etc/php/8.2/fpm/pool.d/www.conf
ini файл настроек PHP: /etc/php/8.2/fpm/php.ini
Заходим в конфигурацию php-fpm для версии 8.2:
# nano /etc/php/8.2/fpm/pool.d/www.conf
Здесь ищем директиву "listen", которая определяет, что будет прослушивать запущенный процесс php-fpm.
В нашей случае - указан сокет. Отлично, фиксируем путь к сокету
listen = /run/php/php8.2-fpm.sock
Теперь находим конфигурационный файл nginx и для сервере, у которого необходимо включить PHP
# nano /etc/nginx/sites-enabled/<file>.conf
Добавляем конфигурацию для php в конец блока "server"
server {
listen 80;
listen 443 ssl;
...
location ~ \.php$ {
include snippets/fastcgi-php.conf;
fastcgi_pass unix:/run/php/php8.2-fpm.sock;
fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
include fastcgi_params;
}
}
Рестартуем NGINX и PHP-FPM:
# systemctl restart nginx
# systemctl restart php8.2-fpm
# systemctl restart nginx
# systemctl restart php8.2-fpm
Логи ошибок php-fpm будут тут /var/log/nginx/error.log
Установка PostgreSQL на Debian 12.
Установка:
# apt install postgresql postgresql-contrib
При установке Postgresql сразу будет создан и инициирован кластер в директории:
/var/lib/postgresql/15/main
Конфигурационный файл будет тут /etc/postgresql/15/main/postgresql.conf
Файл настроек режимов доступа тут /etc/postgresql/15/main/pg_hba.conf
При установке Postgresql сразу будет создан и инициирован кластер в директории:
/var/lib/postgresql/15/main
Конфигурационный файл будет тут /etc/postgresql/15/main/postgresql.conf
Файл настроек режимов доступа тут /etc/postgresql/15/main/pg_hba.conf
Запускаем сервис
# systemctl start postgresql.service
# systemctl enable postgresql.service
# systemctl start postgresql.service
# systemctl enable postgresql.service
Подключаемся к базе так:
# sudo -i -u postgres
$ psql
После создания базы и пользователя, а так же после настройки pg_hba.conf можно подключиться к базе данных так:
# psql -h 127.0.0.1 -d <БАЗА> -U <ПОЛЬЗОВАТЕЛЬ> -W
# sudo -i -u postgres
$ psql
После создания базы и пользователя, а так же после настройки pg_hba.conf можно подключиться к базе данных так:
# psql -h 127.0.0.1 -d <БАЗА> -U <ПОЛЬЗОВАТЕЛЬ> -W
четверг, 15 мая 2025 г.
Использование утилиты mkcert для создания самоподписанных сертификатов без боли
mkcert - это инструмент создания локальных самоподписанных сертификатов с поддержкой доверия в системе.
Установка утилиты выполняется так:
# dnf install -y golang
# go install filippo.io/mkcert@latest
Проверка:
# /root/go/bin/mkcert --version
v1.4.4
Создание локального корневого сертификата CA
# yum install nss-tools
# /root/go/bin/mkcert -install
Ответ должен быть такой:
Created a new local CA 💥
The local CA is already installed in the system trust store! 👍
The local CA is now installed in the Firefox and/or Chrome/Chromium trust store (requires browser restart)! 🦊
# yum install nss-tools
# /root/go/bin/mkcert -install
Ответ должен быть такой:
Created a new local CA 💥
The local CA is already installed in the system trust store! 👍
The local CA is now installed in the Firefox and/or Chrome/Chromium trust store (requires browser restart)! 🦊
Теперь создаем сертификат для своего сервера, например для bs.server.ru.
# /root/go/bin/mkcert bs.server.ru localhost 127.0.0.1
Created a new certificate valid for the following names 📜
- "bs.server.ru"
- "localhost"
- "127.0.0.1"
The certificate is at "./bs.server.ru+2.pem" and the key at "./bs.server.ru+2-key.pem" ✅
It will expire on 15 August 2027 🗓
Будет создан сертификат bs.server.ru+2.pem и приватный ключ bs.server.ru+2-key.pem для всех запрошенных имен (bs.server.ru, localhost, 127.0.0.1)
# /root/go/bin/mkcert bs.server.ru localhost 127.0.0.1
Created a new certificate valid for the following names 📜
- "bs.server.ru"
- "localhost"
- "127.0.0.1"
The certificate is at "./bs.server.ru+2.pem" and the key at "./bs.server.ru+2-key.pem" ✅
It will expire on 15 August 2027 🗓
Будет создан сертификат bs.server.ru+2.pem и приватный ключ bs.server.ru+2-key.pem для всех запрошенных имен (bs.server.ru, localhost, 127.0.0.1)
Устанавливаем сертификат SSL в web-сервер apache
# dnf install mod_ssl
# systemctl restart httpd
Резервируем настройки по умолчанию
# mv /etc/httpd/conf.d/ssl.conf /etc/httpd/conf.d/ssl.conf_old
Создаем свой файл настроек
# nano /etc/httpd/conf.d/ssl-bs.conf
Listen 443
<VirtualHost *:443>
ServerName bs.server.ru
SSLEngine on
SSLCertificateFile "/home/korolev/bs.server.ru+2.pem"
SSLCertificateKeyFile "/home/korolev/bs.server.ru+2-key.pem"
DocumentRoot "/var/www/html"
</VirtualHost>
Перезагружаем web-сервер:
# systemctl restart httpd
Открываем порт 443 на сервере
# firewall-cmd --permanent --add-port=443/tcp
# firewall-cmd --reload
Теперь при обращении к https://bs.server.ru/ по сети в браузере будет отображаться защищенное соединение! И до 15 августа 2027 года. То есть на 2 года! Удобно.
# dnf install mod_ssl
# systemctl restart httpd
Резервируем настройки по умолчанию
# mv /etc/httpd/conf.d/ssl.conf /etc/httpd/conf.d/ssl.conf_old
Создаем свой файл настроек
# nano /etc/httpd/conf.d/ssl-bs.conf
Listen 443
<VirtualHost *:443>
ServerName bs.server.ru
SSLEngine on
SSLCertificateFile "/home/korolev/bs.server.ru+2.pem"
SSLCertificateKeyFile "/home/korolev/bs.server.ru+2-key.pem"
DocumentRoot "/var/www/html"
</VirtualHost>
Перезагружаем web-сервер:
# systemctl restart httpd
Открываем порт 443 на сервере
# firewall-cmd --permanent --add-port=443/tcp
# firewall-cmd --reload
Теперь при обращении к https://bs.server.ru/ по сети в браузере будет отображаться защищенное соединение! И до 15 августа 2027 года. То есть на 2 года! Удобно.
четверг, 24 апреля 2025 г.
Установка и настройка NGINX для работы со скриптами Python.
.
Цель: Развернуть среду, обеспечивающую возможность принятия запросов по стандартному HTTP протоколу и выполнение по этим запросам скриптов на сервере, написанных на языке Python.
Для выполнения данной задачи соберем сборку: NGINX + Gunicorn + Flask
Устанавливаем и запускаем NGINX
# dnf install nginx
# systemctl enable --now nginx
Устанавливаем Python
# dnf install python3 python3-pip
Устанавливаем Gunicorn
# pip3 install gunicorn
Проверка:
# /usr/local/bin/gunicorn --version
# pip3 install gunicorn
Проверка:
# /usr/local/bin/gunicorn --version
Установка приложения Flask
# pip3 install flask
Создаем приложение Flask
# mkdir /var/www/appfs
# nano /var/www/appfs/app.py
from flask import Flask
app = Flask(__name__)
@app.route('/')
def hello():
return "Hello, World from Gunicorn and NGINX!"
if __name__ == '__main__':
app.run()
Выполняем первый запуск:
# cd /var/www/appfs
# /usr/local/bin/gunicorn --bind 127.0.0.1:8000 app:app
Приложение запуститься на порту 8000
В другом терминале можно проверить ответ приложения так:
# curl http://127.0.0.1:8000
# pip3 install flask
Создаем приложение Flask
# mkdir /var/www/appfs
# nano /var/www/appfs/app.py
from flask import Flask
app = Flask(__name__)
@app.route('/')
def hello():
return "Hello, World from Gunicorn and NGINX!"
if __name__ == '__main__':
app.run()
Выполняем первый запуск:
# cd /var/www/appfs
# /usr/local/bin/gunicorn --bind 127.0.0.1:8000 app:app
Приложение запуститься на порту 8000
В другом терминале можно проверить ответ приложения так:
# curl http://127.0.0.1:8000
Теперь запустим Gunicorn как сервис systemd:
# nano /etc/systemd/system/gunicorn.service
[Unit]
Description=Gunicorn app
After=network.target
[Service]
User=root
Group=nginx
WorkingDirectory=/var/www/appfs
ExecStart=/usr/local/bin/gunicorn --workers 3 --bind 127.0.0.1:8000 app:app
[Install]
WantedBy=multi-user.target
Запускаем службу:
# systemctl daemon-reload
# systemctl start gunicorn
# systemctl enable gunicorn
Выполняем настройку NGINX, чтобы сервер все запросы отправлял на Gunicorn:
# nano /etc/nginx/conf.d/appfs.conf
server {
listen 80;
server_name 172.31.0.3;
location / {
proxy_pass http://127.0.0.1:8000;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
}
}
Перезапускаем NGINX
# systemctl restart nginx
Для проверки делаем тест-запрос:
# curl http://172.31.0.3:80
Должны увидеть:
Hello, World from Gunicorn and NGINX!
# nano /etc/systemd/system/gunicorn.service
[Unit]
Description=Gunicorn app
After=network.target
[Service]
User=root
Group=nginx
WorkingDirectory=/var/www/appfs
ExecStart=/usr/local/bin/gunicorn --workers 3 --bind 127.0.0.1:8000 app:app
[Install]
WantedBy=multi-user.target
Запускаем службу:
# systemctl daemon-reload
# systemctl start gunicorn
# systemctl enable gunicorn
Выполняем настройку NGINX, чтобы сервер все запросы отправлял на Gunicorn:
# nano /etc/nginx/conf.d/appfs.conf
server {
listen 80;
server_name 172.31.0.3;
location / {
proxy_pass http://127.0.0.1:8000;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
}
}
Перезапускаем NGINX
# systemctl restart nginx
Для проверки делаем тест-запрос:
# curl http://172.31.0.3:80
Должны увидеть:
Hello, World from Gunicorn and NGINX!
среда, 23 апреля 2025 г.
Выполнение команд соединения с базой PostgreSQL из bash скрипта без паролей
Для того что бы иметь возможность из скриптов bash инициировать подключение к базе PostgreSQL необходимо создать файл паролей в директории пользователя, от имени которого будет запускаться скрипт.
Изменяем права к файлу:
# chmod 600 /home/korolev/.pgpass
# chown korolev:korolev /home/korolev/.pgpass
Файл паролей создается так:
# touch /home/korolev/.pgpass
# nano /home/korolev/.pgpass
В файле прописать
127.0.0.1:5432:<БД>:<ПОЛЬЗОВАТЕЛЬ>:<ПАРОЛЬ>
Например:
127.0.0.1:5432:cdr:ucdr:passu12345
# touch /home/korolev/.pgpass
# nano /home/korolev/.pgpass
В файле прописать
127.0.0.1:5432:<БД>:<ПОЛЬЗОВАТЕЛЬ>:<ПАРОЛЬ>
Например:
127.0.0.1:5432:cdr:ucdr:passu12345
Изменяем права к файлу:
# chmod 600 /home/korolev/.pgpass
# chown korolev:korolev /home/korolev/.pgpass
Теперь в скрипте bash команду подключения к базе выполняем так:
HOST="localhost"
USER="userdb"
DB="mydb"
psql -h $HOST -U $USER -w -d $DB -c "КОМАНДА SQL"
HOST="localhost"
USER="userdb"
DB="mydb"
psql -h $HOST -U $USER -w -d $DB -c "КОМАНДА SQL"
воскресенье, 30 марта 2025 г.
Прописание маршрута с указанием IP source в Linux
Если Linux машина имеет несколько IP интерфейсов, то создавать статический маршрут правильно с привязкой к определенному исходному IP-адресу (src)
Если используется NetworkManager, то делается это утилитой nmcli.
Если используется NetworkManager, то делается это утилитой nmcli.
1. Необходимо узнать имена интерфейсов и принадлежность IP адреса интерфейсу.
Это делается командами:
1.1.
# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
inet 127.0.0.1/8 scope host lo
2: ens18: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000
inet 172.31.0.3/28 brd 172.31.0.15 scope global noprefixroute ens18
3: ens19: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000
inet 10.63.70.170/29 brd 10.63.70.175 scope global noprefixroute ens19
1.2
# nmcli con
NAME UUID TYPE DEVICE
ens18 95fdeba9-6dcc-31d1-9758-879d140cbc55 ethernet ens18
System ens19 03c4dac8-78f9-36c3-8580-d35a45e6f2ea ethernet ens19
Команда "ip a" покажет IP адреса и их привязку к коротким названиям интерфейсов.
Команда "nmcli con" покажет привязку коротких названий интерфейсов к полному наименованию.
В данном примере интерфейс "ens19" имеет полное имя "System ens19".
2. Прописать маршрут с заданием IP адреса источника нужно с указанием полного наименования интерфейса, вот так:
# nmcli connection modify "System ens19" +ipv4.routes "10.63.90.1/32 10.63.70.169 src=10.63.70.170"
# nmcli connection up "System ens19"
Тут прописывается маршрут на сеть 10.63.90.1/32 через gateway 10.63.70.169 c IP источника 10.63.70.170
3. Команда удаления маршрута (если потребуется):
# nmcli connection modify "System ens19" ipv4.routes ""
Модули mod_xml_curl, mod_httapi и mod_xml_rpc FREESWITCH
Модуль mod_xml_curl
Этот модуль используется для динамической генерации XML-конфигураций FreeSWITCH через внешний HTTP-сервер.
Загрузка выполняется при старте freeswitch и при выполнении команды reloadxml.
Freeswitch отправялет запрос о том, какую секцию загрузить, например directory или dialplan. В отввет ожидается XML документ куска конфигурации.
По умолчанию модуль не включен в конфигурацию Freeswitch. Проверка:
# fs_cli -x "module_exists mod_xml_curl"
Команда должна вывести "false"
Для установки модуля сначало необходимо его скомпилировать. Заходим в директорию с исходными кодами freeswitch, проводим сборку и установку.
# cd /usr/src/freeswitch
# cd src/mod/xml_int/mod_xml_curl
# make install
Проверка установки модуля:
# ls -l /usr/lib64/freeswitch/mod/ | grep curl
Теперь модуль нужно минимально сконфигурить. Открываем конфигурационный файл:
# nano /etc/freeswitch/autoload_configs/xml_curl.conf.xml
Для проерки достаточно прописать один параметр, определяющий URL, откуда сервер Freeswitch будет подтягивать конфигурацию.
Это параметр gateway-url:
<binding name="example">
<param name="gateway-url" value="http://127.0.0.1:8081/fsapi" bindings="dialplan|configuration|directory|phrases"/>
...
</binding>
Теперь проверяем загрузку модуля:
# fs_cli
> load mod_xml_curl
Ответ должен быть "+OK"
Для включения модуля в конфигурацию открываем файл загружаемых модулей:
# nano /etc/freeswitch/autoload_configs/modules.conf.xml
Раскомментируем строчку
<load module="mod_xml_curl"/>
Модуль mod_httapi.
Модуль позволяет интегрировать FreeSWITCH с внешними HTTP-сервисами для обработки вызовов через API.
Запрос на внешний сервер может отправляться при каждом вызове. Freeswitch отправляет на внешний HTTP сервер запрос содержащий, например переменные:
caller_id_number (Номер звонящего), destination_number (Набранный номер).
В ответ Freeswitch должен получить набор инструкций, описывающий обработку вызова. Или набор переменных, которые используются для обработки вызова в диалплане.
По умолчанию модуль включен в конфигурацию Freeswitch. Проверка:
# fs_cli -x "module_exists mod_httapi"
Команда должна вывести "true"
Файл настроек модуля:
# nano /etc/freeswitch/autoload_configs/httapi.conf.xml
Модуль mod_xml_rpc.
Модуль mod_xml_rpc в FreeSWITCH позволяет использовать XML-RPC интерфейс для управления сервером через внешние приложения.
По умолчанию модуль не включен в конфигурацию Freeswitch. Проверка:
# fs_cli -x "module_exists mod_xml_rpc"
Команда должна вывести "false"
Для установки модуля сначала необходимо его скомпилировать. Заходим в директорию с исходными кодами freeswitch, проводим сборку и установку.
# cd /usr/src/freeswitch
# cd src/mod/xml_int/mod_xml_rpc
# make install
Проверка установки:
# ls -l /usr/lib64/freeswitch/mod/ | grep mod_xml_rpc
# fs_cli
> load mod_xml_rpc
Отет должен быть "+OK"
Включаем модуль в загрузку при старте Freeswitch:
# nano /etc/freeswitch/autoload_configs/modules.conf.xml
Раскомментируем строку:
<load module="mod_xml_rpc"/>
Файл настроек модуля:
# nano /etc/freeswitch/autoload_configs/xml_rpc.conf.xml
Тут можно указать логин-пароль для доступа к сервису XML-RPC (по умолчанию freeswitch/works), сменить прослушиваемый порт (по умолчанию 8080) и выставить IP адрес, на котором сервис слушает сеть (по умолчанию 0.0.0.0, установить конкретный IP можно директивой <param name="listen-ip" value="127.0.0.1"/>)
Рестартуем Freeswitch
# systemctl restart freeswitch
Проверка прослушивания порта 8080:
# netstat -ltupn | grep 8080
Проверка выполнения команд
# curl -X GET http://127.0.0.1:8080/webapi/sofia?status%20profile%20internal -u freeswitch:works
Name internal
Domain Name N/A
Auto-NAT false
DBName sofia_reg_internal
Pres Hosts 10.0.1.53,10.0.1.53
Dialplan XML
Context public
Challenge Realm auto_from
.....
Этот модуль используется для динамической генерации XML-конфигураций FreeSWITCH через внешний HTTP-сервер.
Загрузка выполняется при старте freeswitch и при выполнении команды reloadxml.
Freeswitch отправялет запрос о том, какую секцию загрузить, например directory или dialplan. В отввет ожидается XML документ куска конфигурации.
По умолчанию модуль не включен в конфигурацию Freeswitch. Проверка:
# fs_cli -x "module_exists mod_xml_curl"
Команда должна вывести "false"
Для установки модуля сначало необходимо его скомпилировать. Заходим в директорию с исходными кодами freeswitch, проводим сборку и установку.
# cd /usr/src/freeswitch
# cd src/mod/xml_int/mod_xml_curl
# make install
Проверка установки модуля:
# ls -l /usr/lib64/freeswitch/mod/ | grep curl
Теперь модуль нужно минимально сконфигурить. Открываем конфигурационный файл:
# nano /etc/freeswitch/autoload_configs/xml_curl.conf.xml
Для проерки достаточно прописать один параметр, определяющий URL, откуда сервер Freeswitch будет подтягивать конфигурацию.
Это параметр gateway-url:
<binding name="example">
<param name="gateway-url" value="http://127.0.0.1:8081/fsapi" bindings="dialplan|configuration|directory|phrases"/>
...
</binding>
Теперь проверяем загрузку модуля:
# fs_cli
> load mod_xml_curl
Ответ должен быть "+OK"
Для включения модуля в конфигурацию открываем файл загружаемых модулей:
# nano /etc/freeswitch/autoload_configs/modules.conf.xml
Раскомментируем строчку
<load module="mod_xml_curl"/>
Модуль mod_httapi.
Модуль позволяет интегрировать FreeSWITCH с внешними HTTP-сервисами для обработки вызовов через API.
Запрос на внешний сервер может отправляться при каждом вызове. Freeswitch отправляет на внешний HTTP сервер запрос содержащий, например переменные:
caller_id_number (Номер звонящего), destination_number (Набранный номер).
В ответ Freeswitch должен получить набор инструкций, описывающий обработку вызова. Или набор переменных, которые используются для обработки вызова в диалплане.
По умолчанию модуль включен в конфигурацию Freeswitch. Проверка:
# fs_cli -x "module_exists mod_httapi"
Команда должна вывести "true"
Файл настроек модуля:
# nano /etc/freeswitch/autoload_configs/httapi.conf.xml
Модуль mod_xml_rpc.
Модуль mod_xml_rpc в FreeSWITCH позволяет использовать XML-RPC интерфейс для управления сервером через внешние приложения.
По умолчанию модуль не включен в конфигурацию Freeswitch. Проверка:
# fs_cli -x "module_exists mod_xml_rpc"
Команда должна вывести "false"
Для установки модуля сначала необходимо его скомпилировать. Заходим в директорию с исходными кодами freeswitch, проводим сборку и установку.
# cd /usr/src/freeswitch
# cd src/mod/xml_int/mod_xml_rpc
# make install
Проверка установки:
# ls -l /usr/lib64/freeswitch/mod/ | grep mod_xml_rpc
# fs_cli
> load mod_xml_rpc
Отет должен быть "+OK"
Включаем модуль в загрузку при старте Freeswitch:
# nano /etc/freeswitch/autoload_configs/modules.conf.xml
Раскомментируем строку:
<load module="mod_xml_rpc"/>
Файл настроек модуля:
# nano /etc/freeswitch/autoload_configs/xml_rpc.conf.xml
Тут можно указать логин-пароль для доступа к сервису XML-RPC (по умолчанию freeswitch/works), сменить прослушиваемый порт (по умолчанию 8080) и выставить IP адрес, на котором сервис слушает сеть (по умолчанию 0.0.0.0, установить конкретный IP можно директивой <param name="listen-ip" value="127.0.0.1"/>)
Рестартуем Freeswitch
# systemctl restart freeswitch
Проверка прослушивания порта 8080:
# netstat -ltupn | grep 8080
Проверка выполнения команд
# curl -X GET http://127.0.0.1:8080/webapi/sofia?status%20profile%20internal -u freeswitch:works
Name internal
Domain Name N/A
Auto-NAT false
DBName sofia_reg_internal
Pres Hosts 10.0.1.53,10.0.1.53
Dialplan XML
Context public
Challenge Realm auto_from
.....
Библиотека Event Socket Library (ESL) для Freeswitch
Библиотека ESL позволяет гибко управлять Freeswitch через сокеты.
Для сборки библиотеки необходимо предварительно установить пакеты:
# dnf groupinstall "Development Tools"
# dnf install python3-devel
# dnf install libcurl-devel openssl-devel
Переходим в каталог с исходными кодами и собираем пакет ESL для Python3:
# cd /usr/src/freeswitch/libs/esl/
# make pymod
# cp python/_ESL.so /usr/lib64/python3.9/site-packages/
# cp python/ESL.py /usr/lib64/python3.9/site-packages/
Включаем возможность работы с сокетами в Freeswitch:
# nano /etc/freeswitch/autoload_configs/modules.conf.xml
Следующая строчка должна быть раскомментирована:
<load module="mod_event_socket"/>
Конфигурационный файл модуля mod_event_socket
# nano /etc/freeswitch/autoload_configs/event_socket.conf.xml
Тут определяются пароли доступа к сервису ESL, прослушиваемый порт.
Можно все оставить по умолчанию или изменить пароль подключения.
После изменений конфигурации, нужно рестартовать Freeswitch
# systemctl restart freeswitch
Для проверки создаем файл соединения с Python:
# nano testesl.py
Содержимое:
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import string
import sys
from ESL import ESLconnection
esl = ESLconnection("127.0.0.1","8021","ClueCon")
if esl.connected():
print("Подключение к FreeSWITCH успешно!")
else:
print("Не удалось подключиться к FreeSWITCH.")
if esl.connected:
esl.events("plain", "all");
while 1:
event = esl.recvEvent()
if event:
# Выводим содержимое события
print("Получено событие:")
print(event.serialize())
Теперь после запуска сервера:
# python3 testesl.py
Мы будем получать все события:
Подключение к FreeSWITCH успешно!
Получено событие:
Event-Name: HEARTBEAT
Core-UUID: f78a248f-4d85-4d36-a773-424267bc7761
FreeSWITCH-Hostname: testkvs
FreeSWITCH-Switchname: testkvs
...
Получено событие:
Event-Name: RE_SCHEDULE
Core-UUID: f78a248f-4d85-4d36-a773-424267bc7761
FreeSWITCH-Hostname: testkvs
FreeSWITCH-Switchname: testkvs
...
Для сборки библиотеки необходимо предварительно установить пакеты:
# dnf groupinstall "Development Tools"
# dnf install python3-devel
# dnf install libcurl-devel openssl-devel
Переходим в каталог с исходными кодами и собираем пакет ESL для Python3:
# cd /usr/src/freeswitch/libs/esl/
# make pymod
# cp python/_ESL.so /usr/lib64/python3.9/site-packages/
# cp python/ESL.py /usr/lib64/python3.9/site-packages/
Включаем возможность работы с сокетами в Freeswitch:
# nano /etc/freeswitch/autoload_configs/modules.conf.xml
Следующая строчка должна быть раскомментирована:
<load module="mod_event_socket"/>
Конфигурационный файл модуля mod_event_socket
# nano /etc/freeswitch/autoload_configs/event_socket.conf.xml
Тут определяются пароли доступа к сервису ESL, прослушиваемый порт.
Можно все оставить по умолчанию или изменить пароль подключения.
После изменений конфигурации, нужно рестартовать Freeswitch
# systemctl restart freeswitch
Для проверки создаем файл соединения с Python:
# nano testesl.py
Содержимое:
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import string
import sys
from ESL import ESLconnection
esl = ESLconnection("127.0.0.1","8021","ClueCon")
if esl.connected():
print("Подключение к FreeSWITCH успешно!")
else:
print("Не удалось подключиться к FreeSWITCH.")
if esl.connected:
esl.events("plain", "all");
while 1:
event = esl.recvEvent()
if event:
# Выводим содержимое события
print("Получено событие:")
print(event.serialize())
Теперь после запуска сервера:
# python3 testesl.py
Мы будем получать все события:
Подключение к FreeSWITCH успешно!
Получено событие:
Event-Name: HEARTBEAT
Core-UUID: f78a248f-4d85-4d36-a773-424267bc7761
FreeSWITCH-Hostname: testkvs
FreeSWITCH-Switchname: testkvs
...
Получено событие:
Event-Name: RE_SCHEDULE
Core-UUID: f78a248f-4d85-4d36-a773-424267bc7761
FreeSWITCH-Hostname: testkvs
FreeSWITCH-Switchname: testkvs
...
понедельник, 24 марта 2025 г.
Apache. Модуль mod_rewrite. Запрет обращения к определенному файлу через web
1. Проверяем, что включен модуль rewrite
# httpd -M | grep rewrite
В ответе должны увидеть:
rewrite_module (shared)
2. Необходимо разрешить использовать модуль rewrite в директории /var/www/html. Для этого в файле /etc/httpd/conf/httpd.conf в разделе <Directory "/var/www/html"> нужно заменить AllowOverride None на AllowOverride All
<Directory "/var/www/html">
...
#AllowOverride None
AllowOverride All
...
</Directory>
3. Чтобы убедиться, что mod_rewrite работает, создайте файл .htaccess в корневой директории веб-сервера (например, /var/www/html/.htaccess) с содержимым:
RewriteEngine On
RewriteRule ^test$ test.html [L]
Создайте файл test.html в той же директории с содержимым:
<h1>Mod_rewrite works!</h1>
При обращении к серверу http://IP/test, должен открыться файл test.html
4. Для запрета к обращению к определенному файлу, например к файлу CONFIG.ini в .htaccess нужно прописать следующее:
<Files "CONFIG.ini">
Order Deny,Allow
Deny from all
Allow from 127.0.0.1
</Files>
Тут мы запрещаем обращение с любых IP, кроме самого себя.
воскресенье, 12 января 2025 г.
Обновление PostgreSQL c 13 на 16 версию на Rocky Linux 9.4. Установка PostGIS
По умолчанию в Rocky Linux 9.4 в репозитариях присутствует пакет PostgreSQL 13.18.
Мне потребовалось установить расширение PostGIS, которое стабильно работает с 16 и более поздней версией. Поэтому для установки данного расширения необходимо провести update самой базы PostgreSQL с 13 на 16 версию.
Мне потребовалось установить расширение PostGIS, которое стабильно работает с 16 и более поздней версией. Поэтому для установки данного расширения необходимо провести update самой базы PostgreSQL с 13 на 16 версию.
Подключаемся к старой версии PostgreSQL (13) и проверяем установленные расширения:
# su - postgres -c "psql"
# \c <ИМЯ_БД>
# \dx
Расширение plpgsql обычно есть везде по умолчанию.
В новой версии должны быть как минимум те же самые расширения.
Устанавливаем репозитарий EPEL
# yum install -y epel-release
# dnf config-manager --enable crb
Добавляем репозитарий PostgreSQL
# dnf install -y https://download.postgresql.org/pub/repos/yum/reporpms/EL-9-x86_64/pgdg-redhat-repo-latest.noarch.rpm
Отключаем встроенный модуль postgresql в репозитариях по умолчанию.
# dnf -qy module disable postgresql
Проверка подключения репозитариев:
# yum repolist
Видим, что репозитарий с 16ой версией присутствует в списке доступных.
Вводим команду установки:
# dnf install postgresql16-server
Во время установки мы получим ошибки о том, что не получилось создать символьные ссылки на основные программы в папке /usr/bin/, так как целевые имена файлов уже используются. Все правильно. Так как в системе уже стоит PostgreSQL 13 версии. Создадим символьные ссылки позже.
failed to link /usr/bin/psql -> /etc/alternatives/pgsql-psql: /usr/bin/psql exists and it is not a symlink
failed to link /usr/bin/clusterdb -> /etc/alternatives/pgsql-clusterdb: /usr/bin/clusterdb exists and it is not a symlink
failed to link /usr/bin/createdb -> /etc/alternatives/pgsql-createdb: /usr/bin/createdb exists and it is not a symlink
failed to link /usr/bin/createuser -> /etc/alternatives/pgsql-createuser: /usr/bin/createuser exists and it is not a symlink
failed to link /usr/bin/dropdb -> /etc/alternatives/pgsql-dropdb: /usr/bin/dropdb exists and it is not a symlink
failed to link /usr/bin/dropuser -> /etc/alternatives/pgsql-dropuser: /usr/bin/dropuser exists and it is not a symlink
failed to link /usr/bin/pg_basebackup -> /etc/alternatives/pgsql-pg_basebackup: /usr/bin/pg_basebackup exists and it is not a symlink
failed to link /usr/bin/pg_dump -> /etc/alternatives/pgsql-pg_dump: /usr/bin/pg_dump exists and it is not a symlink
failed to link /usr/bin/pg_dumpall -> /etc/alternatives/pgsql-pg_dumpall: /usr/bin/pg_dumpall exists and it is not a symlink
failed to link /usr/bin/pg_restore -> /etc/alternatives/pgsql-pg_restore: /usr/bin/pg_restore exists and it is not a symlink
failed to link /usr/bin/reindexdb -> /etc/alternatives/pgsql-reindexdb: /usr/bin/reindexdb exists and it is not a symlink
failed to link /usr/bin/vacuumdb -> /etc/alternatives/pgsql-vacuumdb: /usr/bin/vacuumdb exists and it is not a symlink
Инициируем базу данных:
# /usr/pgsql-16/bin/postgresql-16-setup initdb
# /usr/pgsql-16/bin/postgresql-16-setup initdb
Переводим новую базу PostgreSQL-16 на работу с другим портом и делаем тестовый запуск.
# nano /var/lib/pgsql/16/data/postgresql.conf
Меняем директиву по умолчанию port = 5432 на port = 5433
То есть вписываем после закомментированной строчки
#port = 5432 # (change requires restart)
строку:
port = 5433
На данном этапе так же нужно сравнить специфичные настройки в файлах конфигурации:
новой версии /var/lib/pgsql/16/data/postgresql.conf и старой версии /var/lib/pgsql/data/postgresql.conf,
новой версии /var/lib/pgsql/16/data/pg_hba.conf и старой версии /var/lib/pgsql/data/pg_hba.conf
Нужно что бы специфичные настройки в новой версии были такие же как в старой.
Стартуем новую версию PostgreSQL:
# systemctl start postgresql-16
Проверка работоспособности:
# systemctl status postgresql-16
# su - postgres -c "PGPORT=5433 psql"
Останавливаем новую базу:
# systemctl stop postgresql-16
# nano /var/lib/pgsql/16/data/postgresql.conf
Меняем директиву по умолчанию port = 5432 на port = 5433
То есть вписываем после закомментированной строчки
#port = 5432 # (change requires restart)
строку:
port = 5433
На данном этапе так же нужно сравнить специфичные настройки в файлах конфигурации:
новой версии /var/lib/pgsql/16/data/postgresql.conf и старой версии /var/lib/pgsql/data/postgresql.conf,
новой версии /var/lib/pgsql/16/data/pg_hba.conf и старой версии /var/lib/pgsql/data/pg_hba.conf
Нужно что бы специфичные настройки в новой версии были такие же как в старой.
Стартуем новую версию PostgreSQL:
# systemctl start postgresql-16
Проверка работоспособности:
# systemctl status postgresql-16
# su - postgres -c "PGPORT=5433 psql"
Останавливаем новую базу:
# systemctl stop postgresql-16
Старая база postgresql-13 располагается тут /var/lib/pgsql/data, исполняемые файлы тут /usr/bin.
Новая база postgresql-16 держит файлы тут /var/lib/pgsql/16/data, исполняемые файлы тут /usr/pgsql-16/bin
Используя знания мест расположения, выполняем проверку возможности переноса данных из страрой базы в новую:
# su - postgres -c " \
/usr/pgsql-16/bin/pg_upgrade \
--old-datadir=/var/lib/pgsql/data \
--new-datadir=/var/lib/pgsql/16/data \
--old-bindir=/usr/bin \
--new-bindir=/usr/pgsql-16/bin \
--old-options '-c config_file=/var/lib/pgsql/data/postgresql.conf' \
--new-options '-c config_file=/var/lib/pgsql/16/data/postgresql.conf' \
--check \
"
Вывод должен быть таким:
Performing Consistency Checks on Old Live Server
------------------------------------------------
Checking cluster versions ok
Checking database user is the install user ok
Checking database connection settings ok
Checking for prepared transactions ok
Checking for system-defined composite types in user tables ok
Checking for reg* data types in user tables ok
Checking for contrib/isn with bigint-passing mismatch ok
Checking for incompatible "aclitem" data type in user tables ok
Checking for user-defined encoding conversions ok
Checking for user-defined postfix operators ok
Checking for incompatible polymorphic functions ok
Checking for presence of required libraries ok
Checking database user is the install user ok
Checking for prepared transactions ok
Checking for new cluster tablespace directories ok
*Clusters are compatible*
Останавливам текущий экземпляер базы PostgreSQL-13 и выполняем перенос данных в новую базу:
# systemctl stop postgresql
# su - postgres -c " \
/usr/pgsql-16/bin/pg_upgrade \
--old-datadir=/var/lib/pgsql/data \
--new-datadir=/var/lib/pgsql/16/data \
--old-bindir=/usr/bin \
--new-bindir=/usr/pgsql-16/bin \
--old-options '-c config_file=/var/lib/pgsql/data/postgresql.conf' \
--new-options '-c config_file=/var/lib/pgsql/16/data/postgresql.conf' "
Произойдет копирование базы данных из старой версии в новую:
Performing Consistency Checks
-----------------------------
Checking cluster versions ok
Checking database user is the install user ok
Checking database connection settings ok
Checking for prepared transactions ok
Checking for system-defined composite types in user tables ok
Checking for reg* data types in user tables ok
Checking for contrib/isn with bigint-passing mismatch ok
Checking for incompatible "aclitem" data type in user tables ok
Checking for user-defined encoding conversions ok
Checking for user-defined postfix operators ok
Checking for incompatible polymorphic functions ok
Creating dump of global objects ok
Creating dump of database schemas ok
Checking for presence of required libraries ok
Checking database user is the install user ok
Checking for prepared transactions ok
Checking for new cluster tablespace directories ok
If pg_upgrade fails after this point, you must re-initdb the
new cluster before continuing.
Performing Upgrade
------------------
Setting locale and encoding for new cluster ok
Analyzing all rows in the new cluster ok
Freezing all rows in the new cluster ok
Deleting files from new pg_xact ok
Copying old pg_xact to new server ok
Setting oldest XID for new cluster ok
Setting next transaction ID and epoch for new cluster ok
Deleting files from new pg_multixact/offsets ok
Copying old pg_multixact/offsets to new server ok
Deleting files from new pg_multixact/members ok
Copying old pg_multixact/members to new server ok
Setting next multixact ID and offset for new cluster ok
Resetting WAL archives ok
Setting frozenxid and minmxid counters in new cluster ok
Restoring global objects in the new cluster ok
Restoring database schemas in the new cluster ok
Copying user relation files ok
Setting next OID for new cluster ok
Sync data directory to disk ok
Creating script to delete old cluster ok
Checking for extension updates ok
Upgrade Complete
----------------
Optimizer statistics are not transferred by pg_upgrade.
Once you start the new server, consider running:
/usr/pgsql-16/bin/vacuumdb --all --analyze-in-stages
Running this script will delete the old cluster's data files:
./delete_old_cluster.sh
Новая база postgresql-16 держит файлы тут /var/lib/pgsql/16/data, исполняемые файлы тут /usr/pgsql-16/bin
Используя знания мест расположения, выполняем проверку возможности переноса данных из страрой базы в новую:
# su - postgres -c " \
/usr/pgsql-16/bin/pg_upgrade \
--old-datadir=/var/lib/pgsql/data \
--new-datadir=/var/lib/pgsql/16/data \
--old-bindir=/usr/bin \
--new-bindir=/usr/pgsql-16/bin \
--old-options '-c config_file=/var/lib/pgsql/data/postgresql.conf' \
--new-options '-c config_file=/var/lib/pgsql/16/data/postgresql.conf' \
--check \
"
Вывод должен быть таким:
Performing Consistency Checks on Old Live Server
------------------------------------------------
Checking cluster versions ok
Checking database user is the install user ok
Checking database connection settings ok
Checking for prepared transactions ok
Checking for system-defined composite types in user tables ok
Checking for reg* data types in user tables ok
Checking for contrib/isn with bigint-passing mismatch ok
Checking for incompatible "aclitem" data type in user tables ok
Checking for user-defined encoding conversions ok
Checking for user-defined postfix operators ok
Checking for incompatible polymorphic functions ok
Checking for presence of required libraries ok
Checking database user is the install user ok
Checking for prepared transactions ok
Checking for new cluster tablespace directories ok
*Clusters are compatible*
Останавливам текущий экземпляер базы PostgreSQL-13 и выполняем перенос данных в новую базу:
# systemctl stop postgresql
# su - postgres -c " \
/usr/pgsql-16/bin/pg_upgrade \
--old-datadir=/var/lib/pgsql/data \
--new-datadir=/var/lib/pgsql/16/data \
--old-bindir=/usr/bin \
--new-bindir=/usr/pgsql-16/bin \
--old-options '-c config_file=/var/lib/pgsql/data/postgresql.conf' \
--new-options '-c config_file=/var/lib/pgsql/16/data/postgresql.conf' "
Произойдет копирование базы данных из старой версии в новую:
Performing Consistency Checks
-----------------------------
Checking cluster versions ok
Checking database user is the install user ok
Checking database connection settings ok
Checking for prepared transactions ok
Checking for system-defined composite types in user tables ok
Checking for reg* data types in user tables ok
Checking for contrib/isn with bigint-passing mismatch ok
Checking for incompatible "aclitem" data type in user tables ok
Checking for user-defined encoding conversions ok
Checking for user-defined postfix operators ok
Checking for incompatible polymorphic functions ok
Creating dump of global objects ok
Creating dump of database schemas ok
Checking for presence of required libraries ok
Checking database user is the install user ok
Checking for prepared transactions ok
Checking for new cluster tablespace directories ok
If pg_upgrade fails after this point, you must re-initdb the
new cluster before continuing.
Performing Upgrade
------------------
Setting locale and encoding for new cluster ok
Analyzing all rows in the new cluster ok
Freezing all rows in the new cluster ok
Deleting files from new pg_xact ok
Copying old pg_xact to new server ok
Setting oldest XID for new cluster ok
Setting next transaction ID and epoch for new cluster ok
Deleting files from new pg_multixact/offsets ok
Copying old pg_multixact/offsets to new server ok
Deleting files from new pg_multixact/members ok
Copying old pg_multixact/members to new server ok
Setting next multixact ID and offset for new cluster ok
Resetting WAL archives ok
Setting frozenxid and minmxid counters in new cluster ok
Restoring global objects in the new cluster ok
Restoring database schemas in the new cluster ok
Copying user relation files ok
Setting next OID for new cluster ok
Sync data directory to disk ok
Creating script to delete old cluster ok
Checking for extension updates ok
Upgrade Complete
----------------
Optimizer statistics are not transferred by pg_upgrade.
Once you start the new server, consider running:
/usr/pgsql-16/bin/vacuumdb --all --analyze-in-stages
Running this script will delete the old cluster's data files:
./delete_old_cluster.sh
Стартуем новый сервер, подключаемся к нему и проверяем есть ли в нем данные:
# systemctl start postgresql-16
# su - postgres -c "PGPORT=5433 psql"
# \c <ИМЯ_БД>
# \dt
# какие-нибудь команды SELECT
Если все в порядке, то меняем порт 5433 на 5432 у нового сервера
# nano /var/lib/pgsql/16/data/postgresql.conf
# systemctl start postgresql-16
# su - postgres -c "PGPORT=5433 psql"
# \c <ИМЯ_БД>
# \dt
# какие-нибудь команды SELECT
Если все в порядке, то меняем порт 5433 на 5432 у нового сервера
# nano /var/lib/pgsql/16/data/postgresql.conf
port = 5432
# systemctl restart postgresql-16
# systemctl enable postgresql-16
# systemctl disable postgresql
# systemctl status postgresql-16
# systemctl restart postgresql-16
# systemctl enable postgresql-16
# systemctl disable postgresql
# systemctl status postgresql-16
Оптимизируем новую базу:
# su - postgres -c "/usr/pgsql-16/bin/vacuumdb --all --analyze-in-stages"
Удаляем данные старого кластера PostgreSQL-13:
# su - postgres -c "/var/lib/pgsql/delete_old_cluster.sh"
Удалить старый Postgresql (13 версии)
# yum remove postgresql postgresql-server
Создаем ссылки на исполняемые файлы Postgres
# ln -s /usr/pgsql-16/bin/psql /usr/bin/psql
# ln -s /usr/pgsql-16/bin/clusterdb /usr/bin/clusterdb
# ln -s /usr/pgsql-16/bin/createdb /usr/bin/createdb
# ln -s /usr/pgsql-16/bin/createuser /usr/bin/createuser
# ln -s /usr/pgsql-16/bin/dropdb /usr/bin/dropdb
# ln -s /usr/pgsql-16/bin/dropuser /usr/bin/dropuser
# ln -s /usr/pgsql-16/bin/pg_basebackup /usr/bin/pg_basebackup
# ln -s /usr/pgsql-16/bin/pg_dump /usr/bin/pg_dump
# ln -s /usr/pgsql-16/bin/pg_dumpall /usr/bin/pg_dumpall
# ln -s /usr/pgsql-16/bin/pg_restore /usr/bin/pg_restore
# ln -s /usr/pgsql-16/bin/reindexdb /usr/bin/reindexdb
# ln -s /usr/pgsql-16/bin/vacuumdb /usr/bin/vacuumdb
# su - postgres -c "/usr/pgsql-16/bin/vacuumdb --all --analyze-in-stages"
Удаляем данные старого кластера PostgreSQL-13:
# su - postgres -c "/var/lib/pgsql/delete_old_cluster.sh"
Удалить старый Postgresql (13 версии)
# yum remove postgresql postgresql-server
Создаем ссылки на исполняемые файлы Postgres
# ln -s /usr/pgsql-16/bin/psql /usr/bin/psql
# ln -s /usr/pgsql-16/bin/clusterdb /usr/bin/clusterdb
# ln -s /usr/pgsql-16/bin/createdb /usr/bin/createdb
# ln -s /usr/pgsql-16/bin/createuser /usr/bin/createuser
# ln -s /usr/pgsql-16/bin/dropdb /usr/bin/dropdb
# ln -s /usr/pgsql-16/bin/dropuser /usr/bin/dropuser
# ln -s /usr/pgsql-16/bin/pg_basebackup /usr/bin/pg_basebackup
# ln -s /usr/pgsql-16/bin/pg_dump /usr/bin/pg_dump
# ln -s /usr/pgsql-16/bin/pg_dumpall /usr/bin/pg_dumpall
# ln -s /usr/pgsql-16/bin/pg_restore /usr/bin/pg_restore
# ln -s /usr/pgsql-16/bin/reindexdb /usr/bin/reindexdb
# ln -s /usr/pgsql-16/bin/vacuumdb /usr/bin/vacuumdb
Теперь можно установить postgis выбрав правильные версии postgresql
# dnf install postgis34_16
# su - postgres -c "psql"
# \c <ИМЯ_БД>
# CREATE EXTENSION postgis;
CREATE EXTENSION
Проверка установленного расширения:
# SELECT * FROM pg_available_extensions WHERE name = 'postgis';
# \dx
Если при вводе команды "CREATE EXTENSION postgis;" возникают вот такие ошибки
ERROR: could not access file "$libdir/postgis-3": No such file or directory
или
ERROR: could not open extension control file "/usr/share/pgsql/extension/postgis.control": No such file or directory
скорее всего в системе стоит несколько версий PostgreSQL, и не используемую нужно удалить.
# dnf install postgis34_16
# su - postgres -c "psql"
# \c <ИМЯ_БД>
# CREATE EXTENSION postgis;
CREATE EXTENSION
Проверка установленного расширения:
# SELECT * FROM pg_available_extensions WHERE name = 'postgis';
# \dx
Если при вводе команды "CREATE EXTENSION postgis;" возникают вот такие ошибки
ERROR: could not access file "$libdir/postgis-3": No such file or directory
или
ERROR: could not open extension control file "/usr/share/pgsql/extension/postgis.control": No such file or directory
скорее всего в системе стоит несколько версий PostgreSQL, и не используемую нужно удалить.
На этом все.
Подписаться на:
Сообщения (Atom)