Translations:Local Server/9/en: различия между версиями

Материал из SmartPlayer
Новая страница: «'''To prepare the image, you need:''' * Static IP address (domain name) on which the server will be deployed, personal account, configured paths to client applications. *[Not necessary]. Full network settings, when preparing the image, a completely ready-made working network interface is created. '''Full network settings include:''' * Static IP address * Gateway address * Network mask * Primary DNS * Secondary DNS * DNS suffix»
 
Нет описания правки
 
Строка 9: Строка 9:
* Secondary DNS
* Secondary DNS
* DNS suffix
* DNS suffix
== Option 3. Deployment on the Customer's Server, Using Hyper-V Virtualization ==
A disk with the fully installed platform is exported. The next step is for the network administrator to import the virtual machine into their virtualization environment; after starting the server, a fully functional platform is ready.<br>
'''Delivery contents:'''
# Archive with Ubuntu-server, exported from Hyper-V.
'''Required for image preparation:'''<br>
* A static IP address (domain name) where the Ubuntu server, personal account, and configured paths to client applications will be deployed;
* {{Note|''Optional''|warn}} complete network settings. During image preparation, a fully ready and functional network interface is created.
'''Complete network settings include:'''<br>
# Static IP address
# Gateway address
# Network mask
# Primary DNS
# Secondary DNS
# DNS suffix
'''(Installation of this solution is carried out for an additional fee, please check with your manager)'''
== '''Hardware Requirements for Installing the Server Application in Clustering Mode''' ==
Clustering is a method that allows combining several servers into a single system so they can work together and perform common tasks. In this case, these servers are called cluster nodes. The main idea of clustering is to increase the reliability, performance, and availability of the application.<br>
For the correct operation of the server application in clustering mode, the requirements for each element are specified below:
Master Node is the control center of the entire cluster. It manages all processes and coordinates the work of the remaining nodes, called worker nodes.
{| class="wikitable"
|+ Master node CPU
|-
! CPU !! RAM
|-
| 1xXeon (12 cores) || From 32 GB
|}
Worker Node is the working capacity of the cluster, which directly performs all the tasks and processes necessary for the applications to run. Each Worker Node handles the execution of the container and service on which the application runs.
{| class="wikitable"
|+ Worker node
|-
! CPU !! RAM
|-
| 1xXeon (8 cores) || From 24 GB
|}
It is recommended to use/add one "worker node" per 1500-2000 devices.
S3 storage is a type of cloud storage created for storing large volumes of data. "S3" stands for Simple Storage Service.
S3 is a unified storage to which servers connect during clustering.
{| class="wikitable"
|+ S3
|-
! CPU !! RAM
|-
| 1xXeon (12 cores) || From 24 GB
|}
{{Note|There is a dependency on the generation of the client application version. The earlier the version of the client application installed, the more it loads the server due to a larger number of requests. Therefore, it is always recommended to have the latest version of the client application.|warn}}
== <span id="internalNetwork">Answers to Frequent Questions on Working with the Customer's Internal Network</span> ==
* Question: Which ports need to be opened?
* Answer: For the local server (deployed on the customer's infrastructure) to work, port 80 (HTTP server) and port 443 (HTTPS server). For the operation of the SmartPlayer cloud server within network restrictions, request the document from the integrator or SmartPlayer representative.
---------
* Question: The direction of port opening on the client application side (it can be IN or OUT)?
* Answer: It is necessary to open in both directions, IN and OUT.
---------
* Question: Description of data exchange between the cloud server and the client application?
* Answer: The server can work using two protocols: HTTP or HTTPS. When implementing the server using the HTTPS protocol, the customer provides the certificate and independently monitors its renewal after the certificate's expiration date. Communication between the server and client applications is carried out via port 80 (HTTP server) or port 443 (HTTPS server). For interaction, the WebSocket (WS) or WebSocketSecure (WSS) protocol is used, depending on the server configuration. Required ports in the local network: port 80 or port 443, depending on the server configuration. If there is a proxy in the network, packets transmitted between the server and the personal account, client applications must not be modified. The connection opening initialization comes from the client application side.
---------
* Question: What is the traffic volume?
* Answer: Depends on the content played on the devices. In ping-pong mode, traffic consumption is minimal, calculated in kilobytes.
---------
* Question: When will traffic exchange occur?
* Answer: Let's divide traffic into two categories:
** ping-pong traffic exchange occurs around the clock
** traffic for receiving content on client applications occurs at the moment it is loaded onto the device. Content loading can be scheduled, for example, set at night when the communication channel is less loaded.

Текущая версия от 12:05, 23 декабря 2025

Информация о сообщении (править)
Это сообщение не имеет описания. Если вы знаете, где или как это сообщение используется, то можете помочь другим переводчикам, добавив к нему описание.
Определение сообщения (Local Server)
'''Для подготовки образа требуются:'''
*Статичный IP адрес(доменное имя) на котором будет развернут сервер, личный кабинет, сконфигурированные пути к клиентским приложения.
*[Необязательно]. Полные сетевые настройки, при подготовке образа создается полностью готовый работоспособный сетевой интерфейс.
'''Полные сетевые настройки включают в себя:'''
*Static IP address
*Gateway address
*Network mask
*Primary DNS
*Secondary DNS
*DNS suffix
==Вариант 3. Развертывания на сервере заказчика, с использованием виртуализации Hyper-V ==
Выгружается диск с полностью установленной платформой. Следующим шагом сетевой администратор импортирует виртуальную машину в свою среду виртуализации, после запуска сервера полностью работоспособная платформа готова.<br>
'''Состав поставки:'''
# Архив с Ubuntu-server, экспортированной из Hyper-V. 
'''Для подготовки образа требуются:'''<br>
* статичный IP-адрес(доменное имя), на котором будет развернут сервер Ubuntu, личный кабинет и сконфигурированные пути к клиентским приложениям;
* {{Note|''Необязательно''|warn}}полные сетевые настройки. При подготовке образа создается полностью готовый работоспособный сетевой интерфейс.
'''Полные сетевые настройки включают в себя:'''<br>
# Static IP address
# Gateway address
# Network mask
# Primary DNS
# Secondary DNS
# DNS suffix
'''(Установка данного решения осуществляется за дополнительную оплату, уточняйте у менеджера)''' 
== '''Требования к аппаратному обеспечению при установки серверного приложения в режиме кластеризации''' ==
Кластеризация — это метод, который позволяет объединить несколько серверов в одну систему, чтобы они могли работать вместе и выполнять общие задачи. В этом случае эти серверы называются узлами кластера. Основная идея кластеризации — повысить надежность, производительность и доступность приложения.<br>
Для корректной работы серверного приложения в режиме кластеризации ниже будут прописаны требования для каждого из элементов:
Master Node — это контролирующий центр всего кластера. Он управляет всеми процессами и координирует работу остальных узлов называемых worker nodes. 
{| class="wikitable"
|+ Master node CPU
|-
! CPU !! RAM
|-
| 1xXeon (12 ядер) ||  От 32 Gb
|}
Worker Node — это рабочие мощности кластера, которые непосредственно выполняют все задачи и процессы, нужные для работы приложений. Каждый Worker Node занимается исполнением контейнера и сервиса, на которых работает приложение.
{| class="wikitable"
|+ Worker name
|-
! CPU !! RAM
|-
| 1xXeon (8 ядер) ||  От 24 Gb
|}
Рекомендуется использовать/добавлять одну "worker node" на 1500-2000 устройств.
S3-хранилище — это тип облачного хранилища, созданного для хранения больших объёмов данных. "S3" означает Simple Storage Service.
S3- это единое хранилище к которому подключаются сервера при кластеризации.
{| class="wikitable"
|+ S3
|-
! CPU !! RAM
|-
| 1xXeon (12 ядер) ||  От 24 Gb
|}
{{Note|Существует зависимость от поколения версии клиентского приложения. Чем более ранняя версия клиентского приложения установлена, тем более сильно она нагружает сервер в связи с большим количество обращений (запрсоов). Поэтому рекомендуется всегда иметь актуальную версию клиентского приложения.|warn}}
== <span id="internalNetwork">Ответы на частые вопросы по работе с внутренней сети заказчика</span> ==
*Вопрос: Какие порты необходимо открыть ?
*Ответ: Для работы локального сервера (разворачивается на мощностях заказчика) по 80 порту (сервер http), по 443 порту (сервер https). Для работы облачного сервера SmartPlayer в ограничениях сети запросите документ у интегратора или представителя SmartPlayer.
---------
*Вопрос: Направление открытия портов на стороне клиентского приложения ( оно может быть  IN или OUT ) ?
*Ответ: Необходимо открыть в обе стороны IN и OUT
---------
*Вопрос: Описание обмена данными между облачныи сервером и клиентским приложение ?
*Ответ: Сервер может работать по двум протоколам http или https. При реализации сервера по протоколу https заказчик предоставляет сертификат и самостоятельно следит за актуализацией его после завершения срока действия сертификата. Связь между сервером и клиентскими приложениями осуществляется по 80 порту (сервер http), по 443 порту (сервер https). Для взаимодействия используется протокол WebSocket (WS) или WebSocketSecure (WSS) в зависимости от настройки сервера. Необходимые порты в локальной сети. 80 порт или 443 порт в зависимости от конфигурации сервера. При наличии в сети прокси, пакеты передаваемые между сервером и личным кабинетом, клиентскими приложениями не должны модифицироваться. Инициализация открытия соединения идет с стороны клиентского приложения.
---------
*Вопрос: Какой объем трафика ?
*Ответ: Зависит от проигрываемого контента на устройства. В режиме пинг-понг расход трафика минимальный, исчесляемый в килобайтах.
---------
*Вопрос: Когда будет происходить обмен трафиком?
*Ответ: Разделим трафик на две категории:
**трафик пинг-понг обмен происходит круглосуточно 
**трафик получения контента на клиенсткие приложения происходит в момент загрузке его на устройство. Загрузку контента можно отложить по расписанию, например поставить в ночное время когда канал связи менее загружен

To prepare the image, you need:

  • Static IP address (domain name) on which the server will be deployed, personal account, configured paths to client applications.
  • [Not necessary]. Full network settings, when preparing the image, a completely ready-made working network interface is created.

Full network settings include:

  • Static IP address
  • Gateway address
  • Network mask
  • Primary DNS
  • Secondary DNS
  • DNS suffix

Option 3. Deployment on the Customer's Server, Using Hyper-V Virtualization

A disk with the fully installed platform is exported. The next step is for the network administrator to import the virtual machine into their virtualization environment; after starting the server, a fully functional platform is ready.
Delivery contents:

  1. Archive with Ubuntu-server, exported from Hyper-V.

Required for image preparation:

  • A static IP address (domain name) where the Ubuntu server, personal account, and configured paths to client applications will be deployed;
  • Optional
    complete network settings. During image preparation, a fully ready and functional network interface is created.

Complete network settings include:

  1. Static IP address
  2. Gateway address
  3. Network mask
  4. Primary DNS
  5. Secondary DNS
  6. DNS suffix

(Installation of this solution is carried out for an additional fee, please check with your manager)

Hardware Requirements for Installing the Server Application in Clustering Mode

Clustering is a method that allows combining several servers into a single system so they can work together and perform common tasks. In this case, these servers are called cluster nodes. The main idea of clustering is to increase the reliability, performance, and availability of the application.
For the correct operation of the server application in clustering mode, the requirements for each element are specified below: Master Node is the control center of the entire cluster. It manages all processes and coordinates the work of the remaining nodes, called worker nodes.

Master node CPU
CPU RAM
1xXeon (12 cores) From 32 GB

Worker Node is the working capacity of the cluster, which directly performs all the tasks and processes necessary for the applications to run. Each Worker Node handles the execution of the container and service on which the application runs.

Worker node
CPU RAM
1xXeon (8 cores) From 24 GB

It is recommended to use/add one "worker node" per 1500-2000 devices. S3 storage is a type of cloud storage created for storing large volumes of data. "S3" stands for Simple Storage Service. S3 is a unified storage to which servers connect during clustering.

S3
CPU RAM
1xXeon (12 cores) From 24 GB
There is a dependency on the generation of the client application version. The earlier the version of the client application installed, the more it loads the server due to a larger number of requests. Therefore, it is always recommended to have the latest version of the client application.

Answers to Frequent Questions on Working with the Customer's Internal Network

  • Question: Which ports need to be opened?
  • Answer: For the local server (deployed on the customer's infrastructure) to work, port 80 (HTTP server) and port 443 (HTTPS server). For the operation of the SmartPlayer cloud server within network restrictions, request the document from the integrator or SmartPlayer representative.

  • Question: The direction of port opening on the client application side (it can be IN or OUT)?
  • Answer: It is necessary to open in both directions, IN and OUT.

  • Question: Description of data exchange between the cloud server and the client application?
  • Answer: The server can work using two protocols: HTTP or HTTPS. When implementing the server using the HTTPS protocol, the customer provides the certificate and independently monitors its renewal after the certificate's expiration date. Communication between the server and client applications is carried out via port 80 (HTTP server) or port 443 (HTTPS server). For interaction, the WebSocket (WS) or WebSocketSecure (WSS) protocol is used, depending on the server configuration. Required ports in the local network: port 80 or port 443, depending on the server configuration. If there is a proxy in the network, packets transmitted between the server and the personal account, client applications must not be modified. The connection opening initialization comes from the client application side.

  • Question: What is the traffic volume?
  • Answer: Depends on the content played on the devices. In ping-pong mode, traffic consumption is minimal, calculated in kilobytes.

  • Question: When will traffic exchange occur?
  • Answer: Let's divide traffic into two categories:
    • ping-pong traffic exchange occurs around the clock
    • traffic for receiving content on client applications occurs at the moment it is loaded onto the device. Content loading can be scheduled, for example, set at night when the communication channel is less loaded.