1.3.5.3. Performance Installation multi-sites

Définition:

  • Temps de latence

    Le temps de latence est le temps que met un signal pour parcourir une distance donnée. Dans ce qui suit, le temps de latence se rapporte au temps de circulation complet, c'est-à-dire de A à B et inversement. C'est le temps qui s'écoule avant le début d'une transaction : le client A doit communiquer avec le serveur B et reçoit une réponse, puis la transaction démarre.

    Les temps de latence en Europe sont par exemple d'environ 40 ms, entre l'Europe et l'Amérique du Sud d'environ 250 ms. Voir l'illustration suivante.

  • Largeur de bande

    La bande passante définit le nombre de données pouvant être transmises en parallèle. Par exemple, une connexion de 10 Mbit peut transmettre 1,25 Mbytes par seconde.

    Si l'on considère uniquement PARTsolutions, tous les utilisateurs ne chercheront pas et ne sélectionneront pas les pièces en même temps.

    PARTsolutions seul dans un réseau de 5 Mbits : peu de collisions = généralement pleine vitesse

    PARTsolutions seul dans un réseau de 5 Mbits : peu de collisions = généralement pleine vitesse

    Pour les clients disposant de leurs propres éléments, les temps de téléchargement pourraient être plus longs en fonction de la bande passante.

    La bande passante disponible se répartit entre tous les utilisateurs et toutes les applications sur le même site (par ex. e-mail, navigateur, ERP, bureau à distance, Citrix, etc.

    PARTsolutions dans un réseau de 20 Mbit avec d'autres applications : Beaucoup de collisions = ralentissement de la vitesse

    PARTsolutions dans un réseau de 20 Mbit avec d'autres applications : Beaucoup de collisions = ralentissement de la vitesse

Conclusion : pour de nombreuses petites transactions, le temps de latence est plus important que la bande passante. Mais pour plusieurs transactions plus importantes, la bande passante est plus importante que le temps de latence.

PARTsolutions Comparaison de vitesse

Le tableau suivant montre les actions typiques de PARTsolutions dans différents environnements de latence / bande passante.

[Remarque]Remarque

En raison des nombreux effets secondaires possibles, les valeurs indiquées ne peuvent être utilisées que comme estimation approximative du côté du client.

Flux de données

Dans une installation standard, l'accès aux pièces du fabricant, aux pièces internes et à la base de données des liens se fait uniquement via PARTapplicationServer. Les actions telles que la navigation et la recherche ne nécessitent qu'une petite bande passante. Pour visualiser les pièces, les données doivent être téléchargées localement, ce qui nécessite plus de bande passante en fonction de la complexité des pièces.

Serveur de cache

Pour compenser une bande passante réduite ou pour économiser de la bande passante, un serveur cache peut être placé entre PARTapplicationServer et le client. Le serveur cache est placé sur un site de l'entreprise afin d'accélérer les transferts de données sur tous les clients.

CADENAS utilise Squid comme serveur de cache, mais si une entreprise a déjà un serveur de cache HTTP en place, il peut être utilisé.