Le temps de latence est le temps que met un signal pour parcourir une distance donnée. Dans ce qui suit, le temps de latence se rapporte au temps de circulation complet, c'est-à-dire de A à B et inversement. C'est le temps qui s'écoule avant le début d'une transaction : le client A doit communiquer avec le serveur B et reçoit une réponse, puis la transaction démarre.
Les temps de latence en Europe sont par exemple d'environ 40 ms, entre l'Europe et l'Amérique du Sud d'environ 250 ms. Voir l'illustration suivante.
La bande passante définit le nombre de données pouvant être transmises en parallèle. Par exemple, une connexion de 10 Mbit peut transmettre 1,25 Mbytes par seconde.
Si l'on considère uniquement PARTsolutions, tous les utilisateurs ne chercheront pas et ne sélectionneront pas les pièces en même temps.
Pour les clients disposant de leurs propres éléments, les temps de téléchargement pourraient être plus longs en fonction de la bande passante.
La bande passante disponible se répartit entre tous les utilisateurs et toutes les applications sur le même site (par ex. e-mail, navigateur, ERP, bureau à distance, Citrix, etc.
PARTsolutions dans un réseau de 20 Mbit avec d'autres applications : Beaucoup de collisions = ralentissement de la vitesse
Conclusion : pour de nombreuses petites transactions, le temps de latence est plus important que la bande passante. Mais pour plusieurs transactions plus importantes, la bande passante est plus importante que le temps de latence.
Le tableau suivant montre les actions typiques de PARTsolutions dans différents environnements de latence / bande passante.
![]() | Remarque |
---|---|
En raison des nombreux effets secondaires possibles, les valeurs indiquées ne peuvent être utilisées que comme estimation approximative du côté du client. |
Dans une installation standard, l'accès aux pièces du fabricant, aux pièces internes et à la base de données des liens se fait uniquement via PARTapplicationServer. Les actions telles que la navigation et la recherche ne nécessitent qu'une petite bande passante. Pour visualiser les pièces, les données doivent être téléchargées localement, ce qui nécessite plus de bande passante en fonction de la complexité des pièces.
Pour compenser une bande passante réduite ou pour économiser de la bande passante, un serveur cache peut être placé entre PARTapplicationServer et le client. Le serveur cache est placé sur un site de l'entreprise afin d'accélérer les transferts de données sur tous les clients.
CADENAS utilise Squid comme serveur de cache, mais si une entreprise a déjà un serveur de cache HTTP en place, il peut être utilisé.