Bonjour,
J'ai lancé 20 VM qui discutent toutes avec mon OBJECT STORAGE en passant par OPENSTACK.
Mais lors d'écriture de fichier j'ai des 429 Too Many Requests.
Quelles sont les limites d'utilisation ? Ces limites sont pour un conteneur ou pour l'ensemble du projet ?
Peut on les augmenter ?
Merci
Object Storage : Too Many Requests
Related questions
- Nextcloud sur ovh
28137
19.07.2017 18:30
- Hubic - Comment récupérer ses fichiers avec une méthode qui fonctionne ?
26926
29.05.2018 17:47
- Help object storage avec api s3
23630
14.11.2018 17:37
- Client hubic Linux encore supporté ?
22080
10.07.2017 17:17
- Sauvegardes Public Cloud Archive et duplicity/deja-dup
19848
04.08.2017 18:45
- Recuperer ses données sur HUBIC
19225
08.02.2017 13:43
- Hubic connexion impossible a mon compte?
16865
20.12.2017 08:23
- [Résolu] Comment s'authentifier sur Cloud Archive ?
15503
30.10.2019 17:45
- Comment se connecter à HUBIC avec Cyberduck
15411
14.08.2018 17:12
- Sauvegarde automatique base de donnée
14935
08.04.2017 05:30
Bonjour,
Je suis également intéressé par une réponse à cette question.
J'utilise un conteneur public pour stocker des images. J'aimerai bien savoir s'il y a des limitations en termes de hits notamment.
Bonjour,
J'utilise également l'outil et s'il y a des limites dans l'utilisation de l'outil ça m'interesse
Bonjour à tous,
Je me permets de répondre sur ce post si jamais les informations peuvent en intéresser d'autres.
De manière native aucune limitation de bande passante ou de requête sur les offres de stockage (Public Cloud Archives ou Public Cloud Storage).
La seule "restriction" qui existe est ce qu'on appelle la DLO (Dynamic Large Object) qui va entraîner une segmentation des fichiers trop gros. C'est le fonctionnement de la brique "swift" d'OpenStack (https://docs.openstack.org/swift/latest/overview_large_objects.html).
Enfin au niveau de l'authentification (brique Keystone), une limitation de création de tokens d'authentification existe, 60 tokens pour 60 secondes glissantes maximum (un token dure 24h).
J'espère que ces éléments peuvent vous aider.
François
Bonjour,
nous utilisons un cluster spark et le connecteur hadoop-openstack existant ne permet pas d'utiliser un même token. Avec 60 coeurs, nous arrivons très vite à la limitation de Keystone de 60 tokens pour 60 secondes, et il parait difficile d'utiliser un cluster plus important. De plus, nous ne pouvons pas actuellement avoir un job qui dure plus de 24h, les tokens ne pouvant être renouvelés.
est-ce qu'il y a un moyen de contourner ou d'adoucir ces restrictions ?
Merci !