Bonjour,
J'ai paramétré des alertes sur mon flux de données afin de recevoir un mail en cas d'erreur 500.
Cela a bien fonctionné dans le passé et cela fonctionne bien aujourd'hui donc pas de soucis au niveau du paramétrage.
Le 15/10 entre 8h et 16h UTC j'ai reçu 5000 erreurs 500 dans graylog. Pour autant, notre serveur mail n'a rien reçu.
Comment m'assurer que les alertes fonctionnent correctement ?
Erreur connexion SSL - Alertes mail graylog non envoyées
Related questions
- Ssh_init: Host does not exist
19976
13.11.2017 01:40
- Code d’erreur : DLG_FLAGS_SEC_CERT_CN_INVALID ?
18943
14.08.2018 09:32
- Err_too_many_redirects
16320
12.11.2017 15:36
- LetsEncrypt et erreur DNS A / AAAA
16207
16.04.2019 15:34
- Certificat Let's encrypt
15996
21.08.2017 17:44
- SSL Cloudflare chez OVH
15738
28.04.2017 09:51
- Impossible d'activer le certificat SSL pour HTTPS
15570
07.01.2021 02:44
- Trop de redirections suite au HTTPS
14825
14.12.2016 14:30
- Net::err_cert_common_name_invalid
14679
29.05.2017 08:20
- Prise en charge du protocole MQTT
13558
06.04.2017 13:57
Bonjour,
Merci de la réponse rapide.
Il s'agit de ldp-qm-80879.
Bonjour,
Je comprends que des problèmes puissent arriver mais il est tout de même très déplaisant de voir qu'un système d'alerte ne soit pas en capacité d'alerter lorsque celui-ci rencontre un problème...
Comment peut-on suivre automatiquement l'état de ce service ?
Bonjour,
Merci pour la réactivité.
Pour information le Kafka sur lequel les logs sont envoyés par logstash est indisponible depuis ce matin 9h30 UTC. Voici les logs retourné par logstash depuis le manager OVH : http://prntscr.com/l7irtf
Bonjour,
Ce message est trompeur ici, le serveur kafka est bien présent, mais rejette le message. Le plus probable est qu'une partie de vos logs que vous tentez d'envoyer est plus gros qu'une des limites autorisées:
* Taille totale du message supérieur à 1 MBytes.
* Champ supérieur à 4096 Bytes.
* Contenue du champ supérieur à 32766 Bytes.
Nous vous recommandons l'utilisation du filtre logstash truncate pour limiter la taille maximal de vos messages, par exemple:
truncate {
fields => ["message"]
length_bytes => 30000
}
Cordialement,
Bonjour,
Effectivement le problème était dû à la longueur d'un message.
En revanche, tous nos logs étaient bloqués à cause de cela (le reste des logs envoyés à logstash n'étaient pas envoyés à kafka).
Y a t-il un paramétrage que l'on peut modifier pour limiter les tentatives d'envoi ou alors tout de même envoyer les autres logs s'il y en a 1 qui rencontre un problème ?
Bonjour,
Nous vous recommandons dans votre usage de truncate également les champs "json_message" et "response_content_urls", tel que:
truncate {
fields => ["message","json_message","response_content_urls"]
length_bytes => 30000
}
Par défaut logstash recommence à l'infini (1 message en retry ne bloque pas le reste de la queue), mais si trop de messages s'accumulent dans la queue output, elle peut-être saturée et ne plus traiter de message (il faut un dépassement de 1GiB de le queue).
Aujourd'hui nous appliquons la politique par défaut de retry à l'infini quand un problème d'envoi vers kafka est détecté.
Des modifications sont en cours dans le plugin kafka-output https://github.com/logstash-plugins/logstash-output-kafka/pull/194 pour gérer ce cas (quand le message est trop large pour ne pas le renvoyer à l'infini), quand cette modification sera présente upstream, nous l'appliquerons sur la plateforme.
Bonjour,
Nous avons fais la modification, merci du conseil.
Avec le truncate nous devrions avoir plus de mal à atteindre 1Go dans la queue.