Erreur 502 pour Lufi seulement, étrange

:fr: Erreur 502 Bad gateway seulement pour le service Lufi…

Mon serveur YunoHost

Matériel: Brique Internet avec VPN
Version de YunoHost: 3.7.0.12 (now)
J’ai accès à mon serveur : En SSH | Par la webadmin
Êtes-vous dans un contexte particulier ou avez-vous effectué des modificiations particulières sur votre instance ? : non, aucun changement

Description du problème

J’ai différents services sur ma brique. Néanmoins un service ne fonctionne pas : lufi.
En effet, j’obtiens l’erreur suivante : 502 Bad Gateway. Je n’ai néanmoins fait aucune modifications depuis plusieurs mois.

J’ai essayé de voir des sujets plus ou moins identiques dans le forum et :

  • j’ai redémarré plusieurs services (en ligne de commande) : lufi, nginx, php7.0-fpm, mysql, postgresql mais lufi toujours “ko”.
  • en faisant un statut de lufi, j’obtiens :
$ sudo systemctl status lufi.service
● lufi.service - Image hosting and sharing service
  Loaded: loaded (/etc/systemd/system/lufi.service; enabled; vendor preset: enabled)
  Active: active (exited) (Result: exit-code) since Fri 2021-04-09 10:50:43 UTC; 9s ago
    Docs: https://framagit.org/luc/lufi/wikis/home
 Process: 4823 ExecStop=/usr/local/bin/carton exec hypnotoad -s script/lufi (code=exited, status=255)
 Process: 5015 ExecStart=/usr/local/bin/carton exec hypnotoad script/lufi (code=exited, status=255)
Main PID: 5015 (code=exited, status=255)

avril 09 10:50:43 [domaine] systemd[1]: Started Image hosting and sharing service.
avril 09 10:50:52 [domaine] carton[5015]: Can't kill a non-numeric process ID at /var/www/lufi/local/lib/perl5/Mojo/Server/Prefork.pm line 29, <$handle> l
avril 09 10:50:52 [domaine] systemd[1]: lufi.service: Main process exited, code=exited, status=255/n/

Où / comment obtenir des logs (ici de lufi) sinon ? :-p

D’avance merci pour votre soutien.

Bonsoir,

Quelqu’un aurait-il une idée à propos de cette anomalie ?

Bonne soirée.

Bonsoir,

Pour information : il y a quelques semaines, j’avais déjà eu cette erreur pour le service Lufi parmi d’autres, tel que le service Lstu… Un redémarrage de la brique avait alors suffi pour corriger l’erreur 502 sur les différents services (Lufi y compris).

Aujourd’hui, seul Lufi est à nouveau en erreur 502 (aucune idée du pourquoi) et après redémarrage de la brique, l’erreur persiste :frowning:

D’avance merci pour vos retours / aides / pistes.

J’en profite pour ajouter quelques logs :slight_smile:

$ sudo grep -R lufi /var/log/* | tail -n 20
/var/log/nginx/lufi.error.log:2021/04/14 09:33:30 [error] 5499#5499: *1866 connect() failed (111: Connection refused) while connecting to upstream, client: 77.135.129.30, server: [instance].nohost.me, request: "GET /lufi/ HTTP/2.0", upstream: "http://127.0.0.1:8095/lufi", host: "[instance].nohost.me", referrer: "https://sebsauvage.net/"
/var/log/syslog:Apr 13 05:00:01 [instance] CRON[322]: (www-data) CMD (cd "/var/www/lufi/" && /usr/local/bin/carton exec script/lufi cron stats)
/var/log/syslog:Apr 13 06:00:01 [instance] CRON[1462]: (www-data) CMD (cd "/var/www/lufi/" && /usr/local/bin/carton exec script/lufi cron cleanbdd)
/var/log/syslog:Apr 13 06:00:01 [instance] CRON[1464]: (www-data) CMD (cd "/var/www/lufi/" && /usr/local/bin/carton exec script/lufi cron cleanfiles)
/var/log/syslog:Apr 13 07:00:01 [instance] CRON[2677]: (www-data) CMD (cd "/var/www/lufi/" && /usr/local/bin/carton exec script/lufi cron watch)
/var/log/syslog:Apr 14 05:00:01 [instance] CRON[24145]: (www-data) CMD (cd "/var/www/lufi/" && /usr/local/bin/carton exec script/lufi cron stats)
/var/log/syslog:Apr 14 06:00:01 [instance] CRON[25269]: (www-data) CMD (cd "/var/www/lufi/" && /usr/local/bin/carton exec script/lufi cron cleanfiles)
/var/log/syslog:Apr 14 06:00:01 [instance] CRON[25268]: (www-data) CMD (cd "/var/www/lufi/" && /usr/local/bin/carton exec script/lufi cron cleanbdd)
/var/log/syslog:Apr 14 07:00:01 [instance] CRON[26525]: (www-data) CMD (cd "/var/www/lufi/" && /usr/local/bin/carton exec script/lufi cron watch)
/var/log/yunohost/categories/operation/20200404-124455-app_install-lufi.yml:  app: lufi
/var/log/yunohost/categories/operation/20200404-124455-app_install-lufi.yml:  args: domain=[instance].nohost.me&path=%2Flufi&max_file_size=10&is_public=1
/var/log/yunohost/categories/operation/20200404-124455-app_install-lufi.yml:  YNH_APP_ARG_PATH: /lufi
/var/log/yunohost/categories/operation/20200404-124455-app_install-lufi.yml:  YNH_APP_ID: lufi
/var/log/yunohost/categories/operation/20200404-124455-app_install-lufi.yml:  YNH_APP_INSTANCE_NAME: lufi
/var/log/yunohost/categories/operation/20200404-124455-app_install-lufi.yml:  YNH_CWD: /var/cache/yunohost/from_file/lufi_ynh-6e05053ee90370e659d16abd9dcd9220e9e497f5/scripts
/var/log/yunohost/categories/operation/20200404-124455-app_install-lufi.yml:  - lufi
/var/log/yunohost/categories/operation/20200404-124456-permission_create-lufi.yml:  permission: lufi.main
/var/log/yunohost/categories/operation/20200404-124456-permission_create-lufi.yml:  - lufi
/var/log/yunohost/categories/operation/20200404-132042-user_permission_update-lufi.yml:  permission: lufi.main
/var/log/yunohost/categories/operation/20200404-132042-user_permission_update-lufi.yml:  - lufi

Maintenant je me rappelle que j’ai modifié il y a quelques jours le fichier “crontab” où j’avais les lignes suivantes :

0  0	* * *	root	/usr/local/bin/ynh-hotspot stop
0  6	* * *	root	/usr/local/bin/ynh-hotspot start

par les suivantes :

0  23	* * *	root	/usr/local/bin/ynh-hotspot stop
0  5	* * *	root	/usr/local/bin/ynh-hotspot start

Voilà le contenu du fichier “crontab” :

$ cat /etc/crontab 
# /etc/crontab: system-wide crontab
# Unlike any other crontab you don't have to run the `crontab'
# command to install the new version when you edit this file
# and files in /etc/cron.d. These files also have username fields,
# that none of the other crontabs do.

SHELL=/bin/sh
PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin

# m h dom mon dow user	command
17 *	* * *	root    cd / && run-parts --report /etc/cron.hourly
25 6	* * *	root	test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.daily )
47 6	* * 7	root	test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.weekly )
52 6	1 * *	root	test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.monthly )
#
0  23	* * *	root	/usr/local/bin/ynh-hotspot stop
0  5	* * *	root	/usr/local/bin/ynh-hotspot start

On remarque que cela est dû à une erreur de /usr/local/bin/carton (voir le début du ticket avec le statut de lufi).

Cela peut-il donner une piste ?

Salut,

avez-vous une idée du pourquoi l’anomalie apparaît et/ou comment la résoudre ?

Bonne journée à tous :slight_smile:

Salut,

perso je pense pas qu’il y ai besoin de chercher plus, le soucis est bien dans le systemctl status lufi que tu as posté au début:

avril 09 10:50:43 [domaine] systemd[1]: Started Image hosting and sharing service.
avril 09 10:50:52 [domaine] carton[5015]: Can't kill a non-numeric process ID at /var/www/lufi/local/lib/perl5/Mojo/Server/Prefork.pm line 29, <$handle> l
avril 09 10:50:52 [domaine] systemd[1]: lufi.service: Main process exited, code=exited, status=255/n/

Reste à comprendre pourquoi il ne peut pas kill a non-numeric process ID … et si le PID n’est pas numérique, quel est-il …

Si tu fais ps -ef --forest | grep 'lufi\|carton', ça raconte des trucs ?

Merci Aleks pour ton retour :slight_smile:

Je ne crois pas. Voilà le résultat :

~$ ps -ef --forest | grep 'lufi\|carton'
admin      363 31016  0 20:25 pts/0    00:00:00              \_ grep lufi\|carton

C’est tout.

Aleks, y aurait-il autre chose à essayer pour vérifier l’état du service ou de la brique et mieux comprendre l’origine de l’erreur ?

A plus.

This topic was automatically closed 15 days after the last reply. New replies are no longer allowed.