Impossible de me connecter en SSH à mon NAS

What type of hardware are you using: Raspberry Pi 3, 4+
What YunoHost version are you running: 12.1.39
How are you able to access your server: Direct access via physical keyboard/screen
Are you in a special context or did you perform specific tweaking on your YunoHost instance ?: Non

Describe your issue

Bonjour,

J’ai récemment monté un NAS DIY avec OpenMediaVault. Il doit notamment servir à stocker les backups de mon YunoHost (faites avec archivist).

Seulement lorsque je tente, depuis YunoHost, de me connecter en SSH à mon NAS, la connexion ne reçoit aucune réponse, ni aucun message d’erreur (il n’y a pas d’accès refusé, ni de “no route to host”), seulement la tentative de connexion qui reste indéfiniment.

Je n’ai pas mis de restrictions sur le pare-feu d’OpenMediaVault, je n’ai d’ailleurs aucune difficulté à m’y loguer en SSH depuis mon PC hors de mon LAN, à travers mon VPN dont le point de terminaison est mon Raspberry sous YunoHost.

Lorsque, depuis YunoHost, je tente de me connecter à mon PC en SSH, la procédure se déroule normalement (le mot de passe de la clé m’est demandé).

Avant ça j’ai tenté de configurer une connexion NFS, puis Samba, sans succès, on dirait que YunoHost et OpenMediVault ne veulent absolument pas communiquer l’un avec l’autre. Des idées ?

Share relevant logs or error messages

Pas de message d’erreur

Bonjour,
As-tu essayé de “pinguer” le serveur OMV depuis yunohost et de regarder les routes de chacun ? Sont-ils dans le même LAN et as-tu un routeur ?

Oui, le NAS répond au ping:

$ ping openmediavault.local
PING openmediavault.local (192.168.2.160) 56(84) bytes of data.
64 bytes from 192.168.2.160 (192.168.2.160): icmp_seq=1 ttl=64 time=0.213 ms
64 bytes from 192.168.2.160 (192.168.2.160): icmp_seq=2 ttl=64 time=0.672 ms
64 bytes from 192.168.2.160 (192.168.2.160): icmp_seq=3 ttl=64 time=0.213 ms
^C
\--- openmediavault.local ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2003ms
rtt min/avg/max/mdev = 0.213/0.366/0.672/0.216 ms

Les deux appareils sont dans le même LAN avec un simple routeur sous LibreCMC. J’ai vérifié la configuration de son pare-feu, il ne restreint pas les connexions au sein du LAN

Leurs IPs locales respectives sont:
YunoHost: 192.168.2.254
OpenMediaVault: 192.168.2.160

Te connectes-tu avec mot de passe ou clé ? Peut-être que l’option -vvv te permettra de savoir où cela bloque: ssh -vvv user@192.168.2....

Je me connecte avec clé publique

# ssh -vvv user@192.168.2.160
OpenSSH_9.2p1 Debian-2+deb12u7, OpenSSL 3.0.18 30 Sep 2025
debug1: Reading configuration data /etc/ssh/ssh_config
debug1: /etc/ssh/ssh_config line 19: include /etc/ssh/ssh_config.d/*.conf matched no files
debug1: /etc/ssh/ssh_config line 21: Applying options for *
debug2: resolve_canonicalize: hostname 192.168.2.160 is address
debug3: expanded UserKnownHostsFile '~/.ssh/known_hosts' -> '/root/.ssh/known_hosts'
debug3: expanded UserKnownHostsFile '~/.ssh/known_hosts2' -> '/root/.ssh/known_hosts2'
debug3: ssh_connect_direct: entering
debug1: Connecting to 192.168.2.160 [192.168.2.160] port 22.
debug3: set_sock_tos: set socket 3 IP_TOS 0x10

Tu n’aurais pas installé un “truc” du genre fail2ban sur OMV ?

Non, et je viens de regarder, le dossier /etc/fail2ban n’existe pas sur OMV

Que dit ip route get 192.168.2.160 depuis le serveur YNH ?

192.168.2.160 dev eth0 src 192.168.2.254 uid 49896 
    cache 

Bonjour, as-tu consulté le fichier log sur le NAS ?

Si c’est lunux Debian, ça devrait être

/var/log/auth.log

Est-ce que la clé publique a été faite avec l’IP ou avec le nom de la machine ?

Peut-être tenter un :

ssh -vvv user@openmediavault.local 

Bonjour,

Je n’ai pas de fichier /var/log/auth.log mais j’ai trouvé des logs pour ssh avec journalctl -u ssh. J’ai d’abord été étonné d’y trouver des mentions de connexions approuvées depuis l’IP de mon serveur Yunohost mais j’ai ensuite compris que c’est parce qu’il est le point de terminaison de mon VPN à travers lequel je me connecte sans problème à OMV depuis l’extérieur de mon NAS. En regardant les toutes dernières entrées et alors que je tente à nouveau de logguer mon YNH à mon NAS, aucune entrée n’apparaît dans le log par rapport à cette tentative de connexion

ssh -vvv user@192.168.2.160

OpenSSH_9.2p1 Debian-2+deb12u7, OpenSSL 3.0.18 30 Sep 2025
debug1: Reading configuration data /etc/ssh/ssh_config
debug1: /etc/ssh/ssh_config line 19: include /etc/ssh/ssh_config.d/*.conf matched no files
debug1: /etc/ssh/ssh_config line 21: Applying options for *
debug2: resolve_canonicalize: hostname 192.168.2.160 is address
debug3: expanded UserKnownHostsFile '~/.ssh/known_hosts' -> '/root/.ssh/known_hosts'
debug3: expanded UserKnownHostsFile '~/.ssh/known_hosts2' -> '/root/.ssh/known_hosts2'
debug3: ssh_connect_direct: entering
debug1: Connecting to 192.168.2.160 [192.168.2.160] port 22.
debug3: set_sock_tos: set socket 3 IP_TOS 0x10

Je viens de faire un scan nmap de mon NAS depuis mon serveur YunoHost:

# nmap 192.168.2.160
Starting Nmap 7.93 ( https://nmap.org ) at 2026-02-28 21:49 CET
Nmap scan report for 192.168.2.160
Host is up (0.000081s latency).
Not shown: 992 closed tcp ports (reset)
PORT     STATE SERVICE
22/tcp   open  ssh
80/tcp   open  http
111/tcp  open  rpcbind
139/tcp  open  netbios-ssn
443/tcp  open  https
445/tcp  open  microsoft-ds
5357/tcp open  wsdapi
8080/tcp open  http-proxy
MAC Address: **:**:**:**:**:** (Dell)

Nmap done: 1 IP address (1 host up) scanned in 0.37 seconds

ce serait bien de voir où ynh envoie les paquets. Par exemple en affichant

/var/log/syslog

Bonjour, désolé pour la réponse tardive

Dans /var/log/syslog je ne trouve pas d’entrée concernant les tentatives de connexion SSH vers OMV. J’ai en revanche de nombreux échecs de connexion NFS:

$ cat /var/log/syslog | grep 192.168.2.160
2026-03-01T20:16:07.772666+01:00 yunohost kernel: [959799.687927] nfs: server 192.168.2.160 not responding, timed out

J’avais essayé de connecter mon YNH en NFS vers OMV mais n’avais pas réussi. J’ai désactivé NFS-Client. J’ignore si ça peut être lié et provoquer un ban de l’IP (mais encore une fois je n’ai pas fail2ban sur OMV et je m’y connecte sans souci en SSH à travers mon VPN dont le point de terminaison est mon serveur YNH)

Peut-être vérifer la connexion via le port 22:

nc -zv 192.168.2.160 22

(inspiré de Fix ssh: connect to host port 22: Operation timed out: A Comprehensive Guide - howtouselinux )

Bonjour,

C’est étrange la connexion semble en effet bloquée puisque la commande ne retourne rien y compris pour d’autres ports que le port 22 (j’ai testé les ports 80 et 443)

Pourtant sur OpenMediaVault:

# iptables -L INPUT -n
Chain INPUT (policy ACCEPT)
target     prot opt source               destination

Et sur mon routeur:

# iptables -L FORWARD -n
Chain FORWARD (policy DROP)
target     prot opt source               destination         
forwarding_rule  all  --  0.0.0.0/0            0.0.0.0/0            /* !fw3: Custom forwarding rule chain */
ACCEPT     all  --  0.0.0.0/0            0.0.0.0/0            ctstate RELATED,ESTABLISHED /* !fw3 */
zone_lan_forward  all  --  0.0.0.0/0            0.0.0.0/0            /* !fw3 */
zone_wan_forward  all  --  0.0.0.0/0            0.0.0.0/0            /* !fw3 */
zone_wan_forward  all  --  0.0.0.0/0            0.0.0.0/0            /* !fw3 */
reject     all  --  0.0.0.0/0            0.0.0.0/0            /* !fw3 */

Cela ressemble à un problème d’interface réseau : le serveur ynh ne doit pas utiliser la bonne. Que renvoie ip addr ?

Bonjour,

Sur YunoHost:

#ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host noprefixroute 
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether dc:a6:32:99:10:8d brd ff:ff:ff:ff:ff:ff
    inet 192.168.2.254/24 brd 192.168.2.255 scope global dynamic noprefixroute eth0
       valid_lft 24760sec preferred_lft 24760sec
    inet6 2001:****:****:****:****:****:c974:54bd/64 scope global dynamic noprefixroute 
       valid_lft 2368540sec preferred_lft 381340sec
    inet6 fd6f:****:****:0:****:80e:55f7:2e86/64 scope global noprefixroute 
       valid_lft forever preferred_lft forever
    inet6 fe80::****:****:****:1860/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever
3: wlan0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc pfifo_fast state DOWN group default qlen 1000
    link/ether dc:a6:32:99:10:8e brd ff:ff:ff:ff:ff:ff
4: wg0: <POINTOPOINT,NOARP,UP,LOWER_UP> mtu 1420 qdisc noqueue state UNKNOWN group default qlen 1000
    link/none 
    inet 10.100.0.1/24 scope global wg0
       valid_lft forever preferred_lft forever
    inet6 fd08:4711::1/128 scope global 
       valid_lft forever preferred_lft forever

Et sur OpenMediaVault:

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host noprefixroute 
       valid_lft forever preferred_lft forever
2: enp1s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000
    link/ether d8:9e:f3:32:cc:e9 brd ff:ff:ff:ff:ff:ff
    altname enxd89ef332cce9
    inet 192.168.2.160/24 brd 192.168.2.255 scope global enp1s0
       valid_lft forever preferred_lft forever
    inet6 2001:****:****:****::c7c/128 scope global dynamic noprefixroute 
       valid_lft 2368428sec preferred_lft 381228sec
    inet6 fd6f:f6ad:ab56::c7c/128 scope global noprefixroute 
       valid_lft forever preferred_lft forever
    inet6 2001:****:****:****:da9e:f3ff:fe32:cce9/64 scope global dynamic mngtmpaddr noprefixroute 
       valid_lft 2368427sec preferred_lft 381227sec
    inet6 fd6f:f6ad:ab56:0:da9e:f3ff:fe32:cce9/64 scope global mngtmpaddr noprefixroute 
       valid_lft forever preferred_lft forever
    inet6 fe80::da9e:f3ff:fe32:cce9/64 scope link proto kernel_ll 
       valid_lft forever preferred_lft forever
3: wgnet1: <POINTOPOINT,NOARP,UP,LOWER_UP> mtu 1420 qdisc noqueue state UNKNOWN group default qlen 1000
    link/none 
    inet 10.192.1.254/24 scope global wgnet1
       valid_lft forever preferred_lft forever
4: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default 
    link/ether 46:15:54:09:8a:14 brd ff:ff:ff:ff:ff:ff
    inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
       valid_lft forever preferred_lft forever
5: br-754d1429c072: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default 
    link/ether 2a:1c:43:e3:d8:67 brd ff:ff:ff:ff:ff:ff
    inet 172.18.0.1/16 brd 172.18.255.255 scope global br-754d1429c072
       valid_lft forever preferred_lft forever
    inet6 fe80::****:****:****:d867/64 scope link proto kernel_ll 
       valid_lft forever preferred_lft forever
6: br-eaaf0af15d7b: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default 
    link/ether 6a:96:dc:1e:d7:56 brd ff:ff:ff:ff:ff:ff
    inet 172.19.0.1/16 brd 172.19.255.255 scope global br-eaaf0af15d7b
       valid_lft forever preferred_lft forever
    inet6 fe80::6896:dcff:fe1e:d756/64 scope link proto kernel_ll 
       valid_lft forever preferred_lft forever
11: veth0f27189@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master br-754d1429c072 state UP group default 
    link/ether fa:bc:2f:cd:bf:3a brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet6 fe80::f8bc:2fff:fecd:bf3a/64 scope link proto kernel_ll 
       valid_lft forever preferred_lft forever

J’ai anonymisé les IPv6. Je remarque que l’interface “classique” s’appelle eth0 sur YunoHost et enp1s0 sur OMV, ça pourrait être le problème ?

Can you check the content of /etc/hosts.deny in your NAS server and /etc/hosts in your YunoHost server?

Does open media vault has some sort of ip blocking mechanism? You may have configured an app on yunohost with wrong credentials that is triggering the ban.

Try iftop on both machines to see if there is any network activity between them.

Hello,

On my NAS server:

/etc/hosts.deny is empty:

# /etc/hosts.deny: list of hosts that are _not_ allowed to access the system.
#                  See the manual pages hosts_access(5) and hosts_options(5).
#
# Example:    ALL: some.host.name, .some.domain
#             ALL EXCEPT in.fingerd: other.host.name, .other.domain
#
# If you're going to protect the portmapper use the name "rpcbind" for the
# daemon name. See rpcbind(8) and rpc.mountd(8) for further information.
#
# The PARANOID wildcard matches any host whose name does not match its
# address.
#
# You may wish to enable this to ensure any programs that don't
# validate looked up hostnames still leave understandable logs. In past
# versions of Debian this has been the default.
# ALL: PARANOID

On my YNH server:
/etc/hosts

127.0.0.1	localhost
::1		localhost ip6-localhost ip6-loopback
ff02::1		ip6-allnodes
ff02::2		ip6-allrouters

127.0.1.1		yunohost

127.0.0.1	myserver

iftopon my YNH server, there is data transfer. (Actually, I’m doing heavy file transfer to my NAS through my VPN right now so it’s certainly that)
image