Prepare Uptime Kuma v2

Hi!
I was wondering if anyone could indicate me the steps to follow to test Uptime Kuma v2 on YunoHost. I would like to prepare the scripts/scenarios to be v2 compliant, allowing YunoHost to get the v2 version asap after release.

If anyone can tell me what are the steps fo follow (there is already a v2.0.0-beta1 available for Uptime Kuma on GitHub), I can take care of it.

Cheers!

  1. Fork the repo/create a branch based on testing
  2. Change sources in manifest.toml to the latest version available.
  3. Install new instance based on your branch/upgrade with sudo yunohost app upgrade uptime-kuma -u https://github.com/somename/uptime-kuma_ynh/tree/somebranch
  4. …
  5. Profit hopefully, if not fix errors and goto 3.
3 Likes

… or try it from this branch

4 Likes

Will work on it, thanks!

2 Likes

Hello, seems a big migration when updating from 1.23.16~ynh1 to 2.0.0~ynh3

Very long migration !! I wait since more than 1 hour, seems it was a DB migration…
Something like

  - 2025-09-03T17:15:03+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-15 [99.19%][46/46]
  - 2025-09-03T17:15:03+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-16 [99.24%][46/46]
  - 2025-09-03T17:15:03+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-17 [99.29%][46/46]
  - 2025-09-03T17:15:04+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-18 [99.34%][46/46]
  - 2025-09-03T17:15:04+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-19 [99.39%][46/46]
  - 2025-09-03T17:15:04+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-20 [99.44%][46/46]
  - 2025-09-03T17:15:05+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-21 [99.49%][46/46]
  - 2025-09-03T17:15:05+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-22 [99.54%][46/46]
  - 2025-09-03T17:15:05+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-23 [99.59%][46/46]
  - 2025-09-03T17:15:05+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-24 [99.64%][46/46]
  - 2025-09-03T17:15:06+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-25 [99.69%][46/46]
  - 2025-09-03T17:15:06+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-26 [99.74%][46/46]
  - 2025-09-03T17:15:06+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-27 [99.79%][46/46]
  - 2025-09-03T17:15:07+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-28 [99.84%][46/46]
  - 2025-09-03T17:15:07+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-29 [99.89%][46/46]
  - 2025-09-03T17:15:07+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-30 [99.94%][46/46]
  - 2025-09-03T17:15:07+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-08-31 [99.99%][46/46]
  - 2025-09-03T17:15:08+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-09-01 [100.00%][46/46]
  - 2025-09-03T17:15:08+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-09-02 [100.00%][46/46]
  - 2025-09-03T17:15:08+02:00 [DB] INFO: [DON'T STOP] Migrating monitor data 50 - 2025-09-03 [100.00%][46/46]
  - 2025-09-03T17:15:08+02:00 [DB] INFO: Clearing non-important heartbeats
  - 2025-09-03T17:15:09+02:00 [DB] INFO: Deleting non-important heartbeats for monitor 1

But is not even finished… Now I see in the domain page

Migration is in progress, listening message...

and in the logs (as in the domain page

2025-09-03T17:15:08+02:00 [DB] INFO: Clearing non-important heartbeats
2025-09-03T17:15:09+02:00 [DB] INFO: Deleting non-important heartbeats for monitor 1

Should I wait ?? or try restore the backup ??? … Shoud I stay or should I go now…

1 Like

Ah OK is always the migration… now is Deleting non-important heartbeats for monitor 2… etc…

4 Likes

Perhaps a good idea to do a PRE_UPGRADE.md to advice the upgrade / migration will take a long time…

3 Likes

Ok, migration done… It tooks around 3 hours for me !!!

1 Like

What’s your hardware?

on VM with 2 cores and 3GB RAM , but there was some database migrations and in this Uptime a lot of monitors 50 monitors ??

2 Likes

Coucou,

Je réponds ici car ce post est encore ouvert et en rapport avec le bug que nous sommes plusieurs à avoir rencontré après la mise à jour vers YunoHost 12.1.12. Je t’ajoute à la boucle @JfmbLinux car de mémoire tu as eu le même problème et tu as abandonné l’appli Uptime Kuma. Je viens de réussir à la réparer :partying_face:

En gros mon problème à moi, c’est que je fais les mises à jour quand je les vois et que c’est un moment quand je ne vais pas déranger mes utilisateur-ices (la nuit). Donc parfois lorsqu’elle viennent juste d’être publiées. Et que lorsque l’interface YunoHost me dit que c’est fini, je redémarre le serveur par réflexe en me disant que ça relancera avec les fichiers mis à jour proprement.

En fait je me suis aperçu que lorsque YunoHost ferme la fenêtre de mise à jour, Uptime Kuma continue de se mettre à jour et c’est là que j’ai dû interrompre la mise à jour de la base de données en redémarrant le serveur.

Pour résoudre le problème j’ai dû :

  • Supprimer l’application Uptime Kuma.
  • Restaurer une version que j’avais installĂ©e avant le bug (celle que j’ai retrouvĂ©e dans mon cas avait 3 mois de plus (juin 2025) mais ça n’a pas posĂ© de problème).
  • ExĂ©cuter la mise Ă  jour vers Uptime Kuma 2.0.0~ynh4.
  • Quand les fenĂŞtres de mises YunoHost se sont fermĂ©es, je suis allĂ© sur l’url du tableau de bord de Uptime Kuma et lĂ  j’ai vu les fameuses lignes encore en cours d’éxecution :
  • C’est restĂ© longtemps sur Clearing non-important heartbeats, j’ai fait ma vie au cas oĂą, 1h après c’était encore la mĂŞme ligne, j’ai rafraichi la page et :magic_wand: Uptime Kuma est Ă  jour et refonctionne.

J’espère que ça pourra en aider quelqu’un-es :face_blowing_a_kiss:

Longue vie à YunoHost et à sa (notre) communauté :fireworks:

1 Like

Pour info, c’est juste cette mise à jour majeure qui demandait une grosse migration et ré-édition de la database…

1 Like

Merci beaucoup pour l’info :slightly_smiling_face:

1 Like