Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Tibber: extend connection retry delay to 5s #18646

Merged
merged 1 commit into from
Feb 7, 2025

Conversation

GrimmiMeloni
Copy link
Collaborator

fix #18635

@GrimmiMeloni GrimmiMeloni requested a review from andig February 6, 2025 21:46
@GrimmiMeloni GrimmiMeloni self-assigned this Feb 6, 2025
@GrimmiMeloni GrimmiMeloni added enhancement New feature or request devices Specific device support labels Feb 6, 2025
Copy link

@Andi1887 Andi1887 left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Ich würde vorschlagen, hier auf einen höheren Wert zu gehen. Bei 5 Sekunden sind wir schon bei 60 Requests / 5 Min (Limit: 100 Requests / 5 Min). Wenn da noch ein zweiter Dienst die API nutzt wird es schnell eng. Im Sinne einer Cool-Down-Phase nachdem das Limit gerissen wurde, würde ich eher 20 oder 30 Sekunden vorschlagen.

@GrimmiMeloni
Copy link
Collaborator Author

Im Sinne einer Cool-Down-Phase nachdem das Limit gerissen wurde, würde ich eher 20 oder 30 Sekunden vorschlagen.

Dem stimme ich zu. Das Problem ist, daß die 429 nirgends exponiert wird. Es ist also nicht möglich, von außen zu unterscheiden ob ein Limit gerissen wurde, oder ob der Connect auf Grund eines temporären Fehlers auftritt.

Die Argumentation mit parallelen Clients kann ich zwar nachvollziehen, aber die sind auch eine komplette Unbekannte. Wieviele Clients (und mit welcher Request rate?) soll man jetzt annehmen? Wenn die Summe groß genug wird, ist kein Wert den wir hier definieren richtig. 😢

Vielleicht ist es besser wir lassen den Client "aufgeben", und bauen dann außen ein Exponentielles Backoff drumherum. Das können wir aber auch in einem dedizierten PR erledigen. Das Default Retry Intervall von 1s erscheint mir jedenfalls viel zu aggressiv - so oder so.

@andig andig merged commit 229b7f1 into evcc-io:master Feb 7, 2025
6 checks passed
@andig
Copy link
Member

andig commented Feb 7, 2025

Vielleicht löst Tibber ja irgendwann mal das hausgemachte Problem...

@Andi1887
Copy link

Andi1887 commented Feb 8, 2025

Soeben erfolgreich mit dem aktuellen nightly getestet. Nachdem ich eine Überschreitung des Rate-Limit herbeigeführt habe, kam für ein paar Minuten der erwartete Fehler, aber durch das höhere Retry-Interval fängt es sich dann ohne manuelles Eingreifen wieder. Danke!

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
devices Specific device support enhancement New feature or request
Projects
None yet
Development

Successfully merging this pull request may close these issues.

Tibber 429 too many requests Schleife
3 participants