Das Problem ist bei so etwas immer: Es gibt eine/mehrere technische Grenzen. Und man nähert sich dieser unweigerlich asymptotisch an. Man kann durch diverse Tricks das bremsen, aber ohne technische Innovation existiert dieses Limit. Dazu kommt das, sofern da nicht im Hintergrund die Systemarchitektur seit mehreren Jahren "brennt", jede Optimierung, die vermutlich Wochen bis Monate zur Umsetzung braucht, vielleicht 5ms am Ende bringt.
Mögliche Optimierungen und Probleme damit (ich weiß nicht ob sowas nicht schon umgesetzt wurde, vermutlich größtenteils schon oder es sprachen triftige Gründe dagegen):
- Datenbanksharding - Kann die Abfrage Lesequeries von Queries beschleunigen, verlangsamt idR. das schreiben massiv
- Effizientere Daten(bank)struktur - Bedeutet den kompletten Umbau der Serverlogik und Datenbank. Und das es danach wirklich schneller ist kann auch keiner garantieren
- Rewrite des Backends - s.o. keine Garantie auf Geschwindigkeitsbeschleunigung. Ggf. nur Problemverschiebung zu Netzwerk/Datenbank
- Update auf HTTP/2 oder HTTP/3 - Wenn die Systeme hinter dem Reverse-Proxy kein HTTP/2 können ist zwar die Übertragung von Client <-> Server schneller, aber der Reverse Proxy darf dann erstmal alles de und enkodieren => Macht es wieder langsamer
Gemäß des Pareto-Prinzip braucht man 20% um 80% der Leistung zu schaffen. Für die letzten 20% benötigt man 80% des Aufwands. Und dieser Wert wird immer geringer (und der Aufwand größer) je näher man dem absoluten technischen Limit kommt.