Während künstliche Intelligenz und KI-gestützte Anwendungen Jahr für Jahr wachsen, wird Internet-Privatsphäre immer wichtiger. Durch die Integration mit Privacy-Technologien wie dem Anyone Network – einem dezentralen Onion-Routing-Netzwerk – können Nutzer KI sicher und anonym nutzen.
In diesem Gastbeitrag des Anyone-Protocol-Teams werfen wir einen Blick darauf, wie eine Aethir-GPU-Cloud-Unit für anonymes Serving konfiguriert werden kann und wie sie im Vergleich zu bestehenden GPU-Providern abschneidet.
Legen wir los!
Executive Summary
Zusammenarbeit
Anyone hat mit Aethir zusammengearbeitet, um dessen KI-GPU-Cloud-Infrastruktur zu evaluieren – mit Schwerpunkt auf GPU-Performance und Skalierbarkeit. Der Fokus dieses technischen Reviews liegt auf Benchmark-Tests der GPU-Leistung bei KI-Workloads, ergänzt durch die Entwicklung eines praktischen KI-Utility-Bots, der auf Telegram bereitgestellt wurde.
Bevor wir die Ergebnisse vorstellen, vergleichen wir die Infrastruktur-Bedürfnisse eines typischen kleinen bis mittelständischen Unternehmens (KMU) mit den Fähigkeiten einer einzelnen Aethir-GPU-Cloud-Unit. So schaffen wir den Kontext für Kosten-Effizienz, Skalierbarkeit und Performance in realen KI-Anwendungen.
Architektur
Cloud-Server-Spezifikationen
- Modell: RTX 5090 × 2
- CPU: AMD Ryzen 9 7900X (12-Kern-Prozessor)
- RAM: 64 GiB
- Speicher: 2 TB
- Netzwerk: 10 Gb
- GPU-Leistung: 575 W
- Betriebssystem: Ubuntu 22.04.1
On-Premise-Server-Spezifikationen
- Modell: RTX 4090
- CPU: Intel Core i9-13900KS (13. Generation)
- RAM: 64 GiB
- Speicher: 2 TB
- Netzwerk: 1 Gb
- GPU-Leistung: 450 W
- Betriebssystem: Kernel 6.17.2-arch1-1
Software-Architektur
Beide Systeme (Cloud und On-Premise) nutzen dieselbe Software-Konfiguration. Der einzige Unterschied ist die GPU.
Die Benchmark-Architektur wurde wie folgt definiert:
- Frontend: Telegram-Bot (User-Interface)
- Backend: python-telegram-bot + ComfyUI
- Datenbank: PostgreSQL (Session-Management und User-Tracking)
System-Workflow
In unserer Architektur beginnt die Benutzerinteraktion auf Telegram, wo der Bot als Kommando-Interface dient. Jede Anfrage wird geparst, in einen Task für ComfyUI übersetzt und dort ausgeführt.
Ablauf:
- Nutzer sendet einen Befehl via Telegram
- Bot empfängt & parst den Befehl
- Bot sendet den Job an ComfyUI
- ComfyUI führt das Modell-Inference-Workflow aus
- Ergebnis (z. B. Bild) wird an den Nutzer zurückgesendet
- PostgreSQL verwaltet Sessions, Queue-Status und Command-Mapping
Dies ermöglicht zustandslose Inferenz mit persistenter Kontexthaltung über die Datenbank – ideal für skalierbare Multi-User-Anwendungen.
Bot-Beispiel
Der Befehl /f sendet einen Text-zu-Bild-Prompt an ComfyUI.
Der Bot verarbeitet den Auftrag, wartet auf das erzeugte Bild und liefert es im Chat zurück.
Nach der Bildgenerierung kann der Nutzer mit weiteren Befehlen darauf aufbauen.
Beispiel:
- Bild eines Astronauten erzeugen
- Mit /qwen das T-Shirt eines anderen Bildes (Gans-T-Shirt) auf den Astronauten übertragen
Das löst einen Qwen-Image-Editing-Workflow aus.
Diese Command-Chaining-Funktion ermöglicht interaktive Multi-Step-Bildbearbeitung direkt im Chat.
Endpoints
Alle ComfyUI-Endpoints sind über Routen verfügbar und werden im offiziellen Server-Guide beschrieben:
https://docs.comfy.org/development/comfyui-server/comms_routes
Wichtige Endpoints:
Endpoint
Typ
Beschreibung
/ws
Websocket
Echtzeitkommunikation
/upload/image
POST
Bild hochladen
/prompt
GET
Queue-Status
/prompt
POST
Prompt abschicken
/queue
GET
Queue-Informationen
/queue
POST
Queue steuern (z. B. clear)
Der Telegram-Bot nutzt diese Endpoints programmgesteuert, um eine intuitive Nutzererfahrung zu ermöglichen.
Privatsphäre
Um Nutzerdaten zu schützen und sichere, anonyme Übertragung zu garantieren, werden die ComfyUI-Endpoints über das Anyone-Network geroutet.
Mithilfe des offiziellen Python-SDK:
https://github.com/anyone-protocol/python-sdk
können ComfyUI-API-Calls durch sichere, anonyme Tunnel gesendet werden.
Hidden Services
Das Anyone-SDK unterstützt „Hidden Services“ – private, nicht lokalisierbare Serverendpunkte, die keine IP oder Infrastrukturdetails offenlegen.
Beispiel eines Hidden Service:
http://5ugakqk324gbzcsgql2opx67n5jisaqkc2mbglrodqprak5qz53mibyd.anon
http://5ugakqk324gbzcsgql2opx67n5jisaqkc2mbglrodqprak5qz53mibyd.anyone
Hidden Services eignen sich für:
- KI-Inference ohne Server-Exposure
- sensitives oder anonymes Deployment
- private GPU-Pipelines
Mehr Infos:
https://docs.anyone.io/sdk-integrations/native-sdk/tutorials
Benchmarks
Vergleich der RTX 4090 und RTX 5090 bei identischen ComfyUI-Workflows.
Stable Diffusion 3
- Template: sd3.5_simple_example
- 4090: 8.96 s
- 5090: 5.96 s
- Speedup: ~33.48%
FLUX-SCHNELL
- Template: flux_schnell_full_text_to_image
- 4090: 4.92 s
- 5090: 1.80 s
- Speedup: ~63.41%
FLUX-DEV
- Template: Custom
- 4090: 16.05 s
- 5090: 10.11 s
- Speedup: ~37.01%
WAN 2.2 (Video Diffusion)
- Template: video_wan2_2_14B_t2v
- 4090: 61.87 s
- 5090: 37.15 s
- Speedup: ~39.94%
QWEN (Image Editing)
- Template: image_qwen_image_edit_2509
- 4090: 9.62 s
- 5090: 4.44 s
- Speedup: ~53.83%
Multi-GPU Nutzung
Da der Cloud-Server zwei GPUs besitzt, können Workloads zwischen ihnen aufgeteilt werden – durch gezielte Device-Zuweisungen der ComfyUI-Nodes.
Multi-GPU Beispielprojekt:
https://github.com/pollockjj/ComfyUI-MultiGPU
Kurzvorstellung Anyone Protocol
Anyone ist eine dezentrale globale Privacy-Infrastruktur.
Durch Integration in deren Onion-Routing-Netzwerk können Anwendungen vertrauenswürdige Privatsphäre bieten, ohne die User Experience zu verändern.
Das Netzwerk besteht aus Tausenden von Nodes, die Bandbreite bereitstellen und dafür Token-Rewards erhalten.
Mehr Infos:
https://www.anyone.io
.jpg)




