Swiss flagSwiss Engineering On-Premise Enterprise KI / LLM leicht gemacht

Ersetzen Sie jede Cloud-KI durch sofort einsatzbereite Enterprise-KI-Server. Dank kompatiblen APIs und vorinstallierter aktueller LLM-Modelle, steuerbar über eine benutzerfreundliche Oberfläche ist es buchstäblich Plug&Play. Unter der Haube basiert unsere Lösung auf Rechenzentrumssoftware und gewährleistet einen reibungslosen Betrieb selbst in Air-Gapped-Umgebungen. In unserem Enterprise-KI-Labor testen wir kontinuierlich und rigoros die neuesten Technologien. Die souveräne KI-Plattform, entwickelt in der Schweiz von unabhängigen KI-Ingenieuren mit jahrzehntelanger praktischer Unternehmenserfahrung.

Sofort Einsatzbereit

Enterprise KI Server mit vorkonfiguriertem Chat und APIs

Für den professionellen Soforteinsatz. Leistungsstarke Hardware und nahtlos skalierbare Software auf Rechenzentrumsniveau. Einzeln oder im Verbund als Cluster einsetzbar.

XS EXPERIMENTAL
Server XS
1x Strix Halo APU
AMD Radeon 8060S
96 GB @ 0.3 TB/s
126 AI TOPS
~0.26KW max
ab CHF (zzgl. MwSt) 4'900
Kostenrechner
S EINSTEIGER
Server S
1x Blackwell GPU
Nvidia RTX6000WS
96 GB @ 1.8 TB/s
4000 AI TOPS
~1KW max
ab CHF (zzgl. MwSt) 17'900
Kostenrechner
M BUSINESS
Server M
4x Blackwell GPU
Nvidia RTX6000S
384 GB @ 1.6 TB/s
16000 AI TOPS
~3KW max
ab CHF (zzgl. MwSt) 79'900
Kostenrechner
L ENTERPRISE
Server L
8x Blackwell GPU
Nvidia MGX RTX6000S
768 GB @ 1.6 TB/s
32000 AI TOPS
~5.4KW max
ab CHF (zzgl. MwSt) 158'000
Kostenrechner
XL DATACENTER
Server XL
8x Blackwell GPU
Nvidia DGX B200
1440 GB @ 8 TB/s
144000 AI TOPS
~14.3KW max
ab CHF (zzgl. MwSt) 429'000
Kostenrechner

Keine Blackbox

Benutzerfreundliches Ressourcen-Management und Monitoring

Einfache, zentrale Oberfläche

Eine einheitliche Console bündelt Projekte, Modelle, Cluster-Steuerung und Auslastung in einer klar strukturierten, benutzerfreundlichen Ansicht.

Transparenz und Sicherheit

Integriertes Monitoring mit Echtzeit-Metriken zu Auslastung, kombiniert mit Audit-Logs für nachvollziehbare Nutzung.

Intelligente Ressourcenverteilung

Smartes Load Balancing und richtlinienbasierte Compute-Steuerung und stellen sicher, dass geschäftskritische Workloads priorisiert laufen, während weniger dringende Aufgaben automatisch in freie Kapazitäten verschoben werden.

Multi-Tenancy & Governance

Eine klare Trennung von Mandanten mit eigenen Quotas und isolierten Arbeitsbereichen ermöglicht es, mehrere Geschäftsbereiche sicher auf derselben Infrastruktur zu betreiben.

Automatische Cluster

Dank Auto-Discovery werden neue KI Server automatisch erkannt und können ganz einfach in passende Cluster- oder Ressourcengruppen eingebunden werden. So wächst die Infrastruktur dynamisch mit.

Laptop

Agent

Vorne mit dabei, ohne Datenabfluss in die Cloud

Datenschutz, ganz einfach

Statt nur zu chatten, erledigt die KI Aufgaben für Sie: Sie fragt Ihre internen Datenquellen ab, stößt Prozesse an und erstellt Ergebnisse direkt in Ihren Systemen. Alles über natürliche Sprache, vollständig on-premise – Ihre Daten verlassen niemals Ihre Infrastruktur. Wir helfen gerne bei der Integration.

Services ansehen

Vielseitig

Einfache Integration in Eigene KI-Projekte: Von Devs für Devs entwickelt

APIs und MCPs

APIs und MCPs

Effizient für Entwickler

Standardisierte Schnittstellen erlauben eine effiziente Anbindung der onprem KI in bestehende Fachapplikationen. LLM APIs und Model Context Protocol (MCPs) sind auf den onprem KI Servern vorinstalliert und sofort einsatzbereit, mit entwicklerfreundlichen Werkzeugen und Monitoring.

Container und eigene KIs

Container und eigene KIs

Völlige Flexibilität

Eigens trainierte KI Modelle trainieren können in allen gängigen Formaten (GGUF, ONNX, PyTorch, TensorRT) auf dem onprem KI server betrieben werden. Im Container-Format mit GPU Zugriff (Kubernetes HEML, Docker Compose) können selbst die komplexesten KIs für Video, Audio oder Bild installiert werden.

Workflow Automation

Workflow Automation

No Code / Low Code

Über eine visuelle Oberfläche können Geschäftsprozesse ganz ohne Programmierkenntnisse automatisiert werden. Durch das Verbinden von Datenquellen und Arbeitsschritten per Drag-and-Drop entstehen wiederverwendbare Abläufe, die Routineaufgaben spürbar entlasten.

Partner und Kunden

Warum onprem.ai benutzen?

Fragen?

Wir helfen gerne.

Unser Team unterstützt Sie gerne persönlich bei technischen Fragen, Angeboten oder individuellen Anforderungen. Viele Fragen beantworten wir bereits in unseren häufig gestellten Fragen – klar, kompakt und praxisnah.