Pentalink Consulting

Geschütztes Dokument

Bitte geben Sie das Passwort ein, um fortzufahren.

Falsches Passwort. Bitte versuchen Sie es erneut.

Pentalink Editor


Falsches Passwort
Pentalink Consulting

OT-Datenplattform

Angebot – Datenarchitektur & Bereitstellung für die Produktion
Weidemann-Wackerneusen | Werk Korbach März 2026 v0.5
Ausgangslage
Produktionsdaten sind der Schlüssel zu besseren Entscheidungen – aber heute fehlt der Zugang.

IST-SITUATION

  • IT liefert keine SAP-Daten an Fachabteilungen
  • 6–12 Monate Wartezeit pro Datenanfrage
  • Keine zentrale Produktionsdaten-Infrastruktur
  • Daten fragmentiert: SAP, PDFs, lokale Systeme
  • Use-Case-Anbieter (z.B. QS) ohne Datenzugang

ZIELBILD

  • 1x Datenmodell für alle Use Cases
  • Snowflake SaaS – kein Serverbetrieb nötig
  • REST API pro Anbieter (Key-Pair Auth)
  • Neue Use Cases ohne IT-Abstimmung möglich
  • Eigenständig nach einmaligem Setup
  • AI-Ready: KI-Workloads direkt auf der Plattform (Frankfurt, governed)
Warum Snowflake?
Enterprise-Datenplattform – sicher, hochverfügbar, AI-ready.
🔒

Sicherheit & Zugriffskontrolle

Zertifiziert nach SOC 2 Type II und ISO 27001 – den strengsten Standards für Cloud-Sicherheit. Alle Daten werden verschlüsselt gespeichert (AES-256) und verschlüsselt übertragen (TLS 1.2+). Jeder Anbieter erhält einen eigenen Service-User mit RSA-Schlüsselpaar und sieht ausschließlich seinen Data Mart – nicht mehr.

🏢

Hochverfügbarkeit

Reale Verfügbarkeit liegt in den meisten Regionen bei über 99,95% – das sind wenige Minuten ungeplante Downtime pro Jahr. Dahinter: 3-AZ-Deployment mit synchroner Replikation und Zero-Downtime-Updates, ohne Admin-Aufwand. Bei Business Critical zusätzlich: automatischer Failover auf beschreibbaren Standby in einer zweiten Region – ETL-Jobs und BI-Tools brauchen keine Umkonfiguration.

⚙️

Zero-Maintenance

100% SaaS – keine eigenen Server, keine Patches, keine Upgrades. Backup und Disaster Recovery sind inkludiert. Ihre IT muss keinen Datenbankbetrieb leisten – Snowflake übernimmt das komplett.

📈

Auto-Scaling

Skaliert automatisch mit dem Datenvolumen – von 100 bis 100 Millionen Datensätze, ohne Hardware-Planung. Wenn Ihr Datenaufkommen wächst, wächst die Plattform mit – ohne Migrationsprojekt.

💰

Pay-per-Use

Sie zahlen nur, was tatsächlich genutzt wird. Kein Vorab-Investment, keine Fixkosten. Initial geschätzt unter 300 €/Monat – die Kosten wachsen erst mit der tatsächlichen Nutzung.

🧠

AI-Ready

Snowflake Cortex und Snowpark ermöglichen KI- und ML-Workloads direkt auf Ihren Produktionsdaten – im Rechenzentrum Frankfurt, in Ihrer gegovernten Umgebung. Keine Daten verlassen die Plattform. Das Datenmodell aus Phase 0 ist die Grundlage für jeden zukünftigen KI-Use-Case: Predictive Quality, Anomalieerkennung, Dokumentenextraktion.

Architektur & Edge-Anbindung
Von der Quelle bis zum Use-Case-Anbieter – eine durchgängige Datenplattform.
SchichtBeschreibungBetriebScope
1. QuellsystemeSAP (Push), PDFs, lokale SystemeKunde / ITSchnittstelle
2. SnowflakeRaw → Staging → Curated → Data Mart
Native REST API
Managed SaaSPentalink
3. API-ZugriffSQL REST API, Key-Pair Auth
Service-User pro Anbieter
Managed SaaSPentalink
4. Edge / Use CasesKameras, Edge-Devices, Apps
Kommunikation via REST API
AnbieterNicht Pentalink

Edge-Konzept: Anbieter vor Ort ↔ Datenplattform in der Cloud

  • Edge-Geräte (Kameras, Sensoren, Industrierechner) laufen lokal im Werk
  • Daten werden per HTTPS REST API aus Snowflake abgerufen und Ergebnisse zurückgeschrieben
  • Kein VPN, keine Middleware, keine proprietären Protokolle – Standard-HTTPS reicht
  • Edge-Geräte werden mit ausreichend Daten versorgt, um auch bei temporärem Cloud-Ausfall autonom weiterzuarbeiten – die Synchronisation erfolgt automatisch, sobald die Verbindung wiederhergestellt ist
  • Neuer Anbieter? Service-User + Key-Pair + Data Mart = fertig (Stunden, nicht Wochen)
Zentrales Datenmodell
Die strategisch wichtigste Komponente: Einmal aufbauen, für alle Use Cases nutzen.

Warum zentral?

  • Single Source of Truth – keine Insellösungen
  • Einmalige Investition, dauerhaft nutzbar
  • Vendor-agnostisch: Anbieter A oder B – gleiche Schnittstelle
  • Zukunftssicher: Neue Dimensionen einfach ergänzbar
  • Grundlage für den POC: Ohne Modell kein sinnvoller Test

ENTWURF – wird in Phase 0 gemeinsam erarbeitet

Beispiel-DimensionVermutete QuelleMögliche Daten
Material / ProduktSAP MM/PPMaterialnr., Stückliste
FertigungsauftragSAP PP/COAuftragsnr., Menge
Auftragsausstattung*SAP PPVarianten, Merkmale
PDFs / KI*DokumentenablageKonfigurationen
ArbeitsplatzSAP PPID, Kapazität, Schicht
QualitätSAP QMPrüflose, Fehler
Lager / LogistikSAP MM/WMBestände, Bewegungen
ZeitZentralDatum, Schicht, KW

* = Optional · Alle Dimensionen sind Beispiele auf Basis öffentlich verfügbarer Informationen. Das finale Datenmodell wird in Phase 0 gemeinsam mit Ihrem Team erarbeitet.

Scope: Wer macht was
Pentalink = Daten. Anbieter = Use Cases. Kunde = IT-Push + Steuerung Anbieter.
Pentalink (dieses Angebot)Nicht im Scope
Zentrales DatenmodellKamerasystem / QS-Software
Snowflake-Plattform (Enterprise SaaS)Edge-Hardware
SAP-Push spezifizieren + testenSAP-seitige Implementierung (IT)
Daten-Layer (Raw → Curated → Data Mart)Produktions-IT / SPS / MES
REST API + Service-User pro AnbieterAnwendungsentwicklung
Schnittstellenabstimmung + OnboardingSteuerung Use-Case-Anbieter
KI PDF-Extraktion* (optional)Maschinensteuerung / Sensorik
Milestones & Investition
Bezahlung nur gegen konkretes Deliverable. Ausstieg nach jedem Milestone möglich.
Gesamtinvestition
86.472 €
Phase 0–6 (ohne Optional)
Milestones
7
M0 – M6
Laufzeit
17–25
Wochen (abh. IT-Reaktionszeit)
Personentage
~80
Phase 0–6
MS Milestone Deliverable Anteil Betrag
M0 Datenmodell verabschiedet Datenmodell + SAP-Extraktspezifikation, reviewed + freigegeben 28% 23.940 €
M1 POC abgeschlossen POC-Ergebnisbericht + Go/No-Go Empfehlung 8% 6.660 €
M2 Snowflake live Produktive Plattform, Sicherheitskonzept, Push funktional 12% 10.560 €
M3 Daten-Layer komplett Alle Layer befüllt, DQ-Checks aktiv, Monitoring läuft 19% 16.476 €
M4 API & Anbieter live REST API konfiguriert, QS-Anbieter hat Zugang, Dokumentation fertig 14% 11.976 €
M5 Pilotbetrieb validiert E2E validiert, Rückschreibung getestet, QS produktiv 8% 7.140 €
M6 Handover & Abschluss Betriebsdoku, Schulung, Projektabschluss 11% 9.720 €
GESAMT7 Milestones über 17–25 Wochen 100% 86.472 €
Review vor jeder Abrechnung

Ergebnis wird präsentiert, Feedback eingearbeitet, dann erst Abnahme und Rechnungsstellung.

Ausstieg nach jedem Milestone

Alle bisherigen Ergebnisse sind übergeben und eigenständig nutzbar. Kein Lock-in.

IT-Verzögerung ≠ Abrechnungsverzögerung

Pentalink-Anteil fertig? Milestone abrechnungsfähig. Stichtag + 2 Wochen Toleranz. Wiederaufnahme nach >4 Wochen Gap.

Arbeitspakete
Aufwand in Personentagen (PT). Details werden in Phase 0 geschärft.

⚙ Stundensätze (intern – nicht sichtbar für Kunden)

€ / Stunde
€ / Stunde
€ / Stunde
Nr. Arbeitspaket PT Jr Sr Mgr € Zeile Dauer Abhängig. MS
0Phase 0: Datenmodell & AnforderungsanalyseM0
0.1Kick-off Workshop2.040 €21 Tag
0.2Ist-Analyse Produktionsprozesse3.276 €31 Wo.0.1
0.3SAP-Datenlandschaft analysieren2.400 €21 Wo.0.1
0.4Nicht-SAP-Datenquellen erfassen2.040 €2parallel0.1
0.5Use-Case-Katalog erstellen2.184 €2parallel0.2
0.6Zentrales Datenmodell entwerfen6.000 €52 Wo.0.3–0.5
0.7Datenmodell-Review2.400 €22 Tage0.6
0.8SAP-Extraktspezifikation3.600 €31 Wo.0.7
Summe Phase 02123.940 €4–6 Wo.M0
1Phase 1: POC – SAP-Push validierenM1
1.1Snowflake Staging einrichten1.020 €11 TagM0
1.2SAP-Extraktspez. an IT übergeben1.200 €11 TagM0
1.3IT führt Test-Push durch2.040 €21–2 Wo.1.2
1.4POC-Validierung & Ergebnis1.200 €12 Tage1.3
1.5POC-Ergebnisbericht + Go/No-Go1.200 €11 Tag1.4
Summe Phase 166.660 €2–4 Wo.M1
2Phase 2: Snowflake Setup & SchnittstelleM2
2.1Snowflake produktiv einrichten2.040 €22 TageM1
2.2Sicherheitskonzept umsetzen2.400 €22 Tage2.1
2.3Push-Schnittstelle finalisieren2.184 €22 Tage2.1
2.4Staging/Streaming API produktiv1.896 €22 Tage2.3
2.5Integrationstest mit IT2.040 €22 Tage2.4
Summe Phase 21010.560 €2–3 Wo.M2
3Phase 3: Daten-Onboarding & TransformationM3
3.1Raw-Layer aufbauen2.844 €33 TageM2
3.2Staging-Layer: Bereinigung3.792 €44 Tage3.1
3.3Curated-Layer: Fachliche Modellierung5.100 €51 Wo.3.2
3.4Data Quality Checks2.844 €33 Tage3.3
3.5Monitoring & Alerting1.896 €22 Tage3.4
Summe Phase 31716.476 €3–4 Wo.M3
4Phase 4: API & Anbieter-OnboardingM4
4.1Data Marts definieren3.276 €33 TageM3
4.2Snowflake REST API konfigurieren3.060 €33 Tage4.1
4.3API-Zugriffsdokumentation2.040 €22 Tage4.2
4.4Schnittstellenabstimmung QS-Anbieter2.400 €22 Tage4.2
4.5Key-Rotation-Prozess1.200 €11 Tag4.2
Summe Phase 41111.976 €2–3 Wo.M4
5Phase 5: Pilotbetrieb DatenbereitstellungM5
5.1QS-Anbieter Testzugriff einrichten1.020 €11 TagM4
5.2Datenvalidierung mit QS-Anbieter2.040 €22 Tage5.1
5.3Rückschreibe-Pfad testen2.040 €22 Tage5.2
5.4End-to-End Validierung2.040 €22 Tage5.3
Summe Phase 577.140 €2–3 Wo.M5
6Phase 6: Dokumentation & HandoverM6
6.1Gesamttest & Abnahme3.060 €33 TageM5
6.2Betriebsdokumentation3.060 €33 Tage6.1
6.3Schulung Betriebsteam2.400 €22 Tage6.2
6.4Handover & Projektabschluss1.200 €11 Tag6.3
Summe Phase 699.720 €2 Wo.M6
7*Phase 7a/7b: KI PDF-Extraktion / Web-Eingabemaske (Optional)
7a*KI-DokumentenextraktionTBDTBDM3
7b*Web-EingabemaskeTBDTBDM3
GESAMT Phase 0–6~81 PT86.472 €17–25 Wo.7 MS
Nächste Schritte
1.
Grobkonzept freigeben
2.
Milestone-Preise abstimmen
3.
Phase 0 beauftragen (M0: Datenmodell)
4.
Phase 0 durchführen (4–6 Wochen)
5.
Review M0 – Datenmodell + Extraktspez. übergeben
6.
POC durchführen (M1, 2–4 Wochen)
7.
Go / No-Go
8.
Bei Go: Phasen 2–6 beauftragen (M2–M6)
Formales Angebot
Das rechtsverbindliche Angebot mit Steuerausweisung zur Unterschrift.

Angebot zur Unterschrift herunterladen

Dieses Dokument enthält das formale Angebot inkl. Steuerausweisung, Zahlungsbedingungen und Unterschriftsfeld. Bitte unterschrieben an sascha@pentalink.de zurücksenden.

Formales Angebot (PDF)