Da hat die SAP einen gemeinen Trick eingebaut.
Zuerst werden die Daten aus dem Cluster portionsweise
mit modify in Datenbank geschrieben.
Das commit work erfolgt allerdings erst ganz am Schluss.
Da gab es wohl immer wieder Deadlocks auf der Datenbank,
wegen zu wenig Platz im Tablespace (SAP-Note 84348)
aber keinen Laufzeitfehler.
Zudem muss me aufpassen, dass nicht auf einer
ultraschnellen Maschine auszuführen.
In der Methode flush_data werden die Daten nach Zeitstempel
sortiert und die kommen die SQL-Befehle delete, modify.
Gibt es viele gleich Zeitstempel, ist nicht sichergestellt
das zuerst der delete-Befehl kommt und danach die modify
Anweisung.
Im Anhang habe ich eine Prüf-Include erstellt,
der prüft ob Daten fehlen in den p2b2_* Tabellen
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.