Re: Spezialistenfrage....grosse Datenmengen unter DB2


[ Antworten ] [ Forum ]

Geschrieben von Kai am September 14, 2001 um 20:46:

Als Antwort auf Spezialistenfrage....grosse Datenmengen unter DB2 geschrieben von Felix Spitznagel on September 10, 2001 um 16:45:

: hallo,

: ich programmiere derzeit einen personalisierungs algorithmus, der in seiner ersten phase ein model berechnet. dieses model kann jedoch ziemlich gross werden, in meinem fall muss ich etwas über 28.5 millionen inserts auf die datenbank loslassen.

: weiss jemand, wie man solche mengen am besten mit db2 verarbeitet? bzw wie man diese doch recht grosse menge an (insert) statements db2 möglichst gut und vor allem SCHNELL verständlich beibringen kann? wie gross sollte die logfilesize dafür sein (bzw wieviele primary logfiles)?

: im augenblick ist meine lösung eine verschachtelte for schleife in einer stored procedure. am ende eines jeden schleifendurchgangs stehen dann jeweils 2 inserts.

: gibt es dafür bessere lösungen?

: vielen dank
: felix

1. Bezieht sich Dein Problem auf DB2 für OS/390?
2. Wenn ja,warum kann Dein Insert-Problem nicht mit einem Load-Utility erledigt werden?
3. Du sprichst von 28.5 Millionen Inserts, was hast Du denn dafür an Speicherplatz berechnet (Index- und Datenspace)?
3. Die Größe eines Logfiles sollte nicht abhängig von der Anzahl der Inserts sein, es sei denn die Daten werden nicht regelmäßig committet und dies sollte bei dieser Anzahl von Datensätzen ja wohl nicht sein, oder?




Antworten:


Schreibe eine Antwort

Name:   
E-Mail:  

Thema:

Kommentar:

Optionale Link URL:   
Link Titel:                  
Optionale Image URL:


[ Antworten ] [ Forum ]