Spezialistenfrage....grosse Datenmengen unter DB2Geschrieben von Felix Spitznagel on September 10, 2001 um 16:45: hallo, ich programmiere derzeit einen personalisierungs algorithmus, der in seiner ersten phase ein model berechnet. dieses model kann jedoch ziemlich gross werden, in meinem fall muss ich etwas über 28.5 millionen inserts auf die datenbank loslassen. weiss jemand, wie man solche mengen am besten mit db2 verarbeitet? bzw wie man diese doch recht grosse menge an (insert) statements db2 möglichst gut und vor allem SCHNELL verständlich beibringen kann? wie gross sollte die logfilesize dafür sein (bzw wieviele primary logfiles)? im augenblick ist meine lösung eine verschachtelte for schleife in einer stored procedure. am ende eines jeden schleifendurchgangs stehen dann jeweils 2 inserts. gibt es dafür bessere lösungen? vielen dank
Antworten:
|